Vad är primitiv datatyp?
En primitiv datatyp är en datavetenskaplig term som används för att beskriva en datadyper som finns inom ett datorprogrammeringsspråk som standard. Normalt kan värdena på dessa typer av data inte ändras av en datorprogrammerare. Till exempel, om ett datorprogram var en tegelvägg, skulle primitiva datatyper vara en speciell typ av tegel som inte kunde brytas ned eller förfinas ytterligare. Ett exempel på en bit primitiva data är karaktären "a"; denna karaktär betyder sig själv och används för att representera mer komplicerade informationsdelar genom att kombinera den med andra informationsdelar. Medan de exakta primitiva datatyperna som finns tillgängliga på ett givet datorprogrammeringsspråk varierar från språk till språk, är heltal och tecken grundläggande primitiva datatyper som finns tillgängliga inom de flesta av dem.
"Tecknet" är en av de grundläggande primitiva datatyperna som finns tillgängliga inom de flesta datorprogrammeringsspråk, och det hänvisas ibland i den förkortade formen "char." ett enda tangenttryckning, till exempel siffersymbolen "5", skiljetecken som ".", och bokstaven "b." Termen tecken betyder dock inte bara bokstäver, siffror eller skiljetecken. Kontrolltecken som radera, flik och bakrymd faller också under det primitiva datatypstecknet.
I allmänhet är allt som är en primitivt datatyp också en värdetyp, vilket innebär att uppgifterna inte är så picky. Uppgifterna behöver inte alltid registreras på samma sätt. Till exempel spelar det inte någon roll i vilken ordning byte som beskriver data registreras i.
Ett område som vissa programmeringsspråk varierar på är deras behandling av strängar. Som en datavetenskaplig term är en sträng en sekvens av symboler, till exempel tecken. Vissa programmeringsspråk bygger stöd för strängar och behandlar dem som en primitiv datatyp medan andra språk inte har så grundläggande stöd för datatypen.
Heltal är ett område där datormaskinvara kan påverka behandlingen av primitiva datatyper. I datavetenskapens terminologi representerar ett heltal ett eller flera matematiska heltal. Olika centrala processorenheter (CPU) har olika gränser för hur många byte som kan användas för att representera ett heltal. Ibland är det något som dataprogrammerare tänker på så att deras program kan köras på så många olika typer av CPU: er som möjligt.