Hvad er heltalformat?
Et heltalformat er en datatype i computerprogrammering. Data indtastes efter den type information, der gemmes, til hvilken nøjagtighed numeriske data er gemt, og hvordan disse oplysninger skal manipuleres under behandlingen. Heltal repræsenterer hele enheder. Heltal optager mindre plads i hukommelsen, men denne pladsbesparende funktion begrænser størrelsen på det heltal, der kan gemmes.
Heltal er hele tal, der bruges i aritmetiske, algebra, regnskabs- og optællingsapplikationer. Et helt tal indebærer, at der ikke er mindre delvise enheder. Tallet 2 som et heltal har en anden betydning som tallet 2.0. Det andet format angiver, at der er to hele enheder og nul tiendedele af en enhed, men at tiendedele af en enhed er mulige. Det første tal indebærer som heltal, at mindre enheder ikke betragtes.
Der er to grunde til et heltalformat i programmeringssprog. For det første er et heltalformat passende, når man overvejer objekter, der ikke kan deles i mindre enheder. En manager, der skriver et computerprogram for at beregne opdelingen af en bonus på $ 100 mellem tre ansatte, tildeler ikke et heltalformat til bonusvariablen, men ville bruge et til at gemme antallet af ansatte. Programmerere erkendte, at heltal er hele tal og ikke kræver, at så mange cifre er repræsenteret nøjagtigt.
I de tidlige dage af computeren var hukommelsesområdet begrænset og dyrebart, og et heltalformat blev udviklet til at gemme hukommelsen. Da computerhukommelse er et binært system, blev numre repræsenteret i base 2, hvilket betyder, at accepterede cifre er 0 og 1. Tallet 10 i base 2 repræsenterer tallet 2 i base 10, da 1 i to-søjlen er tallet multipliceret med 2 hævet til den anden magt. 100 i base 2 er lig med 8 i base 10, da 1 i den første søjle er 1 ganget med 2 kuber.
Ved hjælp af en on / off-basis til repræsentation af binære numre blev der udviklet elektrisk baserede computere. En bit er en enkelt on / off, sand / falsk eller 0/1 repræsentation af data. Mens forskellige hardwarekonfigurationer blev undersøgt ved hjælp af variationer af antallet af bit, der direkte kan adresseres af computeren, blev 8-bit-byte og 2-byte-ordet standard til beregning af almindelig brug. Derefter bestemmer specifikationen af heltalets formatbredde ikke antallet af decimaler, men den største og mindste værdi, som et heltal kan antage.
De fleste sprogs heltalsformater tillader, at en bit bruges til et tegn til at udpege et positivt eller negativt heltal. På en 32-bit sprogkompiler bruger C / C + sprog heltalformatet, int, til at gemme underskrevne heltalværdier mellem –231 til 231-1. En heltalværdi subtraheres for at rumme nul eller ca. +/- 2,1 billioner. På en 64-bit compiler, der bruger int64-datatypen, er underskrevne heltalværdier mellem -263 til 263-1 eller +/- 9,2 quintillion tilladt.