Co to jest format liczb całkowitych?
Format liczb całkowitych jest typem danych w programowaniu komputerowym. Dane są wpisywane według rodzaju przechowywanych informacji, z jaką dokładnością są przechowywane dane numeryczne i jak manipulować tymi informacjami podczas przetwarzania. Liczby całkowite reprezentują całe jednostki. Liczby całkowite zajmują mniej miejsca w pamięci, ale ta funkcja oszczędzania miejsca ogranicza wielkość liczby całkowitej, którą można zapisać.
Liczby całkowite to liczby całkowite używane w aplikacjach arytmetycznych, algebrze, rachunkowości i wyliczania. Liczba całkowita oznacza, że nie ma mniejszych częściowych jednostek. Liczba 2 jako liczba całkowita ma inne znaczenie niż liczba 2,0. Drugi format wskazuje, że istnieją dwie całe jednostki i zero dziesiątych części, ale możliwe są dziesiąte części. Pierwsza liczba, jako liczba całkowita, oznacza, że mniejsze jednostki nie są brane pod uwagę.
Istnieją dwa powody dla formatu liczb całkowitych w językach programowania. Po pierwsze, format całkowity jest odpowiedni przy rozważaniu obiektów, których nie można podzielić na mniejsze jednostki. Menedżer piszący program komputerowy do obliczenia podziału premii 100 USD między trzech pracowników, nie przypisałby formatu liczb całkowitych zmiennej zmiennej, ale użyłby jednego do przechowywania liczby pracowników. Programiści zauważyli, że liczby całkowite są liczbami całkowitymi i nie wymagają dokładnej reprezentacji tylu cyfr.
We wczesnych dniach obliczeń przestrzeń pamięci była ograniczona i cenna, a do zapisania pamięci opracowano format liczb całkowitych. Ponieważ pamięć komputera jest systemem binarnym, liczby były reprezentowane w bazie 2, co oznacza, że dopuszczalne cyfry to 0 i 1. Liczba 10 w bazie 2 reprezentuje liczbę 2 w bazie 10, ponieważ 1 w kolumnie dwóch to cyfra pomnożona przez 2 podniesiony do drugiej potęgi. 100 w podstawie 2 równa się 8 w podstawie 10, ponieważ 1 w pierwszej kolumnie jest 1 pomnożony przez 2 kostki.
Wykorzystując metodę włączania / wyłączania do reprezentowania liczb binarnych, opracowano komputery z napędem elektrycznym. Bit jest pojedynczym włączaniem / wyłączaniem, true / false lub 0/1 reprezentacją danych. Podczas gdy badano różne konfiguracje sprzętowe przy użyciu zmian liczby bitów, które są bezpośrednio adresowalne przez komputer, 8-bitowy bajt i 2-bajtowe słowo stały się standardem w komputerowym zastosowaniu ogólnym. Następnie specyfikacja formatu formatu liczb całkowitych określa nie liczbę miejsc po przecinku, ale największą i najmniejszą wartość, jaką może przyjąć liczba całkowita.
Formaty liczb całkowitych w większości języków pozwalają nieco na użycie znaku do oznaczenia dodatniej lub ujemnej liczby całkowitej. W 32-bitowym kompilatorze językowym języki C / C + używają formatu całkowitego, int, do przechowywania podpisanych wartości całkowitych od –231 do 231-1. Odejmuje się jedną wartość całkowitą, aby uwzględnić zero lub około +/- 2,1 biliona. W 64-bitowym kompilatorze, używając typu danych int64, dozwolone są wartości całkowite ze znakiem od -263 do 263-1 lub +/- 9,2 kwintillion.