Qu'est-ce que le format entier?
Un format entier est un type de données en programmation informatique. Les données sont typées en fonction du type d'informations stockées, de la précision avec laquelle les données numériques sont stockées et de la manière dont ces informations doivent être manipulées lors du traitement. Les entiers représentent des unités entières. Les entiers occupent moins d’espace en mémoire, mais cette fonction d’économie d’espace limite la magnitude de l’entier pouvant être stocké.
Les entiers sont des nombres entiers utilisés dans les applications d'arithmétique, d'algèbre, de comptabilité et de dénombrement. Un nombre entier implique qu'il n'y a pas de petites unités partielles. Le nombre 2 en tant qu'entier a une signification différente du nombre 2.0. Le second format indique qu'il y a deux unités entières et zéro dixième d'une unité mais que des dixièmes d'une unité sont possibles. Le premier nombre, en tant que nombre entier, implique que des unités plus petites ne sont pas considérées.
Il existe deux raisons pour un format entier dans les langages de programmation. Tout d'abord, un format entier convient aux objets non divisibles en unités plus petites. Un responsable qui rédige un programme informatique pour calculer la division d’un bonus de 100 USD entre trois employés n’attribuerait pas un format entier à la variable bonus mais en utiliserait un pour stocker le nombre d’employés. Les programmeurs ont reconnu que les nombres entiers sont des nombres entiers et qu’ils ne nécessitent pas autant de chiffres pour être représentés avec précision.
Aux débuts de l'informatique, l'espace mémoire était limité et précieux, et un format entier a été développé pour économiser de la mémoire. La mémoire de l'ordinateur étant un système binaire, les nombres étaient représentés en base 2, ce qui signifie que les chiffres acceptables sont 0 et 1. Le nombre 10 en base 2 représente le nombre 2 en base 10, car le 1 dans la colonne des deux est le chiffre multiplié par 2. élevé à la deuxième puissance. 100 en base 2 est égal à 8 en base 10, car le 1 dans la première colonne correspond à 1 multiplié par 2 cubes.
En utilisant une base on / off pour représenter les nombres binaires, des ordinateurs à base électrique ont été développés. Un bit est une simple représentation on / off, true / false ou 0/1 des données. Alors que différentes configurations matérielles ont été explorées à l'aide de variations du nombre de bits directement adressables par l'ordinateur, l'octet de 8 bits et le mot de 2 octets sont devenus la norme pour l'informatique à usage général. Ensuite, la spécification de la largeur du format entier ne détermine pas le nombre de décimales, mais la plus grande et la plus petite valeur qu'un entier peut prendre.
Les formats entiers de la plupart des langues permettent d'utiliser un bit pour désigner un entier positif ou négatif. Sur un compilateur de langage 32 bits, les langages C / C + utilisent le format entier, int, pour stocker des valeurs entières signées comprises entre –231 et 231-1. Un nombre entier est soustrait pour tenir compte du zéro, soit environ + 2,1 milliards de dollars. Sur un compilateur 64 bits, en utilisant le type de données int64, les valeurs entières signées comprises entre -263 et 263-1, ou +/- 9,2 quintillions, sont autorisées.