Skip to main content

Qu'est-ce que le format entier?

Un format entier est un type de données dans la programmation informatique.Les données sont tapées par le type d'informations stockées, à la précision des données numériques et comment ces informations doivent être manipulées dans le traitement.Les entiers représentent des unités entières.Les entiers occupent moins d'espace en mémoire, mais cette caractéristique d'économie d'espace limite l'ampleur de l'entier qui peut être stocké.

Les entiers sont des nombres entiers utilisés dans les applications arithmétiques, algèbres, comptables et énumération.Un nombre entier implique qu'il n'y a pas d'unités partielles plus petites.Le nombre 2 en tant qu'entier a une signification différente que le nombre 2.0.Le deuxième format indique qu'il y a deux unités entières et zéro dixièmes d'une unité mais que les dixièmes d'une unité sont possibles.Le premier nombre, en tant qu'entier, implique que les unités plus petites ne sont pas prises en compte.

Il y a deux raisons pour un format entier dans les langages de programmation.Premièrement, un format entier est approprié lors de l'examen d'objets qui ne sont pas divisibles en unités plus petites.Un gestionnaire écrivant un programme informatique pour calculer la division d'un bonus de 100 $ entre trois employés, n'attribuerait pas de format entier à la variable de bonus mais en utiliserait un pour stocker le nombre d'employés.Comme la mémoire de l'ordinateur est un système binaire, les nombres étaient représentés dans la base 2, ce qui signifie que les chiffres acceptables sont 0 et 1. Le nombre 10 dans la base 2 représente le numéro 2 dans la base 10, car le 1 dans la colonne des deux est le chiffre multiplié par 2élevé à la deuxième puissance.100 dans la base 2 équivaut à 8 dans la base 10, car le 1 dans la première colonne est 1 multiplié par 2 cubes.

En utilisant une base de marche / off pour représenter des nombres binaires, des ordinateurs électriques ont été développés.Un bit est une représentation unique / désactivée, vrai / false ou 0/1 des données.Alors que différentes configurations matérielles ont été explorées en utilisant des variations du nombre de bits qui sont directement adressables par l'ordinateur, l'octet 8 bits et le mot de 2 octets sont devenus standard pour l'informatique à usage général.Ensuite, la spécification de la largeur du format entier détermine non pas le nombre de décimales, mais la plus grande et la plus petite valeur qu'un entier peut supposer.

Les formats entiers de la plupart des langues permettent à un peu d'être utilisé pour un signe pour désigner un entier positif ou négatif.Sur un compilateur de langues 32 bits, les langues C / C + utilisent le format entier, INT, pour stocker des valeurs entières signées entre –231 à 231-1.Une valeur entière est soustraite pour accueillir le zéro, ou environ +/- 2,1 billions.Sur un compilateur 64 bits, en utilisant le type de données INT64, des valeurs entières signées entre -263 à 263-1, ou +/- 9,2, les quintillions sont autorisées.