Qu'est-ce que le format entier?
Un format entier est un type de données dans la programmation informatique. Les données sont tapées par le type d'informations stockées, à la précision des données numériques et comment ces informations doivent être manipulées dans le traitement. Les entiers représentent des unités entières. Les entiers occupent moins d'espace en mémoire, mais cette caractéristique d'économie d'espace limite l'ampleur de l'entier qui peut être stocké.
Les entiers sont des nombres entiers utilisés dans les applications arithmétiques, algèbres, comptabilité et énumération. Un nombre entier implique qu'il n'y a pas d'unités partielles plus petites. Le nombre 2 en tant qu'entier a une signification différente que le nombre 2.0. Le deuxième format indique qu'il y a deux unités entières et zéro dixièmes d'une unité mais que les dixièmes d'une unité sont possibles. Le premier nombre, en tant qu'entier, implique que les unités plus petites ne sont pas prises en compte.
Il y a deux raisons pour un format entier dans les langages de programmation. Premièrement, un format entier est approprié lorsque vous envisagez des objets qui ne sont pas divisibles en plus petitsunités. Un gestionnaire écrivant un programme informatique pour calculer la division d'un bonus de 100 $ entre trois employés, n'attribuerait pas de format entier à la variable de bonus mais en utiliserait un pour stocker le nombre d'employés. Les programmeurs ont reconnu que les entiers sont des nombres entiers et ne nécessitent pas autant de chiffres pour être représentés avec précision.
Au début de l'informatique, l'espace mémoire était limité et précieux, et un format entier a été développé pour économiser de la mémoire. Comme la mémoire informatique est un système binaire, les nombres étaient représentés dans la base 2, ce qui signifie que les chiffres acceptables sont 0 et 1. Le numéro 10 dans la base 2 représente le numéro 2 dans la base 10, car le 1 dans la colonne des deux est le chiffre multiplié par 2 élevé à la deuxième puissance. 100 dans la base 2 est égal à 8 dans la base 10, car le 1 dans la première colonne est 1 multiplié par 2 cubes.
Utilisation d'une base de marche / désactivation pour représenter des nombres binaires, calcul électriqueRS ont été développés. Un bit est une représentation unique / désactivée, vrai / false ou 0/1 des données. Alors que différentes configurations matérielles ont été explorées en utilisant des variations du nombre de bits qui sont directement adressables par l'ordinateur, l'octet 8 bits et le mot de 2 octets sont devenus standard pour l'informatique à usage général. Ensuite, la spécification de la largeur du format entier détermine non pas le nombre de décimales, mais la plus grande et la plus petite valeur qu'un entier peut assumer.
Les formats entiers de la plupart des langues permettent à un peu d'être utilisé pour un signe pour désigner un entier positif ou négatif. Sur un compilateur de langues 32 bits, les langues C / C + utilisent le format entier, INT, pour stocker des valeurs entières signées entre –231 à 231-1. Une valeur entière est soustraite pour accueillir le zéro, ou environ +/- 2,1 billions. Sur un compilateur 64 bits, en utilisant le type de données INT64, des valeurs entières signées entre -263 à 263-1, ou +/- 9.2, quintillion, sont autorisées.