¿Qué es el formato entero?

Un formato entero es un tipo de datos en la programación de computadoras. Los datos se escriben por el tipo de información que se está almacenando, a qué datos numéricos de precisión se almacenan y cómo se manipulará esa información en el procesamiento. Los enteros representan unidades completas. Los enteros ocupan menos espacio en la memoria, pero esta característica de ahorro de espacio limita la magnitud del entero que se puede almacenar.

Los enteros son números enteros utilizados en aplicaciones de aritmética, álgebra, contabilidad y enumeración. Un número entero implica que no hay unidades parciales más pequeñas. El número 2 como entero tiene un significado diferente de que el número 2.0. El segundo formato indica que hay dos unidades completas y cero décimas de una unidad, pero que las décimas de una unidad son posibles. El primer número, como entero, implica que no se consideran unidades más pequeñas.

Hay dos razones para un formato entero en los lenguajes de programación. Primero, un formato entero es apropiado cuando se considera objetos que no son divisibles en más pequeñosunidades. Un gerente que escribe un programa de computadora para calcular la división de un bono de $ 100 entre tres empleados, no asignaría un formato entero a la variable de bonificación, pero usaría uno para almacenar el número de empleados. Los programadores reconocieron que los enteros son números enteros y no requieren que muchos dígitos se representen con precisión.

En los primeros días de la computación, el espacio de memoria era limitado y precioso, y se desarrolló un formato entero para salvar la memoria. Como la memoria de la computadora es un sistema binario, los números se representaron en la base 2, lo que significa que los dígitos aceptables son 0 y 1. El número 10 en la base 2 representa el número 2 en la base 10, ya que el 1 en la columna de los dos es el dígito multiplicado por 2 elevado a la segunda potencia. 100 en la base 2 es igual a 8 en la base 10, ya que el 1 en la primera columna se multiplica por 2 por 2 en cubos.

Uso de una base de encendido/apagado para representar números binarios, calculador eléctricoRS fueron desarrollados. Un bit es un único encendido/apagado, verdadero/falso o representación de datos 0/1. Mientras que las diferentes configuraciones de hardware se exploraron utilizando variaciones del número de bits que son directamente direccionables por la computadora, el byte de 8 bits y la palabra de 2 bytes se convirtieron en estándar para la computación de uso general. Luego, la especificación del ancho del formato entero determina no el número de decimales, sino el valor más grande y pequeño que puede asumir un entero.

Los formatos enteros de la mayoría de los idiomas permiten que se use un poco para un signo para designar un entero positivo o negativo. En un compilador de idiomas de 32 bits, los lenguajes C/C+ usan el formato entero, INT, para almacenar valores enteros firmados entre –231 a 231-1. Un valor entero se resta para acomodar el cero, o aproximadamente +/- 2.1 billones. En un compilador de 64 bits, utilizando el tipo de datos INT64, se permiten valores enteros firmados entre -263 a 263-1, o +/- 9.2 quintillones.

OTROS IDIOMAS