O que é o formato inteiro?

Um formato inteiro é um tipo de dados na programação de computadores. Os dados são digitados pelo tipo de informação que está sendo armazenada, com que precisão os dados numéricos são armazenados e como essas informações devem ser manipuladas no processamento. Inteiros representam unidades inteiras. Os números inteiros ocupam menos espaço na memória, mas esse recurso de economia de espaço limita a magnitude do número inteiro que pode ser armazenado.

Inteiros são números inteiros usados ​​em aplicações aritméticas, álgebra, contabilidade e enumeração. Um número inteiro implica que não há unidades parciais menores. O número 2 como um número inteiro tem um significado diferente do número 2.0. O segundo formato indica que existem duas unidades inteiras e zero décimos de unidade, mas que décimos de unidade são possíveis. O primeiro número, como um número inteiro, implica que unidades menores não são consideradas.

Há duas razões para um formato inteiro nas linguagens de programação. Primeiro, um formato inteiro é apropriado ao considerar objetos que não são divisíveis em unidades menores. Um gerente que cria um programa de computador para calcular a divisão de um bônus de US $ 100 entre três funcionários não atribui um formato inteiro à variável de bônus, mas usa um para armazenar o número de funcionários. Os programadores reconheceram que números inteiros são números inteiros e não precisam de tantos dígitos para serem representados com precisão.

Nos primeiros dias da computação, o espaço da memória era limitado e precioso, e um formato inteiro foi desenvolvido para economizar memória. Como a memória do computador é um sistema binário, os números foram representados na base 2, o que significa que os dígitos aceitáveis ​​são 0 e 1. O número 10 na base 2 representa o número 2 na base 10, pois o 1 na coluna dos dois é o dígito multiplicado por 2 elevado ao segundo poder. 100 na base 2 é igual a 8 na base 10, pois o 1 na primeira coluna é 1 multiplicado por 2 em cubos.

Utilizando uma base on / off para representar números binários, foram desenvolvidos computadores eletricamente. Um bit é uma única representação de dados ativada / desativada, verdadeira / falsa ou 0/1. Enquanto diferentes configurações de hardware foram exploradas usando variações do número de bits diretamente endereçáveis ​​pelo computador, o byte de 8 bits e a palavra de 2 bytes se tornaram padrão para a computação de uso geral. Em seguida, a especificação da largura do formato inteiro determina não o número de casas decimais, mas o valor maior e menor que um número inteiro pode assumir.

Os formatos inteiros da maioria dos idiomas permitem que um pouco seja usado como sinal para designar um número inteiro positivo ou negativo. Em um compilador de idiomas de 32 bits, os idiomas C / C + usam o formato inteiro, int, para armazenar valores inteiros assinados entre –231 a 231-1. Um valor inteiro é subtraído para acomodar o zero, ou aproximadamente +/- 2,1 trilhões. Em um compilador de 64 bits, usando o tipo de dados int64, são permitidos valores inteiros assinados entre -263 a 263-1 ou +/- 9,2 quintilhões.

OUTRAS LÍNGUAS

Este artigo foi útil? Obrigado pelo feedback Obrigado pelo feedback

Como podemos ajudar? Como podemos ajudar?