O que é formato inteiro?

Um formato inteiro é um tipo de dados na programação de computador. Os dados são digitados pelo tipo de informação que está sendo armazenada, com quais dados numéricos de precisão são armazenados e como essa informação deve ser manipulada no processamento. Os números inteiros representam unidades inteiras. Os números inteiros ocupam menos espaço na memória, mas esse recurso de economia de espaço limita a magnitude do número inteiro que pode ser armazenado.

Inteiros são números inteiros usados ​​em aplicações de aritmética, álgebra, contabilidade e enumeração. Um número inteiro implica que não há unidades parciais menores. O número 2 como número inteiro tem um significado diferente de que o número 2.0. O segundo formato indica que existem duas unidades inteiras e zero décimos de uma unidade, mas que os décimos de uma unidade são possíveis. O primeiro número, como número inteiro, implica que unidades menores não são consideradas.

Existem duas razões para um formato inteiro nas linguagens de programação. Primeiro, um formato inteiro é apropriado ao considerar objetos que não são divisíveis em menorunidades. Um gerente que escreve um programa de computador para calcular a divisão de um bônus de US $ 100 entre três funcionários não atribui um formato inteiro à variável bônus, mas usaria um para armazenar o número de funcionários. Os programadores reconheceram que os números inteiros são números inteiros e não exigem que tantos dígitos sejam representados com precisão.

Nos primeiros dias da computação, o espaço de memória era limitado e precioso, e um formato inteiro foi desenvolvido para salvar a memória. Como a memória do computador é um sistema binário, os números foram representados na Base 2, o que significa que os dígitos aceitáveis ​​são 0 e 1. O número 10 na base 2 representa o número 2 na base 10, pois o 1 na coluna dos dois é o dígito multiplicado por 2 aumentado para a segunda potência. 100 na base 2 é igual a 8 na base 10, pois o 1 na primeira coluna é 1 multiplicado por 2 cubos.

Usando uma base ON/OFF para representar números binários, computação de base eletricamenteRS foram desenvolvidos. Um bit é uma representação de dados on/desativada, verdadeira/falsa ou 0/1. Enquanto diferentes configurações de hardware foram exploradas usando variações do número de bits diretamente endereçados pelo computador, o byte de 8 bits e a palavra de 2 bytes se tornaram padrão para a computação em uso geral. Em seguida, a especificação da largura do formato inteiro determina não o número de locais decimais, mas o maior e o menor valor que um número inteiro pode assumir.

Os formatos inteiros da maioria dos idiomas permitem que um pouco seja usado para um sinal para designar um número inteiro positivo ou negativo. Em um compilador de idiomas de 32 bits, os idiomas C/C+ usam o formato inteiro, int, para armazenar valores inteiros assinados entre –231 a 231-1. Um valor inteiro é subtraído para acomodar o zero, ou aproximadamente +/- 2,1 trilhões. Em um compilador de 64 bits, usando o tipo de dados INT64, valores inteiros assinados entre -263 a 263-1, ou +/- 9,2 quintilhões, são permitidos.

OUTRAS LÍNGUAS

Este artigo foi útil? Obrigado pelo feedback Obrigado pelo feedback

Como podemos ajudar? Como podemos ajudar?