Che cos'è il formato intero?

Un formato intero è un tipo di dati nella programmazione del computer. I dati vengono digitati in base al tipo di informazioni archiviate, alla precisione dei dati numerici memorizzati e al modo in cui tali informazioni devono essere manipolate durante l'elaborazione. I numeri interi rappresentano intere unità. Gli interi occupano meno spazio in memoria, ma questa funzione salvaspazio limita l'entità dell'intero che può essere memorizzato.

I numeri interi sono numeri interi utilizzati in applicazioni aritmetiche, algebriche, contabili ed enumerative. Un numero intero implica che non ci sono unità parziali più piccole. Il numero 2 come numero intero ha un significato diverso rispetto al numero 2.0. Il secondo formato indica che ci sono due unità intere e zero decimi di unità, ma che sono possibili decimi di unità. Il primo numero, come numero intero, implica che le unità più piccole non vengono considerate.

Esistono due ragioni per un formato intero nei linguaggi di programmazione. Innanzitutto, un formato intero è appropriato quando si considerano oggetti che non sono divisibili in unità più piccole. Un manager che scrive un programma per computer per calcolare la divisione di un bonus di $ 100 tra tre dipendenti, non assegnerebbe un formato intero alla variabile bonus ma ne userebbe uno per memorizzare il numero di dipendenti. I programmatori hanno riconosciuto che i numeri interi sono numeri interi e non richiedono che vengano rappresentate con precisione tante cifre.

All'inizio dell'informatica, lo spazio di memoria era limitato e prezioso e fu sviluppato un formato intero per risparmiare memoria. Poiché la memoria del computer è un sistema binario, i numeri erano rappresentati nella base 2, il che significa che le cifre accettabili sono 0 e 1. Il numero 10 nella base 2 rappresenta il numero 2 nella base 10, poiché 1 nella colonna dei due è la cifra moltiplicata per 2 elevato alla seconda potenza. 100 in base 2 equivale a 8 in base 10, poiché 1 nella prima colonna è 1 moltiplicato per 2 cubi.

Utilizzando una base on / off per la rappresentazione di numeri binari, sono stati sviluppati computer a base elettrica. Un bit è una singola rappresentazione on / off, true / false o 0/1 dei dati. Mentre sono state esplorate diverse configurazioni hardware utilizzando variazioni del numero di bit direttamente indirizzabili dal computer, il byte a 8 bit e la parola a 2 byte sono diventati standard per il calcolo di uso generale. Quindi la specifica della larghezza del formato intero non determina il numero di posizioni decimali ma il valore più grande e più piccolo che un intero può assumere.

La maggior parte dei formati di numeri interi consente di utilizzare un bit per un segno per designare un numero intero positivo o negativo. Su un compilatore di linguaggio a 32 bit, le lingue C / C + utilizzano il formato intero, int, per memorizzare valori interi con segno compresi tra –231 e 231-1. Viene sottratto un valore intero per contenere lo zero, ovvero circa +/- 2,1 trilioni. Su un compilatore a 64 bit, utilizzando il tipo di dati int64, sono consentiti valori interi con segno compresi tra -263 e 263-1 o +/- 9,2 quintilioni.

ALTRE LINGUE

Questo articolo è stato utile? Grazie per il feedback Grazie per il feedback

Come possiamo aiutare? Come possiamo aiutare?