Che cos'è un Quadbit?
Un quadbit è un'unità di memoria del computer contenente quattro bit. Quando si utilizza un sistema noto come formato decimale compresso per memorizzare numeri estremamente lunghi su un computer, un quadbit contiene ogni cifra.
Per capire quanto sia utile un quadbit, devi prima ricordare che la più piccola unità di memoria del computer è un po '. Un bit è semplicemente una cifra, che può essere solo uno zero o uno. Questa è la base del funzionamento del computer e macchine molto vecchie in realtà avevano cifre rappresentate da singoli cilindri di gas che erano vuoti o pieni a seconda che la cifra rilevante fosse zero o una.
Un quadbit contiene quattro bit. Poiché ogni bit può essere una delle due possibilità - una o uno zero - il numero di possibili combinazioni di dati in un quadbit è 2 x 2 x 2 x 2, che equivale a 16. Ciò coincide perfettamente con il sistema di numerazione esadecimale , in cui ci sono 16 unità, rispetto alle 10 che usiamo nel sistema decimale più comune. Queste 16 unità sono generalmente rappresentate dai numeri da 0 a 9 e dalle lettere da A a F.
L'esadecimale è comunemente usato nell'informatica a causa del modo in cui, poiché tutto nell'informatica deriva dai due possibili valori del sistema binario, ogni "livello" di archiviazione dei dati di solito raddoppia, creando le serie 1, 2, 4, 8, 16, 32 e così via. Un esempio di ciò è che un computer potrebbe avere 256 MB, 512 MB o 1.024 MB di RAM, quest'ultima cifra equivale a 1 GB. In teoria ogni raccolta di dati archiviata in un computer può essere suddivisa in 2 blocchi, 4 blocchi, 8 blocchi, 16 blocchi e così via. Poiché il sistema esadecimale ha 16 unità, si adatta perfettamente a questo modello e semplifica molto i calcoli relativi all'archiviazione dei dati rispetto a quando si utilizzava il nostro sistema decimale tradizionale.
L'uso più comune del quadbit è in formato decimale compresso. Questo richiede una stringa di numeri estremamente lunga, come la forma grezza di un programma per computer o altri dati, e la riscrive come una stringa di numeri binari. Ogni cifra nel numero originale viene trasformata in una stringa di quattro cifre binarie - in altre parole un quadbit. L'uso del formato decimale compresso può consentire ai computer di elaborare i dati più rapidamente ma di convertirli facilmente nel formato originale al termine.
Il quadbit è comunemente indicato come un bocconcino . Questa è una forma di gioco di parole basato sul fatto che la successiva più grande unità di archiviazione nell'informatica è conosciuta come un byte. Poiché un byte è composto da 8 bit, un quadbit è la metà di un byte. Lo scherzo deriva dal fatto che in inglese un bocconcino è una parola che significa un piccolo morso.