Cos'è un Quadbit?
Un Quadbit è un'unità di memoria del computer contenente quattro bit. Quando usando un sistema noto come formato decimale confezionato per archiviare numeri estremamente lunghi su un computer, un quadbita contiene ogni cifra.
Per capire come è utile un quadbita, devi prima ricordare che l'unità più piccola di memoria del computer è un po '. Un po 'è semplicemente una cifra, che può essere solo uno zero o uno. Questa è la base del funzionamento del computer e le macchine molto vecchie avevano effettivamente cifre rappresentate da singoli cilindri di gas che erano vuoti o pieni a seconda che la cifra pertinente fosse zero o una.
Un quadbita contenente quattro bit. Poiché ogni bit può essere una delle due possibilità - una o uno zero - il numero di possibili combinazioni di dati in un quadbita è 2 x 2 x 2 x 2, che equivale a 16. Questo coincide benissimo con il sistema di numerazione esadecimale, in cui ci sono 16 unità, rispetto alle 10 che usiamo nel sistema decimale più comune. Queste 16 unità sono generalmente rappresentatedai numeri da 0 a 9 e le lettere da A a f.
esadecimale è comunemente usato nel calcolo a causa del modo in cui, poiché tutto nell'informatica deriva dai due possibili valori del sistema binario, ogni "livello" di archiviazione dei dati di solito raddoppia, creando la serie 1, 2, 4, 8, 16, 32 e così via. Un esempio di ciò è che un computer potrebbe avere 256 MB, 512 MB o 1,024 MB di RAM, quest'ultima cifra equivalente a 1 GB. In teoria, ogni raccolta di dati memorizzati in un computer può essere suddivisa in 2 blocchi, 4 blocchi, 8 blocchi, 16 blocchi e così via. Poiché il sistema esadecimale ha 16 unità, si inserisce in questo modello senza intoppi e rende molto più facile fare calcoli riferendosi all'archiviazione dei dati che se hai utilizzato il nostro sistema decimale tradizionale.
L'uso più comune del Quadbit è in formato decimale imballato. Questo richiede una serie di numeri estremamente lunga, come la forma grezza di un calcoloR programma o altri dati e lo riscrive come una stringa di numeri binari. Ogni cifra nel numero originale viene trasformata in una stringa di quattro cifre binarie - in altre parole un quadbita. L'uso del formato decimale impacchettato può consentire ai computer di elaborare i dati più rapidamente ma facilmente convertirli nel suo formato originale al termine.
Il Quadbit è comunemente indicato come un Nibble . Questa è una forma di gioco di parole basata sul fatto che la prossima unità più grande di archiviazione nel calcolo è nota come byte. Poiché un byte è composto da 8 bit, un quadbita è metà di un byte. La battuta deriva dal fatto che in lingua inglese, un Nibble è una parola che significa un piccolo morso.