Was ist ein Quadbit?
Ein Quadbit ist eine Einheit des Computerspeichers mit vier Bits. Bei Verwendung eines Systems, das als gepacktes Dezimalformat bezeichnet wird, um extrem lange Zahlen auf einem Computer zu speichern, enthält ein Quadbit jede Ziffer.
Um zu verstehen, wie nützlich ein Quadbit ist, müssen Sie zunächst daran denken, dass die kleinste Einheit des Computerspeichers ein bisschen ist. Ein Bit ist einfach eine Ziffer, die entweder eine Null oder eine Eins sein kann. Dies ist die eigentliche Grundlage des Computerbetriebs, und bei sehr alten Maschinen wurden Ziffern durch einzelne Gasflaschen dargestellt, die entweder leer oder voll waren, je nachdem, ob die betreffende Ziffer Null oder Eins war.
Ein Quadbit enthält vier Bits. Da jedes Bit eine von zwei Möglichkeiten sein kann - eine Eins oder eine Null -, beträgt die Anzahl der möglichen Datenkombinationen in einem Quadbit 2 x 2 x 2 x 2, was 16 entspricht. Dies stimmt sehr genau mit dem hexadezimalen Nummerierungssystem überein , in denen es 16 Einheiten gibt, im Vergleich zu den 10, die wir im gebräuchlicheren Dezimalsystem verwenden. Diese 16 Einheiten werden normalerweise durch die Zahlen 0 bis 9 und die Buchstaben A bis F dargestellt.
Hexadezimal wird üblicherweise beim Rechnen verwendet, da sich, da sich alles beim Rechnen aus den zwei möglichen Werten des Binärsystems ergibt, jede „Ebene“ des Datenspeichers normalerweise verdoppelt, wodurch die Reihen 1, 2, 4, 8, 16 entstehen. 32 und so weiter. Ein Beispiel hierfür ist, dass ein Computer möglicherweise über 256 MB, 512 MB oder 1.024 MB RAM verfügt, wobei letztere Zahl 1 GB entspricht. Theoretisch kann jede in einem Computer gespeicherte Datensammlung in 2, 4, 8, 16 und so weiter Teile aufgeteilt werden. Da das Hexadezimalsystem aus 16 Einheiten besteht, passt es problemlos in dieses Muster und erleichtert Berechnungen in Bezug auf die Datenspeicherung erheblich, als wenn Sie unser traditionelles Dezimalsystem verwenden würden.
Die häufigste Verwendung des Quadbits erfolgt im gepackten Dezimalformat. Dies nimmt eine extrem lange Folge von Zahlen in Anspruch, z. B. die Rohform eines Computerprogramms oder anderer Daten, und schreibt sie als Folge von Binärzahlen um. Jede Ziffer in der ursprünglichen Nummer wird in eine Folge von vier Binärziffern umgewandelt - mit anderen Worten ein Quadbit. Durch die Verwendung des gepackten Dezimalformats können Computer Daten schneller verarbeiten, aber nach Abschluss der Verarbeitung problemlos wieder in das ursprüngliche Format konvertieren.
Das Quadbit wird üblicherweise als Nibble bezeichnet . Dies ist eine Form des Wortspiels, die auf der Tatsache basiert, dass die nächstgrößere Speichereinheit in der Datenverarbeitung als Byte bezeichnet wird. Da ein Byte aus 8 Bits besteht, ist ein Quadbit ein halbes Byte. Der Witz kommt von der Tatsache, dass in der englischen Sprache ein Knabbern ein Wort ist, das einen kleinen Bissen bedeutet.