Was ist ein Quadbit?

Ein Quadbit ist eine Einheit des Computerspeichers, die vier Bits enthält. Wenn Sie ein System mit einem verpackten Dezimalformat nennen, um extrem lange Zahlen auf einem Computer zu speichern, enthält ein Quadbit jede Ziffer.

, um zu verstehen, wie ein Quadbit nützlich ist. Ein bisschen ist einfach eine Ziffer, die nur eine Null oder eine sein kann. Dies ist die Grundlage des Computerbetriebs und sehr alte Maschinen hatten tatsächlich Ziffern, die durch einzelne Gaszylinder dargestellt wurden, die entweder leer oder voll waren, je nachdem, ob die relevante Ziffer Null oder eins war.

Ein Quadbit enthält vier Bits. Da jedes Bit eine von zwei Möglichkeiten sein kann - eine oder eine Null -, beträgt die Anzahl der möglichen Datenkombinationen in einem Quadbit 2 x 2 x 2 x 2, was 16 entspricht. Dies fällt sehr gut mit dem hexadezimalen Nummerierungssystem zusammen, in dem es 16 Einheiten gibt, im Vergleich zu 10, die wir im üblichen Dezimalsystem verwenden. Diese 16 Einheiten sind normalerweise dargestelltdurch die Zahlen 0 bis 9 und die Buchstaben a bis f.

hexadezimal wird üblicherweise bei der Berechnung verwendet, da alles, wie alles in der Berechnung von den beiden möglichen Werten des binären Systems abgeleitet wird, jede „Stufe“ der Datenspeicherung normalerweise verdoppelt und die Serie 1, 2, 4, 8, 16, 32 usw. erstellt. Ein Beispiel hierfür ist, dass ein Computer möglicherweise 256 MB, 512 MB oder 1.024 MB RAM hat, wobei die letztere Zahl zu 1 GB entspricht. Theoretisch kann jede Sammlung von Daten, die in einem Computer gespeichert sind, in 2 Stücke, 4 Stücke, 8 Stücke, 16 Stücke und so weiter unterteilt werden. Da das hexadezimale System 16 Einheiten hat, passt es reibungslos in dieses Muster und erleichtert es viel einfacher, Berechnungen auf die Datenspeicherung zu erstellen, als wenn Sie unser herkömmliches Dezimalsystem verwendet haben.

Die häufigste Verwendung des Quadbits ist im verpackten Dezimalformat. Dies erfordert eine extrem lange Reihe von Zahlen, wie z. B. die rohe Form eines ComputersR -Programm oder andere Daten und schreibt es als eine Reihe von Binärzahlen um. Jede Ziffer in der ursprünglichen Nummer wird in eine Zeichenfolge von vier binären Ziffern verwandelt - mit anderen Worten ein Quadbit. Durch die Verwendung von verpacktem Dezimalformat können Computer die Daten schneller verarbeiten, aber leicht wieder in sein ursprüngliches Format umwandeln, wenn es fertig ist.

Das Quadbit wird üblicherweise als Knabber bezeichnet. Dies ist eine Form des Wortspiels, basierend auf der Tatsache, dass die nächstgrößte Speichereinheit im Computer als Byte bezeichnet wird. Da ein Byte aus 8 Bit besteht, ist ein Quadbit eine halbe Byte. Der Witz ergibt sich aus der Tatsache, dass in der englischen Sprache A knabbert ein Wort ist, das einen kleinen Biss bedeutet.

ANDERE SPRACHEN

War dieser Artikel hilfreich? Danke für die Rückmeldung Danke für die Rückmeldung

Wie können wir helfen? Wie können wir helfen?