Was ist ein Gigabyte?
Ein Gigabyte ist ein Begriff, der einen bestimmten Wert der Datenmenge in Bezug auf Speicherkapazität oder Inhalt anzeigt. Es bezieht sich auf eine Menge von etwas, normalerweise Daten, die oft digital gespeichert sind. Ein Gigabyte bezieht sich typischerweise auf 1 Milliarde Bytes. Ein Gigabyte kann möglicherweise mit einem gibibyte verwechselt werden, was ebenfalls eine Speichermenge ist, aber auf einem Binär- oder Basis -Two -System basiert.
Der einfachste Weg, den Begriff „Gigabyte“ zu verstehen, besteht darin, ihn in seine beiden Basisteile zu trennen: „Giga“ und „Byte“. Ein Byte ist ein Datenstück und wird normalerweise als die kleinste Datenmenge angesehen, die zur Darstellung eines einzelnen Zeichens in einem Computercode verwendet werden. Mit anderen Worten, Bytes sind die einzelnen Bausteine eines Computercode. Jedes Byte besteht aus einer Reihe von Bits, normalerweise acht, und jedes Bit ist ein Datenstück, das normalerweise einen von zwei möglichen Werten aufweist: normalerweise als 1 oder 0 dargestellt.
biTs sind die einzelnen Teile des Binärcode, die acht gleichzeitig zusammengefasst sind, um ein einzelnes Byte zu erstellen, das dann die Daten in größerem Sinne tatsächlich ausmacht. Daher bestehen Computerprogramme aus Bytes, so dass die Größe eines Programms in Bezug auf Bytes dargestellt wird. So wie eine Wand mit 100 Ziegeln größer ist als eine Wand aus 10 der gleichen Ziegel, ist ein Programm von 100 Bytes größer als einer von 10 Bytes. Anstatt die Größen großer Programme in Tausenden oder Millionen und jetzt Milliarden und Billionen von Bytes auszudrücken, werden Präfixe verwendet, um Größenordnungen anzuzeigen.
Diese Präfixe folgen den etablierten Notationen des internationalen Einheitensystems, ähnlich wie bei metrischen Messungen. Daher werden 1.000 Bytes als Kilobyte bezeichnet, 1 Million Bytes ist ein Megabyte, 1 Milliarde Bytes ist ein Gigabyte, und 1 Billionen Bytes ist ein Terabyte. Diese Präfixe weisen jeweils auf eine Größenordnung hin, durch die die Bytes erhöht werden, und etwas COauf binäre Notation beantworten, die ähnliche Terminologie verwendet. Es liegt an dieser Art von Notation, dass ein Gigabyte manchmal mit einem gibyte verwechselt werden kann, was ähnlich ist, aber unterschiedlich ist.
A Gibibyte wird am häufigsten eine Größe verwendet, um auf Speicher- oder Verarbeitungskapazität für den Speicher wie RAM (Random Access Memory) zu verweisen. Diese Größe basiert auf einem Binär- oder Basissystem, bei dem Größenordnungen aus exponentiellen Erhöhungen um 10 bis zu einer Basis von zwei bestehen. Mit anderen Worten, 2 10 Bytes ist ein kibyte , 2 20 Bytes ist ein mebibyte und 3 30 Bytes ist ein gibibyte . Während dies in der Nähe eines Gigabyte liegt, ist es nicht genau das gleiche: A Gibibyte ist 1.073.741.824 Bytes; und hat zu Verwirrung in Bezug auf die tatsächlichen Speichergrößen für Festplatten und ähnliche Speichergeräte geführt.