Qu'est-ce qu'un quadbit?

Un quadbit est une unité de mémoire d'ordinateur contenant quatre bits. Lorsque vous utilisez un système appelé format décimal condensé pour stocker des nombres extrêmement longs sur un ordinateur, un quadbit contient chaque chiffre.

Pour comprendre l’utilité d’un quadbit, vous devez d’abord vous rappeler que la plus petite unité de mémoire de l’ordinateur est un bit. Un bit est simplement un chiffre, qui ne peut être qu'un zéro ou un. C’est là la base même du fonctionnement de l’ordinateur. En effet, les très vieilles machines avaient des chiffres représentés par des bouteilles de gaz individuelles vides ou pleines, selon que le chiffre en question était zéro ou un.

Un quadbit contient quatre bits. Parce que chaque bit peut être l'une des deux possibilités - un un ou un zéro - le nombre de combinaisons de données possibles dans un quadbit est 2 x 2 x 2 x 2, ce qui équivaut à 16. Ceci coïncide très précisément avec le système de numérotation hexadécimal , dans lequel il y a 16 unités, contre 10 que nous utilisons dans le système décimal plus commun. Ces 16 unités sont généralement représentées par les chiffres 0 à 9 et les lettres A à F.

Hexadécimal est couramment utilisé en informatique car, du fait que tout dérive en informatique des deux valeurs possibles du système binaire, chaque «niveau» de stockage des données double, créant ainsi les séries 1, 2, 4, 8, 16, 32 et ainsi de suite. Un exemple de ceci est qu'un ordinateur peut avoir 256 Mo, 512 Mo ou 1 024 Mo de RAM, ce dernier chiffre étant équivalent à 1 Go. En théorie, chaque collection de données stockées sur un ordinateur peut être décomposée en 2 morceaux, 4 morceaux, 8 morceaux, 16 morceaux, etc. Étant donné que le système hexadécimal compte 16 unités, il s’intègre parfaitement à ce modèle et facilite beaucoup les calculs relatifs au stockage des données que si vous utilisiez notre système décimal traditionnel.

L'utilisation la plus courante du quadbit est au format décimal condensé. Cela prend une chaîne de nombres extrêmement longue, telle que la forme brute d'un programme d'ordinateur ou d'autres données, et la réécrit sous la forme d'une chaîne de nombres binaires. Chaque chiffre du numéro d'origine est transformé en une chaîne de quatre chiffres binaires, autrement dit un quadbit. L'utilisation du format décimal condensé peut permettre aux ordinateurs de traiter les données plus rapidement mais de les reconvertir facilement au format d'origine une fois l'opération terminée.

Le quadbit est communément appelé un nibble . Il s'agit d'une forme de jeu de mots basée sur le fait que la plus grande unité de stockage en informatique est connue sous le nom d'octet. Comme un octet est composé de 8 bits, un quadbit est la moitié d’un octet. La blague vient du fait que dans la langue anglaise, une grignotine est un mot qui signifie une petite bouchée.

DANS D'AUTRES LANGUES

Cet article vous a‑t‑il été utile ? Merci pour les commentaires Merci pour les commentaires

Comment pouvons nous aider? Comment pouvons nous aider?