Was ist Charaktercodierung?

Charaktercodierung in der Computerprogrammierung ist eine Methode oder ein Algorithmus, mit dem eine normalerweise numerische Darstellung eines Zeichens, Glyphen oder Symbols ermittelt wird. Die Verwendung von Charaktercodierung in Computern ist erforderlich, da Informationen im Computerspeicher und auf computerlesbaren Medien als Sequenzen von Bits oder Zahlen gespeichert werden. Dies erfordert die Verwendung von Codierung, um nicht numerische Zeichen zu übersetzen, die für die Anzeige oder die menschliche lesbare Ausgabe in ein Formular verwendet werden, das ein Computer manipulieren kann. In einer spezifischeren Anwendung können Hypertext Markup Language (HTML) -Dokumente, die von Webbrowsern gelesen werden, definieren, welche Art von Charaktercodierung sie verwenden, um den Browser zu informieren, welcher spezifische Zeichensatz bei der Anzeige der Informationen im Dokument verwendet werden soll. Es werden mehrere Codierungsschemata verwendet, obwohl viele dieser proprietären und älteren Sets langsam durch den Unicode® -Codierungsstandard ersetzt werden.

In den frühen Tagen von Computern wurden in 7-Bit-Sequenzen die grundlegenden Zeichen des englischen Alphabets-einschließlich Zeichensetzung und Zahlen-in 7-Bit-Sequenzen gespeichert, die 128 verschiedene Zeichen ermöglichten. In diesem ursprünglichen Schema repräsentierte jedes 7-Bit-Byte ein Zeichen des englischen Alphabets, das nacheinander nummeriert ist. Diese Charaktercodierung war effizient und wurde schließlich standardisiert und in den meisten hergestellten Computern verwendet. Obwohl sich das Codierungssystem zum Unicode® -Codierungsstandard entwickelt hat, blieb das Konzept gleich. Nämlich jedes einzelne Zeichen in einer Sprache steht in direktem Zusammenhang mit einer einzelnen Zahl innerhalb eines großen Standardzeichensatzes, und diese Zahl verwendet ein Computer, um das Zeichen zu speichern, zu verarbeiten und zu indizieren.

andere Arten von Charaktercodierung wurden aus verschiedenen Gründen entwickelt. Einige, die speziell auf das englische Alphabet ausgerichtet waren und für Text verwendet werden sollenauf 7-Bit-Sequenzen und dann über 8-Bit-Bytes oder Oktette ausbreiten. Dies hatte den Effekt, 1 Bit pro Oktett zu sparen, was die Zeichenkodierung als Komprimierung effektiv unterhielt. Andere Codierungsschemata versuchten, Basisinformationen über einen Charakter bereitzustellen, und dann zusätzliche Zeichen, die spezielle Akzente darstellen, die beim Schreiben in einer anderen Sprache verwendet werden konnten, obwohl diese für die einfacheren Eins-zu-Eins-Kodierungsmethoden weitgehend aufgegeben wurden.

In HTML -Dokumenten entspricht die Charaktercodierung ungefähr dem breiteren Konzept, außer dass die Kodierung definiert wird, die eine ganze Reihe von Zeichen umfasst. Dies kann nicht nur für Fremdsprachen wichtig sein, sondern auch für Dokumente, die bestimmte Symbole für Wissenschaft oder Mathematik verwenden, die nicht in allen Zeichensätzen vorhanden sind. Es kann auch nützlich sein, um Interpunktion und andere Glyphen zu verwenden, die möglicherweise nicht vorhanden sind oder unterschiedlich über Codierungsschemata zugeordnet werden. Dokumente, die einen nicht standardmäßigen Charakter nicht richtig definierenDie Codierung kann falsch angezeigt oder mit unsinnigen Zeichen und Platzhaltern anstelle von lesbaren Informationen gefüllt werden.

ANDERE SPRACHEN

War dieser Artikel hilfreich? Danke für die Rückmeldung Danke für die Rückmeldung

Wie können wir helfen? Wie können wir helfen?