¿Qué es la codificación del personaje?

La codificación de caracteres, en la programación de computadoras, es un método o algoritmo utilizado para encontrar una representación generalmente numérica de un carácter, glifo o símbolo. El uso de la codificación de caracteres en las computadoras es necesario porque la información dentro de la memoria de la computadora y en los medios legibles por computadora se almacena como secuencias de bits o números. Esto requiere el uso de la codificación para traducir caracteres no numéricos que se usan para la pantalla o la salida legible por humanos en un formulario que una computadora puede manipular. En una aplicación más específica, los documentos de lenguaje de marcado de hipertexto (HTML) leen los navegadores web pueden definir qué tipo de codificación de caracteres están utilizando para que el navegador sepa qué caracteres específico utilizará al mostrar la información en el documento. Hay varios esquemas de codificación en uso, aunque muchos de estos conjuntos patentados y heredados están siendo reemplazados lentamente por el estándar de codificación UNICODE®.

En los primeros días de las computadoras, cuando había espacio de memoria limitado, los caracteres básicos del alfabeto inglés, incluida la puntuación y los números, se almacenaron en secuencias de 7 bits que permitían 128 caracteres diferentes. En este esquema original, cada byte de 7 bits representaba un carácter del alfabeto inglés, numerado en secuencia. Esta codificación de personajes fue eficiente y finalmente se estandarizó y se usó en la mayoría de las computadoras que se produjeron. Aunque el sistema de codificación se convirtió en el estándar de codificación de UNICODE®, el concepto se mantuvo igual. Es decir, cada personaje en un idioma está directamente relacionado con un solo número dentro de un conjunto de caracteres estándar grande, y ese número es lo que una computadora usa para almacenar, procesar e indexar el carácter.

Otros tipos de codificación de caracteres se desarrollaron por diferentes razones. Algunos que estaban orientados específicamente al alfabeto inglés y pretendían ser utilizados para el texto solo mapearon su charactoERS en secuencias de 7 bits y luego extiéndelas a través de bytes u octetos de 8 bits. Esto tuvo el efecto de ahorrar 1 bit por octeto, utilizando efectivamente la codificación de caracteres como un tipo de compresión. Otros esquemas de codificación intentaron proporcionar información base sobre un personaje, y luego caracteres adicionales para representar acentos especiales que podrían usarse al escribir en un lenguaje diferente, aunque estos fueron abandonados en gran medida para los métodos de codificación uno a uno más simples.

.

En los documentos HTML, la codificación de caracteres es aproximadamente el mismo que el concepto más amplio, excepto que la codificación que se define abarca un conjunto completo de caracteres. Esto puede ser importante no solo para idiomas extranjeros, sino para documentos que usan símbolos específicos para ciencias o matemáticas que no están presentes en todos los conjuntos de caracteres. También puede ser útil para usar puntuación y otros glifos que pueden no estar presentes o se asignan de manera diferente a los esquemas de codificación. Documentos que no definen correctamente un carácter no estándarLa codificación podría mostrarse incorrectamente o llenarse con caracteres no sensibles y marcadores de posición en lugar de información legible.

OTROS IDIOMAS