¿Qué es la codificación de fuente distribuida?
En la teoría de la comunicación y la información, la codificación de fuente distribuida (DSC) es un problema crucial que describe la compresión de fuentes de información que están correlacionadas en múltiplos pero no pueden comunicarse entre sí. DSC permite paradigmas de relaciones en la codificación de video que intercambian la complejidad de codificadores y decodificadores, lo que representa un cambio conceptual en el procesamiento de video. Se puede modelar una correlación con muchas fuentes entre los códigos de canal y los lados del decodificador, lo que permite la codificación de fuente distribuida para cambiar la complejidad computacional entre el lado del codificador y el lado del decodificador. Esto proporciona un marco apropiado para las aplicaciones que tienen un remitente que está tensado en complejidad, como una red de sensores o compresión de video.
Dos hombres llamados Jack K. Wolf y David Slepian propusieron un límite teórico de compresión sin pérdidas con respecto a la codificación de fuente distribuida, que ahora se llama el teorema o el límite del lobo sleapian o encuadernado. El límite se propuso en términos de entropía con fuentes de información correlacionadas.Ion en el año 1973. Una de las cosas que pudieron presentar fue que dos fuentes separadas y aisladas pueden comprimir los datos de manera eficiente y como si ambas fuentes se comunicaran directamente entre sí. Más tarde, en 1975, un hombre llamado Thomas M. Cover extendió este teorema a una instancia de más de dos fuentes.
En la codificación de fuente distribuida, las fuentes dependientes múltiples están codificadas con decodificadores y codificadores conjuntos separados. El teorema Slepian-Wolf, que representa estas fuentes como dos variables diferentes, supone que dos señales separadas y correlacionadas provienen de diferentes fuentes y no se comunicaban entre sí. Estos son los codificadores y sus señales se transfieren a un receptor, que es el decodificador que puede realizar el proceso de decodificación conjunta de ambas señales de información. El teorema intenta resolver cuál es la tasa de probabilidad del receptor que decodifica un error y se acumulaHing cero, que se representa como su entropía articular. Como lo demostraron tanto Wolf como Slepian en 1973, incluso si las señales correlacionadas se codifican por separado, la velocidad combinada es suficiente.
Aunque este teorema postula teóricamente que esto se puede lograr en la codificación de origen distribuido, los límites de la teoría no se han realizado ni se han abordado estrechamente en aplicaciones prácticas. Otros dos científicos, Ramchandran y Pradhan, han intentado resolver cómo alcanzar este límite teórico y demostrar la plausibilidad del teorema de lobo sleapio. Intentaron esto mediante la provisión de una solución particular para las dos señales codificadas que tienen una distancia de separación máxima.