Cos'è la codifica di origine distribuita?

Nella teoria della comunicazione e dell'informazione, la codifica di origine distribuita (DSC) è un problema cruciale che descrive la compressione di fonti di informazione che sono correlate ai multipli ma che non possono comunicare tra loro. DSC consente ai paradigmi di relazione nella codifica video che scambia la complessità di encoder e decodificatori, rappresentando un cambiamento concettuale nell'elaborazione video. Una correlazione con molte fonti può essere modellata tra codici di canale e lati del decodificatore, consentendo la codifica della sorgente distribuita per spostare la complessità computazionale tra il lato dell'encoder e il lato decodificatore. Ciò fornisce un framework appropriato per le applicazioni che dispongono di un mittente che è tesa complessità, come una rete di sensori o una compressione video.

Due uomini di nome Jack K. Wolf e David Slepian hanno proposto un limite teorico della compressione senza perdita di perdita sulla codifica di origine distribuita, che ora è chiamata teorema del lupo di Slepian o legato. Il limite è stato proposto in termini di entropia con fonti correlate di informazioneIone nell'anno 1973. Una delle cose che erano in grado di presentare era che due fonti separate e isolate sono in grado di comprimere i dati in modo efficiente e come se entrambe le fonti comunicassero direttamente tra loro. Più tardi, nel 1975, un uomo di nome Thomas M. Cover ha esteso questo teorema a un'istanza di più di due fonti.

Nella codifica di origine distribuita, sono codificate più fonti dipendenti con decodificatori e encoder congiunti separati. Il teorema del lupo di Slepian, che rappresenta queste fonti come due diverse variabili, presuppone che due segnali separati e correlati provenissero da fonti diverse e non comunicano tra loro. Questi sono gli encoder e i loro segnali vengono trasferiti a un ricevitore, che è il decodificatore in grado di eseguire il processo di decodifica congiunta di entrambi i segnali di informazione. Il teorema tenta di risolvere ciò che il tasso di probabilità è del ricevitore che decodifica un errore e un approvvigionamentoHing Zero, che è rappresentato come entropia articolare. Come si dimostrarono sia Wolf che Slepian nel 1973, anche se i segnali correlati vengono codificati separatamente, il tasso combinato è sufficiente.

Sebbene questo teorema postuli teoricamente che ciò è raggiungibile nella codifica di origine distribuita, i limiti della teoria non sono stati realizzati o addirittura affrontati in applicazioni pratiche. Altri due scienziati, Ramchandran e Pradhan, hanno tentato di risolvere come raggiungere questo limite teorico e dimostrare la plausibilità del teorema del lupo di Slepian. Lo hanno tentato dalla fornitura di una soluzione particolare per i due segnali codificati con una distanza di separazione massima.

ALTRE LINGUE

Questo articolo è stato utile? Grazie per il feedback Grazie per il feedback

Come possiamo aiutare? Come possiamo aiutare?