Che cos'è la codifica sorgente distribuita?

Nella teoria della comunicazione e dell'informazione, il codice sorgente distribuito (DSC) è un problema cruciale che descrive la compressione di fonti di informazione che sono correlate in multipli ma non possono comunicare tra loro. DSC consente paradigmi di relazione nella codifica video che scambiano la complessità di codificatori e decodificatori, rappresentando uno spostamento concettuale nell'elaborazione video. Una correlazione con molte fonti può essere modellata tra i codici canale e i lati del decodificatore, consentendo alla codifica sorgente distribuita di spostare la complessità computazionale tra il lato encoder e il lato decoder. Ciò fornisce un framework adeguato per le applicazioni che hanno un mittente sotto stress, come una rete di sensori o la compressione video.

Due uomini di nome Jack K. Wolf e David Slepian hanno proposto un limite teorico di compressione senza perdita di dati relativo alla codifica di sorgente distribuita, che ora viene chiamato teorema o limite di Slepio-Lupo. Il limite è stato proposto in termini entropici con fonti di informazione correlate nel 1973. Una delle cose che sono stati in grado di presentare è che due fonti separate e isolate sono in grado di comprimere i dati in modo efficiente e come se entrambe le fonti comunicassero direttamente tra loro. Più tardi, nel 1975, un uomo di nome Thomas M. Cover estese questo teorema a un'istanza di più di due fonti.

Nella codifica di fonte distribuita, più fonti dipendenti sono codificate con decodificatori ed encoder separati. Il teorema di Slepian-Wolf, che rappresenta queste fonti come due variabili diverse, presuppone che due segnali separati e correlati provenissero da fonti diverse e non comunicassero tra loro. Questi sono gli encoder e i loro segnali vengono trasferiti ad un ricevitore, che è il decodificatore che può eseguire il processo di decodifica congiunta di entrambi i segnali di informazione. Il teorema tenta di risolvere quale sia il tasso di probabilità del ricevitore che decodifica un errore e si avvicina a zero, che è rappresentato come sua entropia comune. Come hanno dimostrato sia Wolf che Slepian nel 1973, anche se i segnali correlati vengono codificati separatamente, la frequenza combinata è sufficiente.

Sebbene questo teorema postulga teoricamente che ciò è realizzabile con la codifica sorgente distribuita, i limiti della teoria non sono stati realizzati o neppure affrontati da vicino in applicazioni pratiche. Altri due scienziati, Ramchandran e Pradhan, hanno tentato di risolvere il modo in cui raggiungere questo limite teorico e dimostrare la plausibilità del teorema del lupo serpente. Hanno tentato questo fornendo una soluzione particolare per i due segnali codificati aventi una distanza di separazione massima.

ALTRE LINGUE

Questo articolo è stato utile? Grazie per il feedback Grazie per il feedback

Come possiamo aiutare? Come possiamo aiutare?