Was ist verlustfreie Datenkomprimierung?

verlustfreie Datenkomprimierung ist eine Computermethode zum Speichern von Dateien und zum Kombinieren in Archive, die weniger physischen Speicherplatz im Speicher einnehmen als die Dateien, ohne Informationen zu verlieren, ohne Informationen zu verlieren, die die Daten im Prozess enthalten. Die Verlustkomprimierung reduziert dagegen die Dateigröße mit Annäherung an die Daten, und die Wiederherstellung hat ein enges Faksimile gegenüber dem Original -Dateiinhalt. Algorithmen, die für die verlustfreie Datenkomprimierung verwendet werden, sind im Wesentlichen eine Reihe von optimierten Regeln oder Anweisungen zur Codierung der Informationen unter Verwendung weniger Speicherbits, während sie die Möglichkeit beibehalten, die Daten ohne Änderung wiederherzustellen. Außerdem werden Bilddateiformate wie das Grafik -Interchange -Format (GIF), tragbare Netzwerkgrafiken (PNG) und Bitmap (BMP) -Podien (BMP) verwendet. Datenkomprimierungsalgorithmen auch vAry basierend auf dem Dateityp, der komprimiert wird, mit gemeinsamen Variationen für Text-, Audio- und ausführbare Programmdateien.

Die beiden Hauptkategorien von Algorithmen für die verlustfreie Datenkomprimierung basieren auf einem statistischen Modell von Eingabedaten und einem Zuordnungsmodell von Bit -Zeichenfolgen in einer Datendatei. Routine statistische Algorithmen sind die Burrows-Wheeler-Transformation (BWT), der 1977 veröffentlichte Algorithmus von Abraham Lempel und Jacob Ziv (LZ77) und die Vorhersage durch partielle Matching (PPM) -Methode. Zu den häufig verwendeten Mapping -Algorithmen gehören der Huffman -Codierungsalgorithmus und die arithmetische Codierung.

Einige der verlustfreien Datenkomprimierungsalgorithmen sind Open -Source -Tools, andere sind proprietär und patentiert, obwohl auch Patente auf einigen abgelaufen sind. Dies kann dazu führen, dass Komprimierungsmethoden manchmal auf das falsche Dateiformat angewendet werden. Aufgrund der Tatsache, dass bestimmte Datenkomprimierungsmethoden inkompatibler W sindDas Speichern von gemischten Dateien kann häufig eine Komponente einer Datei abbauen. Beispielsweise kann eine Bilddatei mit komprimiertem Text eine Verschlechterung der Lesbarkeit des Textes anzeigen, wenn einst wiederhergestellt wurde. Scanner und Software, die eine Grammatikinduktion verwenden, können Bedeutung aus dem Text extrahieren, das zusammen mit Bilddateien gespeichert ist, indem sie eine sogenannte Latent Semantic Analysis (LSA) anwenden.

Eine andere Form der Mapping -Algorithmusmethode zur Verlustdatenkomprimierung ist die Verwendung von Universalcode. Flexibler zu verwenden als die Codierung von Huffman und erfordert keine Kenntnis der maximalen Ganzzahlwerte im Voraus. Die Codierung von Huffman und die arithmetische Codierung erzeugen jedoch bessere Datenkomprimierungsraten. Es werden auch Anstrengungen durchgeführt, um universelle Datenkomprimierungsmethoden zu erstellen, die Algorithmen erzeugen, die für eine Vielzahl von Quellen gut funktionieren.

ANDERE SPRACHEN

War dieser Artikel hilfreich? Danke für die Rückmeldung Danke für die Rückmeldung

Wie können wir helfen? Wie können wir helfen?