Datenkompression

Aus IV1
Wird bei den Verfahren zur Fehlererkennung und -korrektur gezielt Redundanz eingeführt, so sollen die Verfahren der Datenkompression Redundanz reduzieren, etwa um Speicherplatz einzusparen oder die Dauer einer Datenübertragung zu verkürzen.

Grundlage der Datenkompression bildet dabei die Beobachtung, dass verschiedene Werte nur selten gleich häufig gebraucht werden (z. B. kommt in deutschen Texten das „E” wesentlich häufiger vor als das „Y”). Diese Beobachtung kann ausgenutzt werden, indem häufiger vorkommende „Zeichen” durch kürzere Bitfolgen dargestellt werden als seltenere Zeichen (mit dieser Maßnahme allein kann z. B. bei deutschen Texten eine Reduktion des benötigten Speicherplatzes um ca. 30% erreicht werden).

Aufwändigere Verfahren, die noch bessere Ergebnisse liefern, berücksichtigen darüber hinaus Abhängigkeiten zwischen verschiedenen „Zeichen” (so kann z. B. angenommen werden, dass in den Worten der deutschen Sprache auf jedes „Q” ein „U” folgt; Bilder besitzen häufig größere, mit einer Farbe eingefärbte Flächen, sodass ein Bildpunkt weitaus häufiger mit der Farbe eines Nachbarpunktes eingefärbt ist als mit einer anderen Farbe). Extrem hohe Kompressionsraten kann man in Spezialfällen erreichen, in denen das „Original” nicht exakt rekonstruierbar, sondern lediglich erkennbar bleiben muss (z. B. bei Bildern oder Schallwellen); höhere Datenkompressionsraten bedingen in diesen Fällen jedoch immer einen stärkeren Qualitätsverlust zum Original. Kann man das Original wieder vollständig herstellen spricht man von verlustfreier Kompression, ansonsten von verlustbehafteter Kompression. Komprimierte Daten sind zur Durchführung von Be- und Verarbeitungsoperationen allerdings ungeeignet. Vor Be- und Verarbeitungsschritten sind diese Daten daher wieder zu dekomprimieren.

Zitiervorschlag

Bodenhofer in Höller, Informationsverarbeitung I, Informationsdarstellung#Datenkompression (mussswiki.idb.edu/iv1)