mathematics

Informationstheorie

Die Mathematik der Information — wie man Daten misst, komprimiert, überträgt und vor Rauschen und Fehlern schützt.

InformationstheorieShannonEntropieKompressionFehlerkorrekturKanalkapazität

Die Informationstheorie wurde von Claude Shannon in seiner bahnbrechenden Arbeit von 1948 «A Mathematical Theory of Communication» begründet. In einem einzigen Wurf definierte Shannon Information mathematisch (als Entropie), bewies, dass Datenkompression eine fundamentale Grenze hat, und zeigte, dass zuverlässige Kommunikation über verrauschte Kanäle möglich ist — bis zu einer Maximalrate, der sogenannten Kanalkapazität.

Shannons Theorie ist das Fundament des gesamten digitalen Zeitalters. Datenkompression (ZIP, MP3, JPEG), fehlerkorrigierende Codes (in jedem Telefonat, jeder Festplatte und jeder Satellitenverbindung), Kryptographie und sogar maschinelles Lernen beruhen auf informationstheoretischen Prinzipien. Das Bit — Shannons Grundeinheit — wurde zum Atom der digitalen Welt.

Diese Simulationen lassen Sie Shannons wichtigste Ergebnisse erkunden: Messen Sie die Entropie von Nachrichten, sehen Sie, wie Kompression sich dem theoretischen Limit annähert, beobachten Sie, wie fehlerkorrigierende Codes Daten aus dem Rauschen wiederherstellen, und berechnen Sie die Kapazität verrauschter Kanäle.

4 interaktive Simulationen

simulation

Kanalkapazität-Explorer

Visualisieren Sie Shannons Kanalkapazitätstheorem — das ultimative Tempolimit der Kommunikation. Erkunden Sie, wie Bandbreite, Signal-Rausch-Verhältnis und Modulationsverfahren die maximale Datenrate bestimmen, und beobachten Sie, wie Konstellationsdiagramme mit zunehmendem Rauschen verschwimmen.

simulation

Datenkompression-Simulator

Visualisieren Sie, wie Huffman-Codierung Daten komprimiert, indem sie Ungleichgewichte in der Symbolhäufigkeit ausnutzt. Vergleichen Sie Originalgröße, komprimierte Größe und die theoretische Shannon-Grenze über verschiedene Quelltypen — von englischem Text bis zu DNA-Sequenzen.

simulation

Fehlerkorrektur-Simulator

Beobachten Sie, wie Fehlerkorrekturcodes Übertragungsfehler in Echtzeit erkennen und beheben. Vergleichen Sie uncodierte Übertragung, dreifache Wiederholung und Hamming(7,4)-Codes, um zu sehen, wie Redundanz Bandbreite gegen Zuverlässigkeit tauscht.

simulation

Shannon-Entropie-Rechner

Erkunden Sie das grundlegende Maß der Information: die Shannon-Entropie. Passen Sie Symbolwahrscheinlichkeiten an, um zu sehen, wie sich Unsicherheit, Redundanz und optimale Codelängen verändern. Erfahren Sie, warum englischer Text etwa 4,7 Bit pro Zeichen trägt, während zufälliger Text das theoretische Maximum erreicht.