mathematics

Теория информации

Математика информации — как измерять, сжимать, передавать и защищать данные от шума и ошибок.

теория информацииШеннонэнтропиясжатиеисправление ошибокпропускная способность

Теория информации была создана Клодом Шенноном в его основополагающей статье 1948 года «Математическая теория связи». Одним ударом Шеннон дал математическое определение информации (как энтропии), доказал, что сжатие данных имеет фундаментальный предел, и показал, что надёжная связь по зашумлённым каналам возможна — вплоть до максимальной скорости, называемой пропускной способностью канала.

Теория Шеннона лежит в основе всей цифровой эпохи. Сжатие данных (ZIP, MP3, JPEG), коды с исправлением ошибок (в каждом телефонном звонке, жёстком диске и спутниковом канале), криптография и даже машинное обучение — всё это основано на теоретико-информационных принципах. Бит — базовая единица Шеннона — стал атомом цифрового мира.

Эти симуляции позволят вам исследовать ключевые результаты Шеннона: измерять энтропию сообщений, наблюдать, как сжатие приближается к теоретическому пределу, видеть, как коды с исправлением ошибок восстанавливают данные из шума, и вычислять пропускную способность зашумлённых каналов.

4 интерактивных симуляций

simulation

Исследователь пропускной способности канала

Визуализируйте теорему Шеннона о пропускной способности канала — абсолютный предел скорости связи. Исследуйте, как полоса пропускания, отношение сигнал/шум и схема модуляции определяют максимальную скорость передачи данных, и наблюдайте, как сигнальные созвездия размываются с ростом шума.

simulation

Симулятор сжатия данных

Визуализируйте, как кодирование Хаффмана сжимает данные, используя неравномерность частот символов. Сравните исходный размер, сжатый размер и теоретический предел Шеннона для различных типов источников — от английского текста до последовательностей ДНК.

simulation

Симулятор коррекции ошибок

Наблюдайте, как коды коррекции ошибок обнаруживают и исправляют ошибки передачи в реальном времени. Сравните передачу без кодирования, тройное повторение и код Хэмминга(7,4), чтобы увидеть, как избыточность обменивает пропускную способность на надёжность в зашумлённых каналах.

simulation

Калькулятор энтропии Шеннона

Исследуйте фундаментальную меру информации — энтропию Шеннона. Настраивайте вероятности символов и наблюдайте, как меняются неопределённость, избыточность и оптимальные длины кодов. Узнайте, почему английский текст несёт около 4,7 бит на символ, тогда как случайный текст приближается к теоретическому максимуму.