La teoría de la información fue creada por Claude Shannon en su histórico artículo de 1948, «A Mathematical Theory of Communication». De un solo golpe, Shannon definió la información matemáticamente (como entropía), demostró que la compresión de datos tiene un límite fundamental y mostró que la comunicación fiable a través de canales ruidosos es posible, hasta una tasa máxima llamada capacidad del canal.
La teoría de Shannon es el fundamento de toda la era digital. La compresión de datos (ZIP, MP3, JPEG), los códigos correctores de errores (en cada llamada telefónica, disco duro y enlace satelital), la criptografía e incluso el aprendizaje automático se basan en principios de teoría de la información. El bit —la unidad básica de Shannon— se convirtió en el átomo del mundo digital.
Estas simulaciones te permiten explorar los resultados clave de Shannon: mide la entropía de mensajes, observa cómo la compresión se acerca al límite teórico, comprueba cómo los códigos correctores recuperan datos del ruido y calcula la capacidad de canales ruidosos.