mathematics

Teoría de la Información

Las matemáticas de la información: cómo medir, comprimir, transmitir y proteger datos contra el ruido y los errores.

teoría de la informaciónShannonentropíacompresióncorrección de errorescapacidad del canal

La teoría de la información fue creada por Claude Shannon en su histórico artículo de 1948, «A Mathematical Theory of Communication». De un solo golpe, Shannon definió la información matemáticamente (como entropía), demostró que la compresión de datos tiene un límite fundamental y mostró que la comunicación fiable a través de canales ruidosos es posible, hasta una tasa máxima llamada capacidad del canal.

La teoría de Shannon es el fundamento de toda la era digital. La compresión de datos (ZIP, MP3, JPEG), los códigos correctores de errores (en cada llamada telefónica, disco duro y enlace satelital), la criptografía e incluso el aprendizaje automático se basan en principios de teoría de la información. El bit —la unidad básica de Shannon— se convirtió en el átomo del mundo digital.

Estas simulaciones te permiten explorar los resultados clave de Shannon: mide la entropía de mensajes, observa cómo la compresión se acerca al límite teórico, comprueba cómo los códigos correctores recuperan datos del ruido y calcula la capacidad de canales ruidosos.

4 simulaciones interactivas

simulation

Explorador de Capacidad de Canal

Visualiza el teorema de capacidad de canal de Shannon — el límite de velocidad definitivo de la comunicación. Explora cómo el ancho de banda, la relación señal-ruido y el esquema de modulación determinan la tasa máxima de datos, y observa cómo los diagramas de constelación se difuminan al aumentar el ruido.

simulation

Simulador de Compresión de Datos

Visualiza cómo la codificación Huffman comprime datos aprovechando el desequilibrio en la frecuencia de símbolos. Compara el tamaño original, el tamaño comprimido y el límite teórico de Shannon para diferentes tipos de fuentes: desde texto en español hasta secuencias de ADN.

simulation

Simulador de Corrección de Errores

Observa cómo los códigos de corrección de errores detectan y corrigen errores de transmisión en tiempo real. Compara la transmisión sin codificar, la repetición triple y los códigos Hamming(7,4) para ver cómo la redundancia intercambia ancho de banda por fiabilidad en canales ruidosos.

simulation

Calculadora de Entropía de Shannon

Explora la medida fundamental de la información: la entropía de Shannon. Ajusta las probabilidades de los símbolos para ver cómo cambian la incertidumbre, la redundancia y las longitudes óptimas de código. Descubre por qué el texto en español porta unos 4,7 bits por carácter mientras que el texto aleatorio se acerca al máximo teórico.