La hipótesis de la explosión de inteligencia, articulada por primera vez por I.J. Good en 1965, sigue siendo una de las predicciones más trascendentales en la investigación de seguridad de IA. Good observó que una máquina suficientemente inteligente podría rediseñarse a sí misma para ser aún más inteligente, creando un bucle de retroalimentación cuya dinámica depende críticamente de un solo parámetro: los rendimientos de la inversión cognitiva.
Este simulador modela la auto-mejora recursiva usando la ecuación en diferencias I(t+1) = I(t) + η·I(t)^α, donde I(t) es la inteligencia en el tiempo t, η es la tasa de mejora y α es el exponente de rendimientos. El exponente α codifica la pregunta fundamental sobre la velocidad de despegue de la IA.
Cuando α < 1, cada unidad de inteligencia produce menos de una unidad de mejora adicional — rendimientos decrecientes. El crecimiento es sublineal, siguiendo aproximadamente una ley de potencia. Esto corresponde al escenario de 'despegue lento' donde la sociedad tiene décadas para adaptarse.
Cuando α = 1, los rendimientos son constantes y el crecimiento es exponencial, duplicándose a una tasa fija. Esto se asemeja a la extrapolación de la Ley de Moore y es la suposición implícita en muchos modelos de crecimiento económico.
Cuando α > 1, los rendimientos son crecientes: los sistemas más inteligentes se mejoran a sí mismos más rápido de lo que lo hacían los sistemas menos inteligentes. Esto produce un crecimiento hiperbólico que alcanza el infinito matemático en tiempo finito — la singularidad en t_s ≈ I₀^(1-α)/[η·(α-1)]. En la práctica, las restricciones físicas impiden el infinito real, pero la tasa de crecimiento puede ser lo suficientemente rápida como para ser efectivamente instantánea según estándares humanos. El 'FOOM' de Yudkowsky describe este régimen.
La idea clave es que el comportamiento cualitativo cambia de forma discontinua en α = 1. No hay una transición suave entre 'manejable' e 'inmanejable' — la frontera es una transición de fase. Por eso el debate entre los campos del despegue lento y rápido es tan difícil de resolver empíricamente: pequeñas incertidumbres en α se traducen en futuros cualitativamente diferentes.
Preguntas frecuentes
¿Qué es una explosión de inteligencia?
Una explosión de inteligencia es un escenario hipotético donde un sistema de IA mejora su propia inteligencia, creando un bucle de retroalimentación positiva. Cada mejora hace que el sistema sea mejor realizando mejoras adicionales, pudiendo llevar a la superinteligencia en un tiempo muy corto. El concepto fue propuesto por primera vez por I.J. Good en 1965.
¿Qué determina si el despegue de la IA es lento o rápido?
El parámetro clave es el exponente de rendimientos α en la ecuación de mejora recursiva I(t+1) = I(t) + η·I(t)^α. Cuando α < 1, los rendimientos disminuyen y el crecimiento es sublineal (despegue lento). Cuando α = 1, el crecimiento es exponencial. Cuando α > 1, los rendimientos aumentan y el crecimiento es hiperbólico, alcanzando el infinito en tiempo finito — el escenario 'FOOM' descrito por Yudkowsky.
¿Es físicamente posible una explosión de inteligencia?
Esto es debatido. Los proponentes (Bostrom, Yudkowsky) argumentan que la inteligencia basada en software puede auto-mejorarse recursivamente sin límites físicos estrictos. Los escépticos (Pinker, Marcus) argumentan que los rendimientos decrecientes, los cuellos de botella de hardware y la complejidad de la inteligencia misma imponen límites naturales que mantienen α por debajo de 1.
¿Cuál es la fórmula del tiempo hasta la singularidad?
Para el modelo de mejora recursiva I(t+1) = I(t) + η·I(t)^α con α > 1, la singularidad en tiempo finito ocurre aproximadamente en t_s = I₀^(1-α) / [η·(α-1)], donde I₀ es la inteligencia inicial y η es la tasa de mejora.
Fuentes
[object Object]
[object Object]
[object Object]
[object Object]
Otras simulaciones: Riesgo Existencial de la IA y Alineamiento