Intelligenzexplosion-Simulator: Modellierung rekursiver KI-Selbstverbesserung

simulation advanced ~15 min
Simulation wird geladen...

Formel

I(t+1) = I(t) + \eta \cdot I(t)^{\alpha}
t_s \approx \frac{I_0^{1-\alpha}}{\eta \cdot (\alpha - 1)} \quad (\alpha > 1)
\text{For } \alpha = 1: I(t) = I_0 \cdot e^{\eta t}
\text{For } \alpha < 1: I(t) \sim (\eta(1-\alpha)t + I_0^{1-\alpha})^{\frac{1}{1-\alpha}}
Die Intelligenzexplosions-Hypothese, erstmals 1965 von I.J. Good formuliert, bleibt eine der folgenreichsten Vorhersagen in der KI-Sicherheitsforschung. Good beobachtete, dass eine hinreichend intelligente Maschine sich selbst noch intelligenter umgestalten könnte, wodurch eine Rückkopplungsschleife entsteht, deren Dynamik kritisch von einem einzigen Parameter abhängt: den Erträgen kognitiver Investition. Dieser Simulator modelliert rekursive Selbstverbesserung mittels der Differenzengleichung I(t+1) = I(t) + η·I(t)^α, wobei I(t) die Intelligenz zum Zeitpunkt t, η die Verbesserungsrate und α der Ertragsexponent ist. Der Exponent α kodiert die fundamentale Frage der KI-Takeoff-Geschwindigkeit. Wenn α < 1, erzeugt jede Intelligenzeinheit weniger als eine Einheit weiterer Verbesserung — abnehmende Erträge. Das Wachstum ist sublinear und folgt grob einem Potenzgesetz. Dies entspricht dem «langsamen Takeoff»-Szenario, bei dem die Gesellschaft Jahrzehnte Zeit hat, sich anzupassen. Wenn α = 1, sind die Erträge konstant und das Wachstum ist exponentiell, mit einer festen Verdopplungsrate. Dies ähnelt der Extrapolation des Mooreschen Gesetzes und ist die implizite Annahme in vielen ökonomischen Wachstumsmodellen. Wenn α > 1, sind die Erträge zunehmend: Intelligentere Systeme verbessern sich schneller, als es weniger intelligente Systeme taten. Dies erzeugt hyperbolisches Wachstum, das in endlicher Zeit mathematisch Unendlichkeit erreicht — die Singularität bei t_s ≈ I₀^(1-α)/[η·(α-1)]. In der Praxis verhindern physikalische Einschränkungen tatsächliche Unendlichkeit, aber die Wachstumsrate kann schnell genug sein, um nach menschlichen Maßstäben effektiv instantan zu sein. Yudkowskys «FOOM» beschreibt dieses Regime. Die zentrale Erkenntnis ist, dass sich das qualitative Verhalten bei α = 1 diskontinuierlich ändert. Es gibt keinen glatten Übergang zwischen «beherrschbar» und «unbeherrschbar» — die Grenze ist ein Phasenübergang. Deshalb ist die Debatte zwischen Vertretern des langsamen und schnellen Takeoffs empirisch so schwer zu lösen: Kleine Unsicherheiten in α bilden sich auf qualitativ verschiedene Zukünfte ab.

Häufige Fragen

Was ist eine Intelligenzexplosion?

Eine Intelligenzexplosion ist ein hypothetisches Szenario, in dem ein KI-System seine eigene Intelligenz verbessert und eine positive Rückkopplungsschleife erzeugt. Jede Verbesserung macht das System besser darin, weitere Verbesserungen vorzunehmen, was potenziell in sehr kurzer Zeit zu Superintelligenz führt. Das Konzept wurde erstmals 1965 von I.J. Good vorgeschlagen.

Was bestimmt, ob der KI-Takeoff langsam oder schnell verläuft?

Der Schlüsselparameter ist der Ertragsexponent α in der rekursiven Verbesserungsgleichung I(t+1) = I(t) + η·I(t)^α. Wenn α < 1, nehmen die Erträge ab und das Wachstum ist sublinear (langsamer Takeoff). Wenn α = 1, ist das Wachstum exponentiell. Wenn α > 1, nehmen die Erträge zu und das Wachstum ist hyperbolisch, erreicht Unendlichkeit in endlicher Zeit — das von Yudkowsky beschriebene «FOOM»-Szenario.

Ist eine Intelligenzexplosion physikalisch möglich?

Dies wird debattiert. Befürworter (Bostrom, Yudkowsky) argumentieren, dass softwarebasierte Intelligenz sich rekursiv ohne harte physikalische Grenzen selbst verbessern kann. Skeptiker (Pinker, Marcus) argumentieren, dass abnehmende Erträge, Hardware-Engpässe und die Komplexität von Intelligenz selbst natürliche Grenzen setzen, die α unter 1 halten.

Wie lautet die Formel für den Singularitätszeitpunkt?

Für das rekursive Verbesserungsmodell I(t+1) = I(t) + η·I(t)^α mit α > 1 tritt die Singularität in endlicher Zeit bei ungefähr t_s = I₀^(1-α) / [η·(α-1)] auf, wobei I₀ die Anfangsintelligenz und η die Verbesserungsrate ist.

Quellen

View source on GitHub