Selbstzerstörung von Zivilisationen: Berechnen Sie die Wahrscheinlichkeit

calculator intermediate ~6 min
Simulation wird geladen...
Wahrscheinlichkeit, 1.000 Jahre zu überleben: ~44 %

Bei moderaten Risikoschätzungen (10 % Atomkrieg, 5 % KI, 3 % Bio, 5 % Klima, 1 % Nano pro Jahrhundert) beträgt die Wahrscheinlichkeit, 10 Jahrhunderte zu überleben, etwa 44 %. Das ist ein erheblicher Filter.

Formel

P(survive) = (1 - P_nuke)(1 - P_ai)(1 - P_bio)(1 - P_climate)(1 - P_nano)
P(survive T centuries) = P(survive)^T

Der Große Filter — sind wir es selbst?

Vielleicht ist die Antwort auf das Fermi-Paradoxon einfach und erschreckend: Technologische Zivilisationen vernichten sich in der Regel selbst. Atomwaffen, künstliche Intelligenz, biologische Waffen, Klimawandel — jedes einzelne Risiko ist pro Jahrhundert gering, aber in Kombination und über Jahrtausende summieren sie sich zu einer nahezu unvermeidlichen Auslöschung.

Die kumulative Gefahr

Unser Rechner zeigt eindrucksvoll, wie sich scheinbar moderate Risiken aufaddieren. Selbst wenn die Wahrscheinlichkeit jeder einzelnen Katastrophe nur wenige Prozent pro Jahrhundert beträgt, sinkt die Gesamtüberlebenswahrscheinlichkeit über 10 Jahrhunderte dramatisch. Bei unseren Standardparametern überlebt eine Zivilisation 1.000 Jahre nur mit einer Wahrscheinlichkeit von ~44 %.

Für das Fermi-Paradoxon ist dieser Rechner besonders aufschlussreich: Um eine interstellare Zivilisation zu werden, muss eine Spezies nicht nur ein oder zwei Jahrhunderte technologische Gefahren überstehen, sondern viele Tausende von Jahren. Die Wahrscheinlichkeit sinkt dabei exponentiell — und das könnte erklären, warum der Kosmos so still ist.

Ein Hoffnungsschimmer: Die Risiken sind nicht unveränderlich. Bessere Regierungsführung, internationale Kooperation und verantwortungsvolle Technologieentwicklung könnten die Wahrscheinlichkeit jeder einzelnen Katastrophe erheblich senken — und damit die Überlebenschancen der Menschheit drastisch verbessern.

Häufige Fragen

Wie hoch ist die Wahrscheinlichkeit der Selbstzerstörung der Menschheit?

Nach verschiedenen Schätzungen liegt die Wahrscheinlichkeit einer globalen Katastrophe in den nächsten 100 Jahren bei 10 % bis 30 %. Die Hauptrisiken: Atomkrieg, unkontrollierte KI, biologische Waffen, Klimawandel.

Warum hängt das mit dem Fermi-Paradoxon zusammen?

Wenn sich technologische Zivilisationen üblicherweise in den ersten 1.000 Jahren nach der Entwicklung von Atomwaffen oder KI selbst vernichten, erklärt das die fehlenden Kontakte — die meisten überleben einfach nicht bis zu den interstellaren Reisen.

Welche Bedrohung ist am gravierendsten?

Nach Einschätzung von Toby Ord (Buch «The Precipice») geht das größte existenzielle Risiko im 21. Jahrhundert von unkontrollierter KI (~10 %) und synthetischen Pandemien (~3 %) aus.

Quellen

Einbetten

<iframe src="https://homo-deus.com/lab/fermi-paradox/self-destruction/embed" width="100%" height="400" frameborder="0"></iframe>
View source on GitHub