Самоуничтожение цивилизаций: рассчитайте вероятность

calculator intermediate ~6 min
Загрузка симуляции...
Вероятность выжить 1000 лет: ~44%

При умеренных оценках риска (10% ядерная, 5% ИИ, 3% био, 5% климат, 1% нано за столетие), вероятность пережить 10 веков составляет около 44%. Это серьёзный фильтр.

Формула

P(survive) = (1 - P_nuke)(1 - P_ai)(1 - P_bio)(1 - P_climate)(1 - P_nano)
P(survive T centuries) = P(survive)^T

Великий Фильтр — это мы сами?

Возможно, ответ на парадокс Ферми прост и жуток: технологические цивилизации обычно уничтожают себя. Ядерное оружие, искусственный интеллект, биологическое оружие, изменение климата — каждый из этих рисков небольшой за одно столетие, но в совокупности и за тысячелетия они складываются в почти неизбежную гибель.

Частые вопросы

Какова вероятность самоуничтожения человечества?

По различным оценкам, вероятность глобальной катастрофы в ближайшие 100 лет составляет от 10% до 30%. Основные риски: ядерная война, неконтролируемый ИИ, биологическое оружие, изменение климата.

Почему это связано с парадоксом Ферми?

Если технологические цивилизации обычно самоуничтожаются в первые 1000 лет после создания ядерного оружия / ИИ, это объясняет отсутствие контакта — большинство просто не доживает до межзвёздных перелётов.

Какая угроза самая серьёзная?

По оценке Тоби Орда (книга 'The Precipice'), наибольший экзистенциальный риск в XXI веке исходит от неконтролируемого ИИ (~10%) и инженерных пандемий (~3%).

Источники

Встроить

<iframe src="https://homo-deus.com/lab/fermi-paradox/self-destruction/embed" width="100%" height="400" frameborder="0"></iframe>
View source on GitHub