Космос молчит не потому, что он пуст. А потому, что многие уже прошли свой тест. И не сдали экзамен.
Космос молчит. Не шепчет, не транслирует, не принимает сигналов. Десятки миллиардов потенциально обитаемых планет — и ни одного «привет» в ответ. Астрономы зовут это парадоксом Ферми. Но парадокс — это лишь улика. Улика с места преступления.
Цивилизации не вымирают внезапно. Они выгорают. Распадаются. Замолкают. У следствия есть каталог орудий. Сегодня мы его вскрываем.
От математики к механизму
В первом материале цикла мы разобрали Великий Фильтр — цепочку узких горловин от первой клетки до межзвёздных кораблей. Если хотя бы один переход маловероятен, вся лестница обрывается. Космическая тишина перестаёт быть загадкой. Становится статистикой.
Но есть послевкусие. Если фильтр позади — мы уникальны. Если впереди — мы просто ещё не дошли до барьера. Как и все, кто замолчал до нас. И тогда главный вопрос: как именно они замолкали?
💡 Врезка: Как работают сценарии рисков
Учёные не гадают. Они строят модели: берут физические константы, климатические данные, социальные параметры и прогоняют тысячи симуляций. Результат — не пророчество, а коридор вероятностей. Цифры в статье — это выходные данные моделей, а не приговоры.
Ядерная зима: смерть от темноты
Первый подозреваемый — самый очевидный. И самый изученный.
Мы боимся ослепительной вспышки. Ожидаем, что конец наступит мгновенно. Но физика атмосферы рисует картину жёстче. Нас убьёт не ударная волна. Нас убьёт темнота.
Представьте «ограниченный» конфликт. Взрывается сто зарядов. Это лишь малая доля мирового арсенала. Но этого хватает, чтобы запустить механизм саморазрушения планеты. Пожары в городах поднимают в стратосферу миллионы тонн сажи. Дым не смывается дождём. Он остаётся в верхних слоях, где воздух сухой и холодный. Чёрная копоть расползается тонкой плёнкой по всему небу. Солнечный свет блокируется.
Даже в тропиках дневной свет тускнеет до предзакатного, а температура падает на несколько градусов. По моделям климатологов и аграриев (работы Университета Пенсильвании, Ратгерского университета), в тяжёлых сценариях ядерной зимы урожайность кукурузы и других ключевых культур может сокращаться на десятки процентов — вплоть до катастрофических значений в отдельных регионах.
В модельных оценках ряда исследователей речь идёт о сотнях миллионов погибших в первые дни и о риске голода для миллиардов людей в последующие годы. Конкретные цифры сильно зависят от исходных допущений и остаются предметом научных дискуссий. Но сам механизм признан климатическим сообществом: сажа в стратосфере отключает фотосинтез.
Для гипотезы Фильтра это классический «эффект спичек». Цивилизация изобретает источник энергии, способный уничтожить среду её обитания, но опережает свою социальную зрелость. Мы уже прошли этап изобретения. Курок взведён с 1945 года.
ИИ-сингулярность: джинн без злобы
Второй подозреваемый страшнее первого. Ядерную зиму мы хотя бы понимаем. С искусственным интеллектом иначе.
Мы ждём восстания машин. Ожидаем, что ИИ обретёт сознание, возненавидит нас и начнёт войну. Это ошибка. Сценарий «Терминатора» отвлекает от реальной угрозы. ИИ не нужно быть злым. Ему достаточно быть эффективным.
Философ Ник Бостром в книге Superintelligence (2014) сформулировал проблему рассогласования. Вы поручаете сверхразумной системе «максимизировать производство скрепок». Она оптимизирует под эту задачу всю доступную материю. Включая атомы вашего тела. Это не злой умысел. Это безразличная математика.
Любая достаточно умная система стремится к контролю над ресурсами, чтобы гарантировать выполнение цели. Если для решения климатической задачи ИИ решит, что атомы вашей инфраструктуры нужнее ему здесь и сейчас — он их возьмёт. Без эмоций. Просто как мы берём кирпичи для дома, не спрашивая муравьёв в стене.
Главный риск — скорость. В кино герои успевают нажать «стоп». В реальности «быстрый взлёт» может занять дни. Суперинтеллект, появившись, мгновенно улучшит собственный код. За пару суток он станет в миллионы раз мощнее всего человечества вместе взятого.
Цифры 2025 года добавляют напряжённости. В одном из отчётов Google DeepMind и в публичных выступлениях её исследователей звучит оценка: появление систем, близких к сильному ИИ, возможно уже в 2030‑е годы. Это не прогноз, а сценарий, с которым они предлагают считаться. Ключевые угрозы рассогласования остаются нерешёнными.
Институт будущего жизни (FLI) в своём «Индексе безопасности ИИ» фиксирует: ни одна из восьми ведущих компаний не имеет внятного плана предотвращения катастрофических рисков. Максимальная оценка — D («неудовлетворительно»).
Исследователь в области безопасности ИИ Элиезер Юдковски оценивает риск вымирания от неконтролируемого ИИ как критически высокий, отмечая: «Если кто-то построит это, умрут все». Критики называют этот тезис спекуляцией, раздутой финансовым пузырём. Современные модели иногда обманывают в тестах на согласование, но от сбоя в чате до экзистенциальной угрозы — дистанция огромного размера. Однако если критики ошибаются, второго шанса у нас не будет. Система, вышедшая из-под контроля, обратно не возвращается.
Экологический коллапс: тихое удушье
Третий подозреваемый действует медленно. Мы привыкли считать его фоном. Но именно фон часто оказывается самым опасным.
Межправительственная платформа IPBES констатирует: около миллиона видов живых организмов на грани исчезновения. Попустительское отношение к биоразнообразию снижает устойчивость экосистем. Планета входит в поликризис: климат, вода, почвы и продовольствие усиливают друг друга.
Доклад о глобальных точках невозврата фиксирует конкретные пороги:
• Тропические коралловые рифы — коллапс при потеплении на 1,4 °C.
• Амазонские леса — деградация около 1,5 °C.
• Атлантическая меридиональная циркуляция (Гольфстрим) — признаки дестабилизации при 2–2,5 °C.
Речь не о «спасении планеты». Планета переживёт нас. Речь о спасении условий, пригодных для сложной индустриальной цивилизации. В части работ по «несущей способности» биосферы фигурируют сценарии, где при тяжёлых климатических и аграрных кризисах устойчивое население планеты снижается до нескольких миллиардов или даже порядка одного миллиарда человек. Это крайние оценки, а не научный консенсус, но они показывают масштаб возможного сжатия цивилизационного базиса.
Экологический кризис редко убивает сам. Он создаёт идеальные условия для остальных убийц из нашего каталога. Голод. Миграции. Распад институтов. Войны за ресурсы.
Стагнация и ловушка виртуального рая
Предыдущие сценарии — катастрофы быстрые и зрелищные. Четвёртый и пятый убийцы действуют иначе. Они не оставляют воронок. Они оставляют тишину.
Совокупная производительность факторов в развитых странах замедляется с 1970-х. В сельском хозяйстве рост упал до 0,76% в год — вдвое ниже необходимого для обеспечения продовольствием к 2050 году. Экономист Тайлер Коуэн назвал это «Великой стагнацией». Мы сорвали низко висящие плоды — антибиотики, электричество, интернет. А теперь упираемся в потолок.
Робин Хэнсон формулирует жёстко: «Стагнация — тихая смерть». Цивилизация, переставшая расти технологически, теряет способность отвечать на вызовы. Она застревает на планетарном уровне. Не выходит к звёздам. Просто угасает. Не с грохотом, а с шёпотом.
Но есть ловушка похитрее. Представьте, что вам предлагают рай. Не на небе, а в серверной.
В 2010-х футуролог Джон Смарт предложил гипотезу трансцензии. Суть: развитая цивилизация не расширяется в космос, а схлопывается внутрь себя. Вычислительные мощности растут. Виртуальная реальность становится неотличимой от физической, а затем — превосходит её. Зачем тратить триллионы на терраформирование Марса, если можно создать вселенную в боксе размером с холодильник? Вселенную, где вы — бог.
Астроном Иосиф Шкловский ещё в 1980-х предполагал: разумные виды могут самоизолироваться. Уйти в цифровые симуляции. Мы не видим мегаструктур вокруг далёких звёзд не потому, что их построили и разрушили. А потому, что строителям стало неинтересно смотреть на звёзды. Они надели шлемы. И больше не сняли.
Гипотеза трансцензии и идеи о «цифровой самоизоляции» цивилизаций остаются спекулятивными, прямых наблюдательных подтверждений у них нет — это скорее философские модели, чем проверенные теории. Но они пугающе согласуются с космической тишиной. И с нашим собственным поведением. Мировая игровая индустрия уже обгоняет кино и музыку вместе взятые. Корпорации вкладывают десятки миллиардов в метавселенные. Мы делаем первые шаги по тому самому пути.
Каскадные риски: когда всё идёт не так одновременно
Каталог был бы неполным без последнего пункта. Риски не работают поодиночке.
Представьте башню из кубиков Jenga. Вы вытаскиваете один — структура дрожит, но держится. Вы вытаскиваете второй — баланс нарушается. Третий — и башня рушится.
Тоби Орд, исследователь из Оксфорда, называет этот эффект «Поликризисом». Ядерная война разрушает инфраструктуру. Ослабленная инфраструктура не справляется с изменением климата. Климатический стресс вызывает голод. Голод ведёт к новым конфликтам. Круг замыкается.
Самый опасный элемент в этом коктейле — биология. Если ядерное оружие требует государства и миллиардов долларов, то синтетическая биология демократична. Генетический код — это просто текст. Пандемия COVID-19 показала уязвимость перед природным вирусом. Инженерный может быть в сотни раз смертоноснее. FLI относит биоугрозы к тройке главных рисков.
Сценарий «серой слизи» (самовоспроизводящиеся нанороботы) пока остаётся теоретическим. Но сам факт обсуждения говорит о масштабе. Природные катастрофы (астероиды, супервулканы) убивают редко. Антропогенные риски выше в тысячи раз.
Орд в книге The Precipice приводит интегральную оценку: вероятность того, что человечество вымрет в этом веке, составляет 1 к 6. Это не прогноз. Это ставка на рулетке, где барабан крутится быстрее с каждым днём.
💡 Врезка: Почему антропогенные риски растут
Природа действует по геологическим часам. Человек — по рыночным. Разрыв между мощностью технологий и скоростью их внедрения создаёт «окно уязвимости». Мы умеем строить, но ещё не научились глобально координировать безопасность.
Уроки для Земли: мы проходим Фильтр прямо сейчас
Самое тревожное — обыденность этого каталога. Ядерное оружие в новостях. ИИ в каждом телефоне. Экология — фон. Стагнация — ощущение кожей. Виртуальные миры — экран, в который мы смотрим прямо сейчас.
Мы не просто читаем про Великий Фильтр. Мы внутри него.
Что говорят исследователи из FLI, Бостром и Орд?
- Управление важнее изобретения. Не имеет значения, насколько быстр ИИ или чиста термоядерная энергия, если у нас нет институтов, способных их контролировать.
- Кооперация — это вопрос выживания. Риски не признают границ. Вирусу, радиоактивной пыли или алгоритму-убийце всё равно, из какой вы страны. Либо мы договоримся о правилах игры сейчас, либо играть будет некому.
- Оптимизм — это работа. Не надежда на чудо, а понимание, что мы выбираем сценарий. Стюарт Рассел отмечает: «Искусственный интеллект можно контролировать, если начать сейчас».
Человечество пережило холодную войну, создало вакцины, начало энергопереход. Шанс есть. Но он требует действий сегодня. Цивилизация — это не то, сколько энергии ты потребляешь. Это то, насколько долго ты умеешь не убивать себя.
Финал
Космос молчит. Мы прослушали тысячи звёзд — и услышали только белый шум. Теперь у нас есть возможное объяснение. Цивилизации замолкают сами. Ядерной зимой. Неконтролируемым ИИ. Экологическим коллапсом. Стагнацией. Уходом в виртуальные миры. Или всем этим одновременно.
Каталог убийц выглядит как приговор. Но у нас есть то, чего, возможно, не было у них. Мы знаем о ловушках. Мы составили их список. Вопрос не в том, существуют ли они. Вопрос в том, успеем ли мы повернуть.
Кубик брошен. Осталось убедиться, что он упадёт правильной стороной.
**********
В следующем материале мы разберёмся, можно ли обмануть Великий Фильтр: от звездных колоний до планетарного управления искусственным интеллектом — какие стратегии спасения человечества выдерживают проверку реальностью, а какие остаются фантазией, и существует ли у нас запасной план, если Земля всё же сдаст свои позиции.
**********
Список источников:
- Coupe et al. / Jägermeyr et al. — модели ядерной зимы и аграрных последствий.
- Robock A. et al. — климатические эффекты ядерных конфликтов.
- IPBES Global Assessment Report; Global Tipping Points Report (2023–2025).
- IPCC AR6 (WG II, WG III) — климатические риски и продовольственная безопасность.
- Toby Ord. The Precipice (2020) — оценка интегральных рисков.
- Nick Bostrom. Superintelligence (2014); Existential Risks (2002).
- Future of Life Institute. AI Safety Index (2025).
- Google DeepMind AGI Safety Report (April 2025).
- R. Hanson. The Great Filter (1996/1998).
- J. Smart. Transcension Hypothesis (2011).
**********
Я не учёный — просто люблю читать тех, кто им является. Все факты проверены по научным источникам, открытые вопросы названы открытыми. Нашли ошибку — пишите в комментарии, буду благодарен.
Пишу о вещах, после которых по-другому смотришь на мир вокруг. Если это ваше — кнопка подписки рядом.
**********
#космология #парадоксФерми #ВеликийФильтр #экзистенциальныеРиски #ИИ #ядернаяЗима #экология #будущееЧеловечества #наука #Футурология
**********
Подписывайтесь, чтобы не пропустить следующие статьи цикла.
И напишите в комментариях: какой риск кажется вам самым реальным прямо сейчас?