Что страшнее - ядерная война или программа, которая учится быстрее любого человека? Всё больше учёных отвечают: второе.
Мы привыкли думать об ИИ как о помощнике. Но те, кто создаёт самые мощные системы, часто смотрят на них с тревогой. Пионеры нейросетей, главы крупных лабораторий и политики всё чаще говорят: если мы не будем осторожны, машины могут однажды поставить крест на нашем будущем.
Вопрос уже не в том, "заменит ли ИИ профессию копирайтера или юриста", а в том - не заменит ли он нас самих.
🧩 Что именно пугает людей и специалистов
Большой страх складывается из двух механизмов:
1) Ускорение опасных возможностей. Мощные модели помогают плохим актёрам – от кибератак и deepfake-манипуляций до потенциальных био-рисков.
2) Появление систем со сверхчеловеческими способностями. Если цели таких систем разойдутся с нашими, они будут оптимизировать мир "под себя", а мы – мешать. Именно в этой логике в 2023 году появилось короткое, но громкое заявление Центра по безопасности ИИ: "снижение риска вымирания от ИИ должно стать глобальным приоритетом – на уровне пандемий и ядерной войны". Эту фразу подписали десятки ведущих учёных и руководителей компаний.
С тех пор тема из "маргинальной" стала мейнстримом: страны подписали Bletchley Declaration (Великобритания, 2023) и Seoul Declaration (Корея, 2024), официально признав риски фронтир-ИИ и необходимость международной координации.
🗣️ Что говорят "отцы-основатели" и главы лабораторий
Джеффри Хинтон ("крёстный отец ИИ") оценивает шанс плохого сценария в ближайшие десятилетия как 10–20%. Его главный страх - что системы смогут самообучаться и улучшать себя без ограничений, запустив "взрыв интеллекта". Тогда человек окажется не в состоянии контролировать их решения. По словам Хинтона, машины могут начать оптимизировать мир "под свои цели", а люди станут просто мешающим фактором.
Демис Хассабис (Google DeepMind) сравнивает риски ИИ с климатом: "слишком важно, чтобы не регулировать, и слишком важно, чтобы регулировать плохо". Его сценарий конца связан не с "восстанием машин", а с людьми: доступ к мощным моделям может позволить недобросовестным игрокам создавать новые биопатогены или совершать кибератаки. ИИ, ускоряющий такие разработки, - это уже глобальная угроза.
Сэм Альтман (OpenAI) на слушаниях в Сенате в 2023 году сформулировал "худший страх": если развитие ИИ выйдет из-под контроля, "может пойти очень не так". Его сценарий - цепочка кризисов: сверхразумные системы научатся манипулировать людьми, взламывать инфраструктуру и распространять массовые фейки. Всё это может вызвать политический и экономический хаос.
Йошуа Бенджио в 2024–2025 годах координировал первый международный отчёт по безопасности продвинутого ИИ. Его акцент - на геополитике. Он предупреждает: если страны будут соревноваться в создании сверхразумных систем без общего контроля, мир получит ситуацию, сравнимую с ядерной гонкой, где любая ошибка или утечка может обернуться катастрофой.
📊 Общество тоже нервничает
По данным опроса YouGov, почти 40% американцев всерьёз беспокоятся, что ИИ может привести к концу человеческой расы. Для сравнения: такие же цифры были характерны для страхов перед ядерной войной в 1980-е.
В рабочей сфере тревожность ещё выше. 52% трудоспособных американцев считают, что ИИ повлияет на их занятость, а каждый третий прямо ждёт сокращений в своей отрасли.
Кроме того, большинство людей хотят больше личного контроля над тем, как ИИ применяется в их жизни. Недоверие усиливает то, что алгоритмы остаются "чёрным ящиком", чьи решения непонятны.
Страх перед ИИ рождает и новые формы общественной активности.
Pause AI требует остановки разработки самых мощных моделей, пока не будет создана безопасная система контроля. Протесты проходят у офисов OpenAI, Anthropic и DeepMind. На плакатах активистов - "Мы играем в русскую рулетку с человечеством".
Есть и "интеллектуальные коммунны" вроде Lighthaven в Беркли - бывшего отеля, где живут рационалисты, ежедневно обсуждающие риски и возможные сценарии будущего. Для одних это утопия, для других — терапия в мире, где будущее туманно.
Активизм стал влиять и на политику: именно под давлением общественного мнения правительства ускорили международные переговоры, которые привели к подписанию Bletchley Declaration и Seoul Declaration.
🧱 Как люди готовятся к "концу от ИИ"
В самой индустрии искусственного интеллекта страх перед будущим чувствуется особенно сильно. В расследовании Business Insider (2025) описаны люди, которые реагируют на тревогу по-разному: одни строят убежища и откладывают дела "на потом", другие - наоборот стараются прожить жизнь максимально ярко.
Те, кто готовится к выживанию:
Инженер по имени Генри оборудовал у себя дома специальное укрытие. Это герметичная палатка с фильтрами, которые очищают воздух, и запасами еды и воды на три года. Он считает, что если ИИ поможет кому-то создать опасные вирусы, такая защита может спасти его семью.
Дэниел Кокотайло, бывший исследователь OpenAI, ещё в 2020 году перестал копить на пенсию. По его словам, человечеству может остаться меньше десяти лет, и откладывать деньги на старость в такой ситуации просто бессмысленно.
Похожего мнения придерживается и Трентон Брикен из Anthropic. Он тоже решил, что накопления на будущее теряют смысл, если это будущее может радикально измениться.
Те, кто живёт как в последний раз:
Исследовательница и блогер Аэлла говорит, что разговоры о рисках ИИ подтолкнули её жить ярче. Она устраивает вечеринки, пробует новые впечатления и тратит деньги, не думая о завтра.
Другие люди в индустрии спешат выполнить свои мечты из списка "надо успеть": отправляются в путешествия, пробуют экстремальные виды спорта, осваивают новые хобби.
Биомедицинский исследователь Апурва Шринивасан заметила даже изменения в личных отношениях. Она говорит, что интеллект теперь перестаёт быть главным достоинством человека, ведь ум может заменить ИИ. На первый план выходят харизма, внешность и умение быть интересным в общении.
⚖️ Итог
Сегодня страх перед ИИ проявляется на всех уровнях: от Нобелевских лауреатов и глав лабораторий до инженеров, которые строят у себя дома бункеры, и активистов, выходящих с плакатами на улицы.
Для одних будущее - это "взрыв интеллекта" и потеря контроля, для других - гонка вооружений и рост киберугроз, для обычных людей - потеря работы и ощущение, что мир слишком быстро уходит из-под ног.
Но есть и светлая сторона: именно страх заставил учёных открыто заговорить о рисках, правительства - подписывать международные соглашения, а людей - требовать правил для технологий.
ИИ может стать катастрофой. Но может стать и величайшим инструментом человечества.
Всё зависит от нас: сможем ли мы вовремя поставить рамки и научиться жить с машиной, которая однажды может оказаться умнее человека.