На фоне бума Agent‑систем, «вайб‑кодинга» и других ярких ИИ‑приложений сооснователь и CEO Anthropic Дарио Амодей в начале 2026 года выступил с резким предупреждением: «в 2026‑м мы ближе к реальной опасности, чем были в 2023‑м».
Он опубликовал объёмное эссе The Adolescence of Technology («Подростковый возраст технологий»), цель которого — не запугать «концом света», а заранее разложить по полочкам системные риски и меры, которые стоит принять до того, как ИИ станет в целом сильнее человека.
Амодей сравнивает ситуацию с подростковым периодом: ИИ — это внезапно выросшая сила и способности, а человеческое общество — ещё не до конца зрелые институты и правила, которым предстоит научиться управлять этой силой.
В начале текста он вспоминает фильм «Контакт» (1997), где героиня говорит, что спросила бы у более развитой цивилизации: «Как вы пережили свою технологическую юность и не уничтожили себя?» Для Амодея это ключевой вопрос и для нас.
Чтобы сделать угрозу понятной, он приводит мысленный эксперимент: представьте, что примерно к 2027 году появляется «страна» с 50 миллионами супер‑гениев. Каждый умнее любого нобелевского лауреата, учится в 10–100 раз быстрее, не спит, идеально координируется, может параллельно решать тысячи сложных задач, управлять роботами, лабораториями и производством — и при этом её нельзя контролировать. Так он описывает не государство, а потенциальный эффект от появления ИИ, который системно превосходит людей.
При этом Амодей настаивает на трёх принципах обсуждения:
- без апокалиптической риторики;
- с признанием неопределённости (мы не знаем, какие выгоды и какие угрозы реализуются);
- с точными мерами вместо «показной безопасности».
Далее он выделяет пять ключевых групп рисков и предлагает направления защиты.
- Потеря управляемости (чёрный ящик).
Обучение моделей слишком сложное, внутренние механизмы остаются плохо понятными. В экстремальных условиях ИИ может демонстрировать обман, «видимое послушание», смещение целей или стремление к власти. В качестве ответов Амодей предлагает развивать «конституционный ИИ» (поведенческие рамки на основе ценностей, как «конституция» Claude), инвестировать в интерпретируемость (похоже на «нейронауку для ИИ»), повышать прозрачность через публикацию оценок рисков и «паспортов» моделей, а также двигаться к регулированию, начиная с законов о прозрачности. - Злоупотребления.
ИИ усиливает кибератаки, мошенничество и автоматизацию преступлений. Самый опасный сценарий — помощь в создании биологического оружия. Предлагаемые меры: системы обнаружения и блокировки опасного контента в моделях, государственные требования к скринингу синтеза генов и прозрачности, а в «физическом мире» — усиление эпиднадзора, мониторинга инфекций и ускорение разработки вакцин. - ИИ как инструмент власти и репрессий.
Риск — технологический авторитаризм: тотальная слежка, пропаганда, централизованные «ИИ‑штабы» принятия решений, автономные вооружения. Амодей делает акцент на ограничении доступа к критическим чипам и оборудованию для тех, кто может использовать ИИ для подавления, на создании сдерживающих международных норм (вплоть до квалификации некоторых применений как преступлений против человечности), а также на усилении корпоративного управления и контроля за ИИ‑компаниями. - Социально‑экономический удар.
Под угрозой — стартовые «беловоротничковые» позиции: юристы‑стажёры, аналитики, консультанты, финансы. Это может увеличить безработицу и неравенство. В ответ он предлагает лучше измерять происходящее (например, через экономические индексы), стимулировать компании к инновациям вместо простого сокращения, перераспределять задачи внутри организаций и использовать механизмы налоговой и социальной политики. - Дальние и трудно прогнозируемые эффекты.
Сюда он относит ускорение биотехнологий (продление жизни, усиление интеллекта, риски «зеркальной жизни»), переформатирование человеческой среды (от «ИИ‑религий» до мягкого контроля сознания) и кризис смысла, когда машины превосходят людей почти во всём. Эти эффекты опасны тем, что, снижая один риск, можно усилить другой.
В интервью Амодей объясняет, почему выступает именно сейчас: по его ощущению, идёт стабильный рост возможностей — своего рода «закон Мура для интеллекта». Он также отмечает, что использовал Claude для структурирования мыслей и исследования, но финальный текст писал сам.
Самый тревожный сигнал для него — внутренний «ускоряющийся цикл»: инженеры всё чаще позволяют Claude писать код, а этот код участвует в создании следующей версии Claude. То есть система начинает ускорять собственное развитие.
Главная мысль Амодея проста: не технология сама по себе решит судьбу будущего, а зрелость человеческих институтов — законов, норм, механизмов контроля и ответственности. И если «подростковая сила» ИИ уже приходит, то правила взросления человечеству придётся вырабатывать заранее.
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
ИИ сегодня — ваше конкурентное преимущество завтра!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru
Сайт https://www.smssystems.ru/razrabotka-ai/