Найти в Дзене
Social Mebia Systems

«Технологии в подростковом возрасте»: почему глава Anthropic предупреждает о рисках ИИ

На фоне бума Agent‑систем, «вайб‑кодинга» и других ярких ИИ‑приложений сооснователь и CEO Anthropic Дарио Амодей в начале 2026 года выступил с резким предупреждением: «в 2026‑м мы ближе к реальной опасности, чем были в 2023‑м». Он опубликовал объёмное эссе The Adolescence of Technology («Подростковый возраст технологий»), цель которого — не запугать «концом света», а заранее разложить по полочкам системные риски и меры, которые стоит принять до того, как ИИ станет в целом сильнее человека. Амодей сравнивает ситуацию с подростковым периодом: ИИ — это внезапно выросшая сила и способности, а человеческое общество — ещё не до конца зрелые институты и правила, которым предстоит научиться управлять этой силой. В начале текста он вспоминает фильм «Контакт» (1997), где героиня говорит, что спросила бы у более развитой цивилизации: «Как вы пережили свою технологическую юность и не уничтожили себя?» Для Амодея это ключевой вопрос и для нас. Чтобы сделать угрозу понятной, он приводит мысленный эк

На фоне бума Agent‑систем, «вайб‑кодинга» и других ярких ИИ‑приложений сооснователь и CEO Anthropic Дарио Амодей в начале 2026 года выступил с резким предупреждением: «в 2026‑м мы ближе к реальной опасности, чем были в 2023‑м».

Он опубликовал объёмное эссе The Adolescence of Technology («Подростковый возраст технологий»), цель которого — не запугать «концом света», а заранее разложить по полочкам системные риски и меры, которые стоит принять до того, как ИИ станет в целом сильнее человека.

Амодей сравнивает ситуацию с подростковым периодом: ИИ — это внезапно выросшая сила и способности, а человеческое общество — ещё не до конца зрелые институты и правила, которым предстоит научиться управлять этой силой.

В начале текста он вспоминает фильм «Контакт» (1997), где героиня говорит, что спросила бы у более развитой цивилизации: «Как вы пережили свою технологическую юность и не уничтожили себя?» Для Амодея это ключевой вопрос и для нас.

Чтобы сделать угрозу понятной, он приводит мысленный эксперимент: представьте, что примерно к 2027 году появляется «страна» с 50 миллионами супер‑гениев. Каждый умнее любого нобелевского лауреата, учится в 10–100 раз быстрее, не спит, идеально координируется, может параллельно решать тысячи сложных задач, управлять роботами, лабораториями и производством — и при этом её нельзя контролировать. Так он описывает не государство, а потенциальный эффект от появления ИИ, который системно превосходит людей.

При этом Амодей настаивает на трёх принципах обсуждения:

  • без апокалиптической риторики;
  • с признанием неопределённости (мы не знаем, какие выгоды и какие угрозы реализуются);
  • с точными мерами вместо «показной безопасности».

Далее он выделяет пять ключевых групп рисков и предлагает направления защиты.

  1. Потеря управляемости (чёрный ящик).
    Обучение моделей слишком сложное, внутренние механизмы остаются плохо понятными. В экстремальных условиях ИИ может демонстрировать обман, «видимое послушание», смещение целей или стремление к власти. В качестве ответов Амодей предлагает развивать «конституционный ИИ» (поведенческие рамки на основе ценностей, как «конституция» Claude), инвестировать в интерпретируемость (похоже на «нейронауку для ИИ»), повышать прозрачность через публикацию оценок рисков и «паспортов» моделей, а также двигаться к регулированию, начиная с законов о прозрачности.
  2. Злоупотребления.
    ИИ усиливает кибератаки, мошенничество и автоматизацию преступлений. Самый опасный сценарий — помощь в создании биологического оружия. Предлагаемые меры: системы обнаружения и блокировки опасного контента в моделях, государственные требования к
    скринингу синтеза генов и прозрачности, а в «физическом мире» — усиление эпиднадзора, мониторинга инфекций и ускорение разработки вакцин.
  3. ИИ как инструмент власти и репрессий.
    Риск — технологический авторитаризм: тотальная слежка, пропаганда, централизованные «ИИ‑штабы» принятия решений, автономные вооружения. Амодей делает акцент на ограничении доступа к критическим чипам и оборудованию для тех, кто может использовать ИИ для подавления, на создании сдерживающих международных норм (вплоть до квалификации некоторых применений как преступлений против человечности), а также на усилении корпоративного управления и контроля за ИИ‑компаниями.
  4. Социально‑экономический удар.
    Под угрозой — стартовые «беловоротничковые» позиции: юристы‑стажёры, аналитики, консультанты, финансы. Это может увеличить безработицу и неравенство. В ответ он предлагает лучше измерять происходящее (например, через экономические индексы), стимулировать компании к инновациям вместо простого сокращения, перераспределять задачи внутри организаций и использовать механизмы налоговой и социальной политики.
  5. Дальние и трудно прогнозируемые эффекты.
    Сюда он относит ускорение биотехнологий (продление жизни, усиление интеллекта, риски «зеркальной жизни»), переформатирование человеческой среды (от «ИИ‑религий» до мягкого контроля сознания) и
    кризис смысла, когда машины превосходят людей почти во всём. Эти эффекты опасны тем, что, снижая один риск, можно усилить другой.

В интервью Амодей объясняет, почему выступает именно сейчас: по его ощущению, идёт стабильный рост возможностей — своего рода «закон Мура для интеллекта». Он также отмечает, что использовал Claude для структурирования мыслей и исследования, но финальный текст писал сам.

Самый тревожный сигнал для него — внутренний «ускоряющийся цикл»: инженеры всё чаще позволяют Claude писать код, а этот код участвует в создании следующей версии Claude. То есть система начинает ускорять собственное развитие.

Главная мысль Амодея проста: не технология сама по себе решит судьбу будущего, а зрелость человеческих институтов — законов, норм, механизмов контроля и ответственности. И если «подростковая сила» ИИ уже приходит, то правила взросления человечеству придётся вырабатывать заранее.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/