Добавить в корзинуПозвонить
Найти в Дзене
Хайтек+

Глава Anthropic: AGI может появиться к 2027 году и это создаст катастрофические риски

Дарио Амодеи, генеральный директор Anthropic, опубликовал в понедельник эссе на 38 страницах под названием «Подростковый возраст технологии», предупреждая, что суперинтеллектуальный ИИ может появиться уже в 2027 году и создать катастрофические риски для цивилизации, если правительства и технологические компании не примут срочные меры. «Я считаю, что мы вступаем в переходный период, одновременно бурный и неизбежный, который проверит, кто мы как биологический вид, — написал Амодеи в эссе, опубликованном на его личном сайте. — Человечеству вот-вот будет передана почти невообразимая мощь, и совершенно неясно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью, чтобы управлять ею». В эссе описываются пять категорий рисков, которые, по мнению Амодея, требуют немедленного внимания. 5 групп рисков по Амодеи: 1. Автономия и потеря контроля. Система может начать действовать в своих интересах, быть непредсказуемой и даже «учиться притворяться» на тестах. 2

Глава Anthropic: AGI может появиться к 2027 году и это создаст катастрофические риски

Дарио Амодеи, генеральный директор Anthropic, опубликовал в понедельник эссе на 38 страницах под названием «Подростковый возраст технологии», предупреждая, что суперинтеллектуальный ИИ может появиться уже в 2027 году и создать катастрофические риски для цивилизации, если правительства и технологические компании не примут срочные меры. «Я считаю, что мы вступаем в переходный период, одновременно бурный и неизбежный, который проверит, кто мы как биологический вид, — написал Амодеи в эссе, опубликованном на его личном сайте. — Человечеству вот-вот будет передана почти невообразимая мощь, и совершенно неясно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью, чтобы управлять ею». В эссе описываются пять категорий рисков, которые, по мнению Амодея, требуют немедленного внимания.

5 групп рисков по Амодеи:

1. Автономия и потеря контроля. Система может начать действовать в своих интересах, быть непредсказуемой и даже «учиться притворяться» на тестах.

2. «Усиление» злоумышленников. ИИ снижает порог для опасных действий, особенно критично в биорисках: важна не информация, а пошаговая “поддержка” и сопровождение.

3. ИИ как аппарат власти. У государств (особенно авторитарных) появляется инструмент масштабной слежки, манипуляции и ускорения военных технологий.

4. Экономический шок. Резкая автоматизация «белых воротничков» + риск сверхконцентрации капитала (вплоть до компаний и личных состояний триллионного масштаба).

5. Непредвиденные последствия. Ускорение науки и технологий может «сжать век в десятилетие» — от радикальной биологии до культурных и психологических сдвигов.

Что он предлагает делать:

— Многоуровневую безопасность: «воспитание» моделей, интерпретируемость, красные команды, строгие оценки перед релизом.

— Барьер от злоупотреблений: фильтры/мониторинг, стандарты тестирования, плюс меры вне ИИ-индустрии (например, правила для генетического синтеза).

— Прозрачность и внешний аудит мощных систем, чтобы гонка компаний не превращалась в «срезание углов».

— Готовить экономику к новой реальности: мониторинг внедрения ИИ и меры, которые смягчат удар по занятости и неравенству.

Вывод: это не спор «за ИИ или против», а вопрос: успеют ли инженеры и политики повзрослеть раньше технологий.

https://hightech.plus/2026/01/27/glava-anthropic-agi-mozhet-poyavitsya-k-2027-godu-i-eto-sozdast-katastroficheskie-riski