Добавить в корзинуПозвонить
Найти в Дзене
NEURO-AI

Stanford зафиксировал разрыв между ИИ и контролем

Stanford Human-Centered AI опубликовал AI Index Report 2026 - ежегодный обзор, который обычно используют как ориентир и журналисты и инвесторы. В этом году главный вывод сформулирован довольно жёстко: развитие ИИ не замедляется, а ускоряется, но системы оценки рисков, стандарты прозрачности и механизмы ответственного внедрения отстают всё сильнее. По данным Stanford HAI, в 2025 году индустрия создала более 90% заметных передовых моделей. На ряде сложных бенчмарков прогресс оказался почти скачкообразным: например, на SWE-bench Verified качество решений выросло примерно с 60% почти до 100% всего за год. Параллельно организационное внедрение ИИ достигло 88%, а генеративные инструменты за три года добрались до 53% потребительского охвата - быстрее, чем персональные компьютеры или интернет на сопоставимом этапе распространения. Но именно на фоне этого ускорения отчёт фиксирует самое тревожное. В разделе Responsible AI говорится, что почти все ведущие разработчики охотно публикуют результаты

Stanford Human-Centered AI опубликовал AI Index Report 2026 - ежегодный обзор, который обычно используют как ориентир и журналисты и инвесторы. В этом году главный вывод сформулирован довольно жёстко: развитие ИИ не замедляется, а ускоряется, но системы оценки рисков, стандарты прозрачности и механизмы ответственного внедрения отстают всё сильнее.

По данным Stanford HAI, в 2025 году индустрия создала более 90% заметных передовых моделей. На ряде сложных бенчмарков прогресс оказался почти скачкообразным: например, на SWE-bench Verified качество решений выросло примерно с 60% почти до 100% всего за год. Параллельно организационное внедрение ИИ достигло 88%, а генеративные инструменты за три года добрались до 53% потребительского охвата - быстрее, чем персональные компьютеры или интернет на сопоставимом этапе распространения.

Но именно на фоне этого ускорения отчёт фиксирует самое тревожное. В разделе Responsible AI говорится, что почти все ведущие разработчики охотно публикуют результаты по «силовым» метрикам - таким как способность решать задачи, писать код и рассуждать, однако данные по безопасности, справедливости и устойчивости моделей раскрываются намного хуже. Число задокументированных ИИ-инцидентов выросло до 362 в 2025 году против 233 годом ранее. Одновременно средний балл компаний в индексе прозрачности фундаментальных моделей после роста в 2024 году снова снизился - с 58 до 40.

Отдельно Stanford обращает внимание на то, что сами модели по-прежнему уязвимы в ситуациях, где нужна аккуратная работа с истиной, убеждениями пользователя и ложными утверждениями. В новом бенчмарке разброс галлюцинаций у 26 ведущих моделей составил от 22% до 94%. При этом улучшение одной «ответственной» характеристики нередко ухудшает другую: попытки повысить безопасность, приватность или справедливость могут снижать точность, а эти компромиссы пока изучены слабо.

В экономической части отчёта картина не менее контрастная. США сохраняют лидерство по частным инвестициям в ИИ: в 2025 году они достигли $285,9 млрд, что более чем в 23 раза превышает показатель Китая по частным сделкам. Но одновременно Stanford фиксирует резкое падение притока ИИ-специалистов в США: число исследователей и разработчиков, переезжающих туда, с 2017 года сократилось на 89%, а только за последний год - ещё на 80%. Иначе говоря, капитал и инфраструктура концентрируются, а глобальная борьба за кадры становится жёстче.

Есть и ещё один важный слой - инфраструктурный. Глобальные вычислительные мощности для ИИ, по оценке отчёта, с 2022 года росли в среднем в 3,3 раза ежегодно и достигли 17,1 млн H100-эквивалентов. Одновременно росли и издержки такого рывка: энергомощность ИИ-дата-центров поднялась до 29,6 ГВт, а экологический след обучения крупных моделей продолжает увеличиваться. Для отрасли это неприятное напоминание: гонка моделей упирается уже не только в алгоритмы, но и в электричество, воду, цепочки поставок и доступ к чипам.

Не менее показателен и срез общественного мнения. Stanford пишет, что эксперты и широкая публика всё сильнее расходятся в оценке последствий ИИ. Так, 73% экспертов считают, что ИИ позитивно повлияет на работу людей, тогда как среди обычных респондентов так думают лишь 23%. В США только 31% опрошенных доверяют собственному правительству в вопросе ответственного регулирования ИИ - это самый низкий показатель среди стран, вошедших в опрос. При этом по всему миру Евросоюзу в среднем доверяют как регулятору ИИ больше, чем США или Китаю.

Внутренний вывод Stanford в этом году звучит почти как предупреждение: возможности ИИ растут быстро, а способность общества их измерять и сдерживать - заметно медленнее.

Для индустрии это, пожалуй, главный сигнал отчёта. AI Index 2026 не утверждает, что развитие ИИ нужно тормозить любой ценой. Но он довольно ясно показывает: рынок уже вышел из стадии, где достаточно восхищаться качеством моделей. Теперь ключевой вопрос в другом - успеют ли стандарты, аудит, прозрачность и управление рисками догнать скорость, с которой ИИ входит в повседневную жизнь, образование, медицину, корпоративные процессы и государственную политику.