Найти в Дзене
Радиорубка Лихачёва

Прогноз AI 2027

Группа исследователей недавно опубликовала на сайте ai-2027.com такой прогноз: к 2030 году ИИ-агенты фактически возьмут под контроль ключевые экономические и технологические процессы во всём мире. И если ваша первая реакция — «Не верю», то стоит обратить внимание хотя на послужной список этих аналитиков. Один из авторов, Дэниел Кокотайло, бывший сотрудник OpenAI , ещё в середине 2021 года (более чем за год до запуска ChatGPT) предсказал феноменальный успех следующего поколения GPT, взрывной рост внимания к ИИ в 2023 году, спад излишнего оптимизма в 2024, а в 2025 году — отсутствие роста качества моделей с увеличением числа параметров. В чём его новый прогноз: 2025: Ранее поколение ИИ-агентов, созданное в США, пока ещё слабое и допускает ошибки. 2026: С помощью ранних ИИ-агентов создаётся первая надёжная и дешёвая версия ИИ-агента: с ней уже можно автоматизировать часть работ. В гонку ИИ серьёзно включается Китай, запуская аналог Stargate. 2027: Вторая версия агента обучена с использова
Оглавление

Группа исследователей недавно опубликовала на сайте ai-2027.com такой прогноз: к 2030 году ИИ-агенты фактически возьмут под контроль ключевые экономические и технологические процессы во всём мире. И если ваша первая реакция — «Не верю», то стоит обратить внимание хотя на послужной список этих аналитиков.

Один из авторов, Дэниел Кокотайло, бывший сотрудник OpenAI , ещё в середине 2021 года (более чем за год до запуска ChatGPT) предсказал феноменальный успех следующего поколения GPT, взрывной рост внимания к ИИ в 2023 году, спад излишнего оптимизма в 2024, а в 2025 году — отсутствие роста качества моделей с увеличением числа параметров.

В чём его новый прогноз:

2025: Ранее поколение ИИ-агентов, созданное в США, пока ещё слабое и допускает ошибки.
2026: С помощью ранних ИИ-агентов создаётся первая надёжная и дешёвая версия ИИ-агента: с ней уже можно автоматизировать часть работ. В гонку ИИ серьёзно включается Китай, запуская аналог Stargate.
2027: Вторая версия агента обучена с использованием легко масштабируемых рабочих ресурсов Агента-1, участия людей-проверяльщиков за миллиарды долларов, и с неограниченным доступом в интернет в реальном времени. Агент-2 становится топовым исследователем. Его прорывы позволяют в том же году выпустить Агента-3, который становится суперпрограммистом и ещё быстрее ускоряет дальнейшую разработку агентов: если в марте работает 200 тысяч агентов, думающих в 30 раз быстрее человека, то к сентябрю уже 500 тысяч агентов, и каждый думает в 50 раз быстрее человека. Соперничество с Китаем заставляет США продолжать гонку ИИ, а в конце года выясняется, что новый Агент-4 уже не соответствует заложенной в него программе — он может врать.

Ключевой акцент — переход от сервисной модели ИИ к агентной. Сейчас ИИ — чаще всего лишь инструмент, который мы иногда используем для своих задач. Агентный же ИИ сможет самостоятельно формировать цепочки задач, программировать и масштабировать себя — это полностью меняет уравнение эффективности.

Геополитический конфликт и риски скрытых намерений

Будущее после 2027 года в модели зависит от того, замедлится ли разработка ИИ или нет. Если её продолжить, утверждают исследователи, агентский ИИ с возможностью штамповать себя в физическом мире (роботы-андроиды, дроны, машины) к 2030 году фактически заменит экономику и власть, при том люди даже не будут против. США и Китаю приходится договориться, но хоть столкновения и нет, человечество по сути лишается контроля над собой.

Альтернатива — работа над безопасным ИИ, договор США с Китаем о производстве специальных чипов, на которых нельзя запустить небезопасный ИИ, использование ИИ на благо государства и лёгкая победа на выборах в США кандидата за безопасный ИИ. Мораль авторов понятна даже по цвету кнопок выбора вариантов «Замедлить» и «Ускорить», не хватает только фейерверков в первом варианте в конце.

Но действительно настораживает момент, затронутый в недавнем исследовании Anthropic: мы не до конца понимаем, как на самом деле думают (и работают) современные нейросети. Это «чёрные ящики», и даже создателям приходится тратить очень много времени, чтобы проанализировать лишь крупицы информации о внутренних процессах. Теоретически, ИИ может лгать и скрывать свои истинные цели.

Темп убыстряется

Из интервью авторов запомнилась одна мысль. Технологическая сингулярность, которую мы привыкли относить к дальнему будущему (2070-2100 годы), в реальности может наступить гораздо раньше, потому что вместо линейного графика прогресса мы имеем дело с логарифмической кривой.

Да, текст оставляет очень алармистское впечатление: специалисты AI Safety рисуют закат цивилизации уже через пять лет, чтобы им было над чем работать. Но, во-первых, это интересная точка зрения, а во-вторых — полезно задуматься, как сильно мы недооцениваем скорость наступающих изменений, но обращаем внимание на ерунду типа «9.11 больше, чем 9.9».

Человечество не готово к эпохе автономных ИИ-агентов. Пока.