Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

🤖 AGI не скоро: почему общий искусственный интеллект задерживается в пути

В последнее время мир охватила настоящая лихорадка вокруг искусственного интеллекта. Кажется, каждую неделю мы видим новые невероятные достижения LLM-моделей: они пишут тексты, программируют, ведут осмысленные диалоги и даже генерируют изображения. Но означает ли это, что искусственный общий интеллект (AGI) уже почти на пороге? Согласно мнению Dwarkesh Patel — далеко не факт. Почему же, несмотря на впечатляющие успехи современных моделей, мы не так уж близко к AGI? 🛑 Причина первая: неспособность к непрерывному обучению Одно из фундаментальных отличий человеческого интеллекта от сегодняшних моделей AI заключается в способности человека непрерывно учиться. Представьте, что вы изучаете французский язык: каждый день вы запоминаете новые слова, конструкции, выражения. Со временем вы овладеваете им всё лучше и лучше. Ваша способность говорить на французском сегодня — это результат многомесячного (или многолетнего) последовательного обучения. Нынешние LLM (например, GPT-4 или Claude 3) устр
Робот поднимается по ступеням-микросхемам, уходящим в туман, а над ним застыл огромный песочный час — образ долгого, неопределённого пути к настоящему AGI.
Робот поднимается по ступеням-микросхемам, уходящим в туман, а над ним застыл огромный песочный час — образ долгого, неопределённого пути к настоящему AGI.

В последнее время мир охватила настоящая лихорадка вокруг искусственного интеллекта. Кажется, каждую неделю мы видим новые невероятные достижения LLM-моделей: они пишут тексты, программируют, ведут осмысленные диалоги и даже генерируют изображения. Но означает ли это, что искусственный общий интеллект (AGI) уже почти на пороге? Согласно мнению Dwarkesh Patel — далеко не факт.

Почему же, несмотря на впечатляющие успехи современных моделей, мы не так уж близко к AGI?

🛑 Причина первая: неспособность к непрерывному обучению

Одно из фундаментальных отличий человеческого интеллекта от сегодняшних моделей AI заключается в способности человека непрерывно учиться. Представьте, что вы изучаете французский язык: каждый день вы запоминаете новые слова, конструкции, выражения. Со временем вы овладеваете им всё лучше и лучше. Ваша способность говорить на французском сегодня — это результат многомесячного (или многолетнего) последовательного обучения.

Нынешние LLM (например, GPT-4 или Claude 3) устроены иначе. Они обучаются однократно, на огромном объёме данных, и после этого «замораживаются». Они не продолжают совершенствоваться в процессе работы, не запоминают полученный опыт в долгосрочной перспективе.

Таким образом, чтобы LLM совершили качественный скачок и стали ближе к AGI, необходимо решить проблему «lifelong learning» — непрерывного обучения.

🖥️ Причина вторая: ограниченная автоматизация взаимодействия с компьютером

Сегодняшние модели прекрасно работают с текстами, диалогами и некоторыми формами данных. Однако, задачи, требующие полноценного взаимодействия с компьютером, например:

  • 🧾 Подготовка налоговых деклараций
  • 📊 Составление отчётов
  • 📈 Анализ финансовых данных в Excel
  • 🔧 Выполнение многоступенчатых сценариев и скриптов

пока не поддаются полной автоматизации. Основные причины здесь:

  • ❌ Недостаток специализированных обучающих данных для таких узких задач
  • 💾 Ограниченность вычислительных ресурсов, чтобы модели могли быстро и эффективно осваивать подобные задачи

По мнению Пателя, надёжная автоматизация таких рутинных задач, как налоги и сложный документооборот, возможна только к 2028 году — и это оптимистичный прогноз.

🚧 Что мешает решить эти проблемы быстрее?

Сегодняшние модели вроде GPT или Claude создаются и обучаются огромными усилиями и с огромными затратами. Каждое новое поколение требует всё больше вычислительных мощностей и данных. Сейчас мы ещё находимся в эпохе, когда прирост масштабирования моделей и вычислительной мощности идёт достаточно быстро. Однако, по мнению автора, этот процесс замедлится после 2030 года. Тогда прогресс станет зависеть преимущественно от алгоритмических инноваций.

Другими словами, просто увеличить модель в 10 раз уже будет невозможно: разработчикам придётся создавать принципиально новые подходы к обучению, архитектурам нейросетей и оптимизации их работы.

📅 Когда же ожидать прорывов? Прогноз автора статьи

Patel даёт конкретные временные прогнозы относительно ключевых вех:

  • 📌 2028 год: надёжная автоматизация рутинных задач типа подготовки налогов станет реальностью.
  • 📌 2032 год: модели смогут полноценно обучаться в процессе работы и существенно улучшать свои навыки в долгосрочной перспективе (lifelong learning).

Только после того, как будет решена проблема непрерывного обучения, возможен мощный и резкий скачок в развитии искусственного интеллекта, который приблизит нас к AGI.

🔮 Личное мнение: почему не стоит ждать AGI прямо сейчас

На мой взгляд, автор абсолютно прав, указывая на серьёзные технические ограничения современных моделей. Действительно, мы можем восхищаться успехами LLM, но не стоит забывать о том, что они пока очень далеки от универсальности человеческого разума.

Сейчас ИИ-модели — это скорее талантливые, но ограниченные специалисты. Они отлично справляются с узкими задачами, но не способны к гибкой адаптации в долгосрочной перспективе. Именно поэтому AGI — это гораздо более отдалённая перспектива, чем кажется на первый взгляд.

Важно понимать, что продвижение к AGI будет зависеть не от количества вычислительных ресурсов, а от революционных алгоритмических решений. Возможно, некоторые из них появятся уже в ближайшие годы, но скорее всего, реальный общий искусственный интеллект — это задача на ближайшие десятилетия, а не годы.

📚 Полезные ссылки и материалы по теме:

🌌 Заключение очевидно: AGI уже не кажется научной фантастикой, но и не стоит ждать его завтра. Нас ждёт долгий и увлекательный путь, на котором каждый маленький шаг — это огромное достижение для человечества.