Найти в Дзене

Почему языковые модели — это не ИИ: нейронаука против хайпа

«Мы теперь точно знаем, как создать AGI», — заявляет Сэм Альтман. «Разработка сверхинтеллекта уже на горизонте», — вторит ему Марк Цукерберг. Руководители крупнейших ИИ-компаний наперебой обещают скорое появление искусственного разума, способного превзойти человеческий. Но что, если весь этот хайп построен на фундаментальной ошибке? Языковые модели — это модели языка. Точка. ChatGPT, Claude, Gemini и другие популярные чат-боты объединяет одно: все они основаны на архитектуре больших языковых моделей (LLM). В основе их работы — сбор колоссальных объёмов текстовых данных, поиск статистических корреляций между словами (точнее, фрагментами слов — токенами) и предсказание наиболее вероятного продолжения текста на основе входного запроса. При всей кажущейся «магии» генеративного ИИ это именно модели языка — ни больше ни меньше. И здесь возникает проблема: современная нейронаука утверждает, что человеческое мышление в значительной степени независимо от языка. У нас мало оснований полагать, ч
Оглавление

«Мы теперь точно знаем, как создать AGI», — заявляет Сэм Альтман. «Разработка сверхинтеллекта уже на горизонте», — вторит ему Марк Цукерберг. Руководители крупнейших ИИ-компаний наперебой обещают скорое появление искусственного разума, способного превзойти человеческий. Но что, если весь этот хайп построен на фундаментальной ошибке?

Языковые модели — это модели языка. Точка.

ChatGPT, Claude, Gemini и другие популярные чат-боты объединяет одно: все они основаны на архитектуре больших языковых моделей (LLM). В основе их работы — сбор колоссальных объёмов текстовых данных, поиск статистических корреляций между словами (точнее, фрагментами слов — токенами) и предсказание наиболее вероятного продолжения текста на основе входного запроса.

При всей кажущейся «магии» генеративного ИИ это именно модели языка — ни больше ни меньше.

И здесь возникает проблема: современная нейронаука утверждает, что человеческое мышление в значительной степени независимо от языка. У нас мало оснований полагать, что сколь угодно продвинутое моделирование речи приведёт к созданию интеллекта, сопоставимого с человеческим.

-2

Что говорит наука о мозге

Функциональная магнитно-резонансная томография (фМРТ) показывает, что при решении математических задач, понимании чужих мыслей или планировании действий активируются области мозга, отличные от языковых центров.

Люди используют язык для передачи результатов мышления: выводов, абстракций, обобщений. Язык помогает нам думать, но он не тождественен мысли.

Показательный мысленный эксперимент: если человек теряет способность говорить (например, при афазии), он всё равно может рассуждать, испытывать эмоции и ориентироваться в мире — его когнитивный потенциал сохраняется. Но если языковую модель лишить текста, она превращается в пустоту — ей буквально не с чем работать.

Когнитивный учёный Сесилия Хейес описывает язык как «когнитивный гаджет» — инструмент, позволяющий людям эффективно учиться друг у друга и передавать знания между поколениями. Но гаджет — это не сам интеллект.

-3

Почему масштабирование не спасёт

Нарратив ИИ-индустрии прост: соберём ещё больше данных, добавим ещё больше видеокарт Nvidia, улучшим статистические корреляции — и получим AGI. Масштабирование якобы решит всё.

Но эта теория ошибочна с научной точки зрения. Языковые модели имитируют коммуникативную функцию языка, но не воспроизводят когнитивные процессы мышления и рассуждения — сколько бы дата-центров мы ни построили.

Интересно, что скептицизм растёт и внутри самого ИИ-сообщества. Исследователи всё чаще говорят о необходимости «моделей мира» (world models) — систем, способных строить представления о физической реальности, обладающих памятью и навыками планирования.

Проблема «общего интеллекта»

Некоторые эксперты предлагают рассматривать интеллект как многогранную структуру из отдельных когнитивных способностей. Это шаг вперёд по сравнению с наивной верой в бесконечное наращивание обучающих данных.

Однако вопросов больше, чем ответов. Можно ли просто сложить отдельные способности и получить «общий интеллект»? Как определить вес каждой из них? Что вообще мы имеем в виду под «знанием» или «скоростью» мышления? Единого понимания, как двигаться к AGI, в научном сообществе нет.

-4

Почему ИИ не совершит научную революцию

Даже если создать систему, охватывающую множество когнитивных доменов, она сможет лишь предсказывать и воспроизводить ответы, которые дал бы «типичный умный человек». Эти предсказания будут основаны на агрегации и моделировании уже существующих данных.

Философ науки Томас Кун в работе «Структура научных революций» показал, что парадигмальные сдвиги происходят не через накопление экспериментов, а когда появляются новые вопросы и концепции, ломающие устоявшиеся рамки.

У нынешних ИИ-систем нет причин «разочаровываться» во входных данных. Они не способны усомниться в том, чему их научили, — а значит, не могут инициировать подлинные научные или творческие прорывы. В лучшем случае такая система станет «репозиторием здравого смысла», способным интересно комбинировать существующие знания. Но это потолок.

От редакции

Эта статья важна по нескольким причинам.

Тренд на переосмысление. Мы наблюдаем начало отрезвления после первой волны хайпа вокруг генеративного ИИ. Всё больше исследователей и инвесторов понимают: ChatGPT — это мощный инструмент, но не прообраз «цифрового разума». Ожидайте, что в ближайшие год-два нарратив в медиа сместится от «AGI через 5 лет» к более реалистичным оценкам.

Практический вывод для бизнеса. LLM отлично справляются с задачами, где нужна работа с текстом: генерация контента, перевод, суммаризация, классификация. Но не стоит ждать от них стратегического мышления, настоящей аналитики или креативных прорывов. Используйте их как инструменты автоматизации рутины, а не как замену экспертизе.

Что смотреть дальше. Следите за развитием «моделей мира» (world models) и мультимодальных систем, объединяющих текст, изображения, звук и данные о физическом мире. Возможно, именно там произойдут следующие значимые прорывы — если они вообще возможны в рамках текущих подходов.

Для скептиков генеративного ИИ эта статья — хороший источник аргументов в спорах с технооптимистами. Для энтузиастов — повод задуматься о реальных границах технологии и не переоценивать её возможности.