Найти в Дзене
Павел Грозный

Почему у ***GPT нет сознания и никогда не будет

Оставь надежду, всяк с ним говорящий. Не буду вдаваться в психологические дебри с определением сознания и поисками чего-то, соответствующего такому определению у искусственной системы. Здесь стоит быть проще — нужно сравнивать с человеком. Прежде чем браться за сравнение, неплохо было бы понять, как работает ***GPT. Объясню так, как будет понятно любому, даже самому далёкому от техники человеку. Всё начинается с функции. Уж они то должны быть знакомы любому, закончившему хотя бы девять классов. Есть какой-то вход, обычно обозначаемый x, и есть выход, зависящий от входа и обычно обозначаемый y. Функция это некий набор действий, который превращает х в у. Теперь посмотрим на ***GPT, которые являются большими языковыми моделями. Что это значит? Только то, что они работают с текстом, с большими текстами… с очень большими текстами. Как работает такая модель? Так же, как и любая другая система искусственного интеллекта — аппроксимирует функцию, иными словами пытается подобрать в процессе о

Оставь надежду, всяк с ним говорящий.

Не буду вдаваться в психологические дебри с определением сознания и поисками чего-то, соответствующего такому определению у искусственной системы. Здесь стоит быть проще — нужно сравнивать с человеком.

Прежде чем браться за сравнение, неплохо было бы понять, как работает ***GPT. Объясню так, как будет понятно любому, даже самому далёкому от техники человеку.

Всё начинается с функции. Уж они то должны быть знакомы любому, закончившему хотя бы девять классов. Есть какой-то вход, обычно обозначаемый x, и есть выход, зависящий от входа и обычно обозначаемый y. Функция это некий набор действий, который превращает х в у.

Теперь посмотрим на ***GPT, которые являются большими языковыми моделями. Что это значит? Только то, что они работают с текстом, с большими текстами… с очень большими текстами. Как работает такая модель? Так же, как и любая другая система искусственного интеллекта — аппроксимирует функцию, иными словами пытается подобрать в процессе обучения такие внутренние параметры, которые бы по заданному входу х выдавали бы требуемое значение у. В случае языковых моделей х это слово или набор слов (фраза), а у это часть слова или слово целиком. То есть эта модель «находит» параметры функции, которая выдает следующее слово для заданной фразы. Слова переводятся в некое подобие чисел и модель в итоге оперирует с многомерными величинами, но суть остаётся той же.

Почему такая модель является и называется большой? Да просто потому, что «функций», которые она должна «настроить» для себя, очень много. Много текстов, много разных вариантов — много «функций». Может ли модель подобрать параметры функции так, чтобы всегда точно отображать вход в результат? Можно, но лишь для простых функций. Для сложных функций, каковыми являются и тексты, всегда будет некоторая ошибка. Внутри этой ошибки могут оказаться сразу несколько близких по форме функций, поэтому модель по одному и тому же входу может выдавать похожие, но всё же отличающиеся результаты.

Как работает генерация текста? Модель получает на вход фразу и генерирует следующий «токен». Это может быть слово, но чаще это часть слова. Далее новая получившаяся фраза, образованная из старой с добавлением первого результата, вновь подается на вход модели, которая выдаёт следующий «токен» и так далее. Программная обёртка вокруг модели отслеживает длину сгенерированной последовательности и останавливается, когда достигнут указанный предел (обычно 128 или 256 символов). Вот и вся работа модели.

А теперь самое интересное — сравнение с человеком. Как человек отвечает на вопрос? Задумайтесь. Вы сперва вспоминаете, если нужно, относящиеся к вопросу факты. Затем вы определяете, как «выглядит» ответ на вопрос. И после всего этого вы формулируете фразу или набор фраз, которые могут привести спрашивающего к пониманию ответа. Человек не выдаёт последовательно слова или части слов, человек обозначает цель (ответ), выстраивает дорожку от начала (вопроса) к цели, и нанизывает на эту дорожку подходящие по смыслу и по грамматике слова. Таким образом человек действует с конца, потому что он объясняет смысл, а искусственная модель генерирует некий выход, стремящийся быть похожим на правду, чтобы попасть в «цель» с некоторой допустимой ошибкой. Ну и где здесь сознание? Справочник — да, возможно. Поисковая система поверх большой базы знаний — и это возможно. Сознание? Понимание смысла? Нет. Лишь искусная имитация.