Найти в Дзене
Дьяков Александр

Магия или математика? Как на самом деле «думают» нейросети вроде ChatGPT?

Прямо сейчас со всех экранов и новостных лент на нас смотрят имена: ChatGPT, Claude, Gemini. Их преподносят как оракулов цифровой эры, которые становятся «умнее» с каждым днем. Но за громкими заголовками скрывается куда более прозаичный и от того не менее гениальный механизм. Забудьте о сознании, логике или понимании. Принцип работы всех этих Больших языковых моделей (LLM) сводится к одной-единственной задаче: предсказать следующую букву. Да, вы не ослышались. Всё, что вы видите на экране — это результат молниеносной игры в «угадайку». Модель дробит текст на мелкие фрагменты — токены (это могут быть слоги, части слов или целые короткие слова). И затем, несколько сотен раз в секунду, она отвечает на единственный вопрос: «Какие символы пользователь ожидает увидеть после предыдущих?» Именно этим, а ничем иным, она и «занимается». Это не мышление — это статистическое прогнозирование в гигантских масштабах. Почему же тогда она так часто ошибается? Именно из-за этого принципа. Попросите её и

Прямо сейчас со всех экранов и новостных лент на нас смотрят имена: ChatGPT, Claude, Gemini. Их преподносят как оракулов цифровой эры, которые становятся «умнее» с каждым днем. Но за громкими заголовками скрывается куда более прозаичный и от того не менее гениальный механизм.

Забудьте о сознании, логике или понимании. Принцип работы всех этих Больших языковых моделей (LLM) сводится к одной-единственной задаче: предсказать следующую букву.

Да, вы не ослышались. Всё, что вы видите на экране — это результат молниеносной игры в «угадайку». Модель дробит текст на мелкие фрагменты — токены (это могут быть слоги, части слов или целые короткие слова). И затем, несколько сотен раз в секунду, она отвечает на единственный вопрос: «Какие символы пользователь ожидает увидеть после предыдущих?»

Именно этим, а ничем иным, она и «занимается». Это не мышление — это статистическое прогнозирование в гигантских масштабах.

Почему же тогда она так часто ошибается?

Именно из-за этого принципа. Попросите её исправить мелкую ошибку в своём же ответе, и она не «поймёт» суть правки. Она просто начнёт заново предсказывать текст, исходя из нового ввода, что может каскадно усилить первоначальную ошибку и привести к полной бессмыслице.

А как же «рассуждения»? Это же выглядит как мысль!

Вот здесь — самый интересный трюк. Появились так называемые Reasoning-модели, которые демонстрируют «цепочку рассуждений» (Chain-of-Thought). Выглядит это сногсшибательно: нейросеть выводит пошаговые умозаключения, словно решая задачу в уме. Возникает тот самый эффект «Вау! Она и правда думает!».

Но нет.

Эта «цепочка» — всё то же самое предсказание следующих токенов. Просто её «обучили» не сразу выдавать ответ, а имитировать процесс человеческих размышлений, последовательно перепроверяя промежуточные шаги. Это не доказательство наличия сознания, а свидетельство невероятной сложности шаблонов, которые модель научилась распознавать и воспроизводить.

Вывод? Цените свой разум!

На данном этапе нейросети — это невероятно мощные, но при этом по-своему «тупые» инструменты. Они гениальные статистические машины, лишённые всякого понимания сути.

Поэтому финальный вывод прост и ясен: Дамы и господа, продолжаем думать своей головой! А искусственный интеллект — это наш гениальный, но бездумный помощник, который ждёт чётких инструкций и нашей мудрости, чтобы направить его силу в нужное русло.

Используйте его как супер-мощный автодополнение, а не как оракула с абсолютной истиной.