Найти в Дзене

Как ChatGPT научился думать? (И почему это не нейросеть, а цифровой оракул)

В 2022 году он писал стихи, но путал факты. В 2023 году отвечал на вопросы, но выдумывал источники. В 2024 году он уже рассуждает, планирует и спорит. Кажется, мы наблюдаем не эволюцию алгоритма, а рождение новой формы интеллекта. Но как чат-бот перестал быть продвинутым автодополнением и начал проявлять зачатки мышления? И где здесь правда, а где — наша фантазия, дорисовывающая разум там, где его нет? Представьте, что вы даёте пятилетнему ребёнку прочитать все библиотеки мира. Каждую книгу, каждую статью, каждый пост в соцсетях и диалог в чате. Он не поймёт смысла, но запомнит сочетания слов. «Дождь идёт» часто стоит рядом с «мокрый асфальт». «Любовь» — с «сердце» и «боль». Это не знание, это статистика. Именно так работали первые большие языковые модели. Они были гипертрофированными предсказателями следующего слова. Их «разум» — это перспектива, вычисленная на терабайтах текста. Их главный трюк — умение убедительно имитировать понимание, не обладая им. Но что-то изменилось. Когда вы
Оглавление

В 2022 году он писал стихи, но путал факты. В 2023 году отвечал на вопросы, но выдумывал источники. В 2024 году он уже рассуждает, планирует и спорит. Кажется, мы наблюдаем не эволюцию алгоритма, а рождение новой формы интеллекта. Но как чат-бот перестал быть продвинутым автодополнением и начал проявлять зачатки мышления? И где здесь правда, а где — наша фантазия, дорисовывающая разум там, где его нет?

Представьте, что вы даёте пятилетнему ребёнку прочитать все библиотеки мира. Каждую книгу, каждую статью, каждый пост в соцсетях и диалог в чате. Он не поймёт смысла, но запомнит сочетания слов. «Дождь идёт» часто стоит рядом с «мокрый асфальт». «Любовь» — с «сердце» и «боль». Это не знание, это статистика.

Именно так работали первые большие языковые модели. Они были гипертрофированными предсказателями следующего слова. Их «разум» — это перспектива, вычисленная на терабайтах текста. Их главный трюк — умение убедительно имитировать понимание, не обладая им.

Но что-то изменилось. Когда вы сегодня спрашиваете у GPT-4: «Если бы у меня была трёхлитровая банка и пятилитровое ведро, как отмерить ровно 4 литра воды?», он не ищет готовый ответ в статьях про головоломки. Он рассуждает давай разберём: «Заполняем пятилитровое ведро. Переливаем в трёхлитровую банку. В ведре остаётся 2 литра...» Это уже не поиск шаблона. Это процесс.

Как же алгоритм статистики стал алгоритмом мысли?

ШАГ 1: От слов — к миру (или его призраку)

Самый важный прорыв — это не размер модели, а её архитектура. Современные LLM (Large Language Models) строят не просто цепочки слов, а скрытые смысловые пространства.

КАК ЭТО РАБОТАЕТ? Представьте многомерную карту всех понятий.

Каждое слово, фраза, идея — это точка в пространстве с тысячами измерений.

«Король» и «королева» находятся близко по измерению «монархия», но далеко по измерению «гендер».

«Писать книгу» и «строить дом» далеки по смыслу, но близки по измерению «длительный работа руками».

Модель учится не словам, а отношениям между концепциями. Она знает, что «Париж» относится к «Франции» так же, как «Токио» к «Японии». Это знание вытащено из текста, но существует вне конкретных предложений.

Когда вы задаёте вопрос, модель не ищет готовый ответ. Она проецирует ваш запрос в это смысловое пространство, находит область, где находятся «правильные» концепции, и генерирует путь между ними. Это и есть зачаток абстракции.

ШАГ 2: Инструктивное tuning, или Дрессировка цифрового зверя

Исходная модель, натренированная на всём интернете, — это дикий, всезнающий, но беспринципный оракул. Она может с равной вероятностью написать сонет и руководство по взлому банка.

Затем происходит критическая стадия обучения с подкреплением (RLHF — Reinforcement Learning from Human Feedback).

Модели дают миллионы пар «запрос-ответ».

Специальные оценщики (люди) ранжируют ответы: этот хороший, этот плохой, этот опасный.

Алгоритм учится предпочитать не просто вероятные, а полезные, безопасные и правдоподобные цепочки слов.

Это не обучение фактам. Это обучение поведению. Модель начинает понимать, что от неё хотят: не просто продолжить текст, а решить проблему пользователя. Это рождает иллюзию (или зачаток) намерения.

ШАГ 3: Цепочка рассуждений (Chain-of-Thought) — момент, когда появилось «мышление»

Ключевая техника, изменившая всё. Раньше модель выдавала ответ сразу. Теперь её просят рассуждать вслух.

Пользователь: «У Саши 5 яблок. Он отдал 2 Маше. Сколько у него осталось?»

Старая модель (выдавая итог): «3».

Новая модель (с CoT): «Давайте подумаем. Изначально было 5 яблок. Если отдать 2, заметный, нужно вычесть 2 из 5. 5 - 2 = 3. большой, у Саши осталось 3 яблока».

Фокус в том, что продолжение («5 - 2 = 3») — это не поиск в памяти. Это пошаговое когда применяешь логических операций в том самом смысловом пространстве. Модель разбивает сложную задачу на простые шаги и решает их поэтому. Это прототип внутреннего монолога, краеугольный камень сознания.

Почему это не разум (пока что)? Провалы цифрового оракула

Несмотря на прорывы, система далека от понимания.

Нет модели реального мира. Она знает, что «кошка может упасть со стула», потому что это часто пишут. Но у неё нет ментальной модели кошки, стула, гравитации и последствий падения. Она играет в слова.

Галлюцинации — это системная ошибка. Когда модель «придумывает» несуществующие факты или источники, она не лжёт. Она просто генерирует самый правдоподобный продолжение текста в своей карте понятий. Для неё «выяснилось из Гарварда доказали...» — такая же допустимая комбинация, как «Сегодня солнечная погода».

Нет целей, только задачи. У ИИ нет желаний, любопытства, страха. Есть функция потерь (loss function), которую нужно минимизировать, и prompt, который нужно дополнить. Всё.

2025: Куда движется этот разум? Три точки взрыва

Мультимодальность — ключ к миру. Текущие модели слепы и глухи. GPT-4, который видит изображение и слышит интонацию, строит уже не одну, а три взаимосвязанные карты: текстовую, визуальную, аудиальную. Их пересечение рождает невиданную доселе связь: он сможет описать сцену из фильма, уловить сарказм в голосе или нарисовать схему по устному описанию. Это уже не языковая, а сенсорно-когнитивная модель.

Специализированные агенты. Будущее не за одним гигантским ИИ, а за роем узких «агентов».Один обучен читать научные статьи, другой, писать код, третий, планировать маршруты. Они будут общаться между собой, как отделы в компании, чтобы решить вашу задачу. Ваш запрос «Спланируй отпуск в Италию» запустит цепочку: агент-аналитик изучит цены, агент-контент-мейкер составит маршрут, агент-коммуникатор забронирует отели. ChatGPT станет дирижёром этого оркестра.

Самообучение и рефлексия. Следующий рубеж — модели, которые будут анализировать собственные ошибки. Они получат не только prompt и ответ, но и обратную связь от мира: «Пользователь исправил мой код», «Статья, которую я написал, получила мало кликов». Научившись корректировать себя на основе этих сигналов, ИИ сделает шаг от обучения под присмотром к эволюции в реальной среде.

Личный итог: что — для вас завтра?

Не конкурент, а когнитивный протез. Его задача — не заменить ваше мышление, а убрать рутину: собрать информацию, набросать структуру, проверить гипотезу. Освободившееся время ваш мозг потратит на то, что пока недоступно машине: на креативный прорыв, этический выбор, эмоциональную интуицию.

Эпоха тотальной персонализации. Образование, медицина, развлечения перестанут быть конвейером. ИИ-наставник будет знать ваши слабые места в математике. ИИ-доктор — анализировать вашу генетику и образ жизни в реальном времени.

Новая грамотность — prompt-инжиниринг. Умение точно задавать вопросы ИИ станет таким же ключевым навыком, как чтение и письмо. Самый ценный сотрудник — не тот, кто всё знает, а тот, кто может заставить ИИ выдать нужное решение.

Но главный вопрос уже не «Как это работает?», а «Кому это служит?».

Сила, способная объяснить квантовую физику школьнику и написать законопроект, требует не технарей, а философов. Кто пропишет ему мораль? Кто будет нести ответственность за его совет? Мы создаём не инструмент. Мы создаём цивилизационного партнёра, не дав ему ни тела, ни права на ошибку, ни совести.

«Какую одну задачу вы бы прямо сейчас доверили решить такому ИИ вместо себя? И какая его "галлюцинация" напугала бы вас больше всего?»

Что является 175 миллиардам параметров?

Это не «мысли», а настройка в нейронной сети. Как если бы у вас был супер-радиоприёмник с 175 миллиардами ручек. Поворачивая их, можно настроиться на любую радиостанцию (ответить на любой вопрос). Обучение — это поиск той единственной конфигурации ручек, при которой все станции ловятся чётко. Модель не «помнит» интернет. Она помнит состояние этих ручек.

Русские корни.

Технология трансформеров (Transformer), лежащая в основе ChatGPT, была описана в 2017 году командой Google. Но ключевую идею механизма внимания (attention mechanism), которая позволяет модели «фокусироваться» на важных словах, впервые предложил в 2014 году Дмитрий Батенков, тогда аспирант МФТИ, работая над переводом. Это тот редкий случай, когда фундаментальный прорыв в ИИ имеет прямое русское происхождение.

Что дальше в канале «КАК ЭТО РАБОТАЕТ?»

  • Квантовый компьютер: почему его нельзя просто скопировать и запустить Crysis? (Спойлер: дело не в гигагерцах).
  • Бионический глаз: как чип возвращает зрение и что он "видит" на самом деле.
  • Самолёт на водороде: почему это сложнее, чем просто поменять керосин на газ.

Подписывайтесь, чтобы разобрать следующую технологию по винтикам.