ИИ в 2025 году стал одновременно мощнее и сложнее в понимании. Сооснователь OpenAI Андрей Карпати выделил ключевые сдвиги — от новых методов обучения до появления ИИ-агентов и визуальных интерфейсов
Андрей Карпати (Andrej Karpathy) — исследователь в области искусственного интеллекта, специализирующийся на машинном обучении и компьютерном зрении. Известен как сооснователь OpenAI и бывший директор по ИИ в Tesla, где руководил разработкой автопилота.
19 декабря 2025 года бывший сооснователь OpenAI Андрей Карпати опубликовал подробный обзор ключевых изменений в развитии больших языковых моделей (LLM) за последний год. Речь идет не о новых версиях чат-ботов, а о более глубоких сдвигах: как обучаются модели, какого уровня интеллекта они достигают и какую роль они начинают играть в программировании, продуктах и повседневной работе людей. В своем обзоре он выделил несколько явлений, которые изменили саму логику развития индустрии.
По мнению Карпати, 2025 год показал, что LLM — это новый тип интеллекта: они оказались одновременно мощнее, но и ограниченнее, чем ожидалось. Их потенциал, по его оценке, реализован лишь частично. Индустрия движется быстро, но впереди еще много нерешенных задач — от надежности до способов интеграции ИИ в повседневную работу.
Новый этап обучения
Главным техническим прорывом года Карпати называет обучение с подкреплением на основе проверяемых вознаграждений (RLVR). Раньше большие языковые модели обучали в три шага: сначала они учились на огромных массивах текстов, затем их донастраивали на примерах с правильными ответами, а после — корректировали с помощью оценок и комментариев людей. В 2025 году появился новый, более длинный и вычислительно затратный этап.
RLVR — это подход, при котором модель учится не на субъективных оценках людей, а на задачах с четким и однозначным результатом.
Проще говоря, ИИ дают такие задания, где можно точно проверить, правильно он справился или нет. Например, это математические задачи, логические головоломки или программирование: ответ либо верный, либо нет. За правильный результат модель получает «награду», за ошибку — нет, и на основе этого постепенно улучшает свое поведение.
Главное отличие RLVR от прежних методов: здесь ИИ сам находит способы рассуждать. Ему не подсказывают, как именно думать и какие шаги считать правильными. Чтобы получить награду, модель вынуждена разбивать сложные задачи на этапы, проверять промежуточные выводы и возвращаться назад, если путь оказался неверным.
По словам Карпати, именно так модели начали демонстрировать то, что люди понимают под логическим мышлением. Первые признаки этого подхода появились еще в конце 2024 года, но именно в 2025-м он стал массовым и заметно повлиял на качество моделей.
Нестабильный интеллект
Карпати отмечает, что в 2025 году индустрия начала лучше понимать форму интеллекта LLM. Он объясняет, что ИИ нельзя воспринимать как «растущий разум», похожий на человека или животное. По его метафоре, мы не выращиваем интеллект, а «вызываем призраков»: системы с неровными и контекстными способностями, которые могут быть очень сильны в одних задачах и неожиданно слабы в других.
Современные модели легко побеждают в сложных тестах, но могут ошибаться в простых вещах. Это привело к росту скепсиса по отношению к бенчмаркам: тесты все чаще отражают способность модели подстроиться под конкретную проверку, а не ее истинный интеллект.
Новый класс приложений вокруг LLM
Карпати обращает внимание на то, что вокруг ИИ появился новый класс продуктов. Это не чаты, которые отвечают на вопросы, а приложения, которые организуют работу модели и встраивают ее в реальные задачи.
В качестве примера он приводит редактор Cursor — среду для программистов, где ИИ не просто генерирует код, а работает вместе с человеком.
По сути, такие приложения делают несколько важных вещей:
- Они сами собирают нужные файлы, данные и историю работы, чтобы ИИ понимал, с чем имеет дело. Пользователю не нужно каждый раз все объяснять заново.
- Вместо одного ответа приложение может запускать цепочку шагов — анализ, проверку, правки, повторные попытки.
- Пользователь может решать, насколько автономно будет работать ИИ — просто подсказывать или выполнять задачу почти самостоятельно.
- Искусственный интеллект становится частью процесса, а не отдельным собеседником в чате.
Карпати считает, что именно здесь будет происходить основное развитие. Разработчики моделей будут делать универсальные версии «на все случаи жизни», а специализированные приложения будут превращать их в профессиональные инструменты — для программистов, дизайнеров, аналитиков, юристов и других специалистов.
ИИ, который «живет» на компьютере
Еще один важный сдвиг — появление локальных ИИ-агентов. Карпати отдельно упоминает Claude Code как первый значимый пример. Такой агент работает прямо на компьютере пользователя, обладает доступом к его среде, файлам и настройкам и реагирует с минимальной задержкой.
Он подчеркивает, что дело не в том, где выполняются вычисления — в облаке или локально, — а в том, что агент встроен в реальный рабочий контекст. Это меняет восприятие ИИ: он перестает быть веб-сервисом и становится постоянным помощником.
Вайбкодинг и демократизация программирования
В 2025 году, по словам Карпати, ИИ перешел порог, после которого создание программ стало возможным на простом языке. Он называет это «вайбкодингом» — подходом, при котором пользователь описывает идею словами, а модель сама пишет код.
Это снижает барьер входа в программирование и одновременно ускоряет работу опытных разработчиков. Код становится «дешевым», временным и легко заменяемым: его можно писать под одну задачу и сразу выбрасывать. По мнению Карпати, это меняет профессию программиста и экономику разработки.
Переход от текста к визуальному интерфейсу
Говоря о будущем ИИ, Карпати выделяет проблему интерфейсов — то есть того, как человек взаимодействует с моделью. Эксперт считает, что привычный формат чата с текстовыми запросами — лишь временное решение. Он сравнивает его с командной строкой первых компьютеров, когда пользователю приходилось вводить команды вручную, потому что других вариантов просто не существовало.
Карпати объясняет это так: людям в целом проще и быстрее воспринимать визуальную информацию, чем длинные тексты. Мы лучше понимаем схемы, изображения, графики, таблицы, анимации и наглядные примеры. Поэтому общение с ИИ в виде длинных текстовых ответов — не самый удобный формат, особенно для сложных задач.
В этом контексте эксперт обращает внимание на развитие мультимодальных моделей — систем, которые умеют работать не только с текстом, но и с изображениями, видео, диаграммами и интерфейсами. В качестве примера Карпати упоминает модели вроде Gemini Nano Banana. Он рассматривает их как первые шаги к тому, что можно назвать «графическим интерфейсом для ИИ».
➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.