Почему 2026 — переломный момент
2025–2026 годы стали для искусственного интеллекта не очередным витком прогресса, а сменой фазы развития. ИИ перестал эволюционировать исключительно за счёт увеличения размеров моделей и перешёл к более сложной конфигурации: масштабирование по нескольким осям, пост-обучение, инструменты, агентные системы и экосистемы.
Это уже не только технологический процесс. Всё большую роль начинают играть экономика, культура, политика и человеческий фактор. Подкаст Lex Fridman Podcast даёт редкую возможность увидеть эту картину глазами людей, находящихся на переднем крае — без маркетингового шума и футуристических обещаний.
Кто говорит об ИИ — и почему это важно
Ценность этого разговора — не только в темах, но и в участниках.
Lex Fridman — один из немногих ведущих, способных удерживать баланс между инженерной глубиной и философским масштабом. Его подкаст стал пространством вдумчивого диалога, где ИИ рассматривается не как хайп, а как долгосрочная трансформация общества и человека.
Sebastian Raschka — практик и исследователь, известный работами по обучению и интерпретации нейросетей. Его подход отличает инженерная трезвость и внимание к реальным ограничениям масштабирования моделей.
Nathan Lambert — исследователь в области alignment и пост-обучения, работающий на стыке reinforcement learning, reasoning и вопросов автономности ИИ.
Сочетание этих ролей — ведущий-модератор, инженер и alignment-исследователь — делает разговор не прогнозом и не проповедью, а рабочей картой текущего состояния ИИ.
1. Конец иллюзии «единственного победителя»
Одна из ключевых идей подкаста — в ИИ не будет сценария winner-takes-all. Причины этого структурны:
- идеи быстро распространяются между лабораториями;
- исследователи постоянно переходят между компаниями;
- архитектуры LLM фундаментально похожи;
- технологическое преимущество редко удерживается надолго.
Конкуренция сместилась от «уникальных идей» к инфраструктуре: вычислениям, данным, цепочкам поставок и культуре организаций.
2. DeepSeek и новая глобальная динамика
Выход китайской модели DeepSeek-R1 стал символическим моментом для open-weight экосистемы. Модель показала почти фронтирное качество при существенно меньших затратах, что изменило представление о том, кто и где может создавать передовой ИИ.
Это привело к:
- ускорению глобальной гонки;
- росту числа open-weight моделей;
- усилению роли Китая как источника архитектурных идей.
Принципиально важно: ставка сделана не на платформы, а на распространение моделей, формирующее влияние через экосистему.
3. Закрытые и открытые модели: разделение ролей
Подкаст разрушает миф о прямом конфликте между закрытыми и открытыми моделями.
Закрытые модели (ChatGPT, Claude, Gemini):
- выигрывают в пользовательском опыте;
- глубоко интегрированы с инструментами;
- масштабируются на сотни миллионов пользователей.
Open-weight модели (DeepSeek, Qwen, OLMo, Mistral):
- дают контроль над данными;
- позволяют локальный запуск;
- служат фундаментом образования и исследований.
Вывод прост: закрытые модели доминируют в продуктах, открытые — в знаниях и инновациях.
4. Архитектура LLM: эволюция без революции
Несмотря на ощущение стремительного прогресса, архитектурно современные LLM остаются наследниками GPT-2. Изменения носят эволюционный характер:
- Mixture of Experts (MoE);
- оптимизации внимания (GQA, sliding window);
- сокращение KV-кэша;
- улучшения инференса.
Фундаментальная парадигма — авторегрессионный трансформер — по-прежнему доминирует.
5. Масштабирование: три оси прогресса
Выделяются три формы масштабирования:
- Предобучение — больше данных и вычислений;
- Пост-обучение — reinforcement learning и alignment;
- Инференс — больше времени и токенов на рассуждение.
Ключевое наблюдение: инференс-масштабирование субъективно ощущается сильнее всего, потому что эффект виден в каждом конкретном ответе.
6. RLHF и RLVR: почему появилось рассуждение
Классический RLHF улучшает стиль и формат ответов, но быстро насыщается. Прорыв 2025 года связан с Reinforcement Learning with Verifiable Rewards (RLVR):
- обучение на задачах с проверяемым результатом (код, математика);
- масштабирование времени рассуждений;
- появление самокоррекции и «aha-моментов».
Важно: reinforcement learning не добавляет знания, а разблокирует знания, полученные на этапе предобучения.
7. Данные важнее моделей
Один из самых практических выводов подкаста — данные стали главным ограничивающим фактором:
- качество данных важнее их объёма;
- очистка и лицензирование выходят на первый план;
- судебные процессы показывают конец эпохи «обучения на всём интернете».
Следующий этап — доменные модели, обученные на закрытых корпоративных данных: медицина, право, финансы.
8. Образование и роль open-weight моделей
Без open-weight моделей невозможно:
- обучать новых исследователей;
- проверять гипотезы;
- строить независимые стартапы.
Участники подчёркивают важность «зоны Златовласки»:
- сначала самостоятельная попытка;
- затем помощь ИИ;
- но не полная передача мышления модели.
ИИ должен снижать фрустрацию, но не устранять интеллектуальное усилие.
9. Агенты и будущее интерфейсов
Следующий скачок ИИ связан не столько с новыми моделями, сколько с использованием инструментов:
- поиск;
- код;
- API;
- рекурсивная декомпозиция задач.
Агентные системы и orchestration способны дать качественный прирост без смены базовой архитектуры.
10. AGI, ASI и трезвый скепсис
Позиция подкаста сдержанная:
- нет чёткого определения AGI;
- ИИ будет «рваным» — сильным в одном и слабым в другом;
- полностью автономный «remote worker» — не ближайшая перспектива.
Прогресс ожидается постепенным и неровным.
11. Человек, культура и ценность подлинности
На фоне потока AI-сгенерированного контента возрастёт ценность:
- живого общения;
- авторского голоса;
- физического присутствия;
- доверия к источникам.
ИИ усиливает человека, но не заменяет агентность, смысл и сознание.
Заключение: амплификация, а не сингулярность
Мы находимся не на пороге сингулярности, а на пороге амплификации человеческих возможностей.
ИИ становится универсальным усилителем мышления, обучения и творчества. Самая сложная работа впереди — не техническая, а социальная: адаптация, образование, доверие и сохранение человеческого смысла.
ИИ не ведёт нас за руку.
Он проверяет нас на зрелость.
Источник
Lex Fridman Podcast #490
State of AI in 2026: LLMs, Coding, Scaling Laws, China, Agents, GPUs, AGI
▶️ https://youtu.be/EV7WhVT270Q
Хэштеги
#искусственныйинтеллект
#ai2026
#нейросети
#машинноеобучение
#opensource
#будущеетехнологий
#мышление
#агенты
#философиятехнологий
#алгоритмывремени