Добавить в корзинуПозвонить
Найти в Дзене
Алгоритмы времени

Состояние искусственного интеллекта в 2026 году: масштабирование, открытые модели и будущее человека

Почему 2026 — переломный момент 2025–2026 годы стали для искусственного интеллекта не очередным витком прогресса, а сменой фазы развития. ИИ перестал эволюционировать исключительно за счёт увеличения размеров моделей и перешёл к более сложной конфигурации: масштабирование по нескольким осям, пост-обучение, инструменты, агентные системы и экосистемы. Это уже не только технологический процесс. Всё большую роль начинают играть экономика, культура, политика и человеческий фактор. Подкаст Lex Fridman Podcast даёт редкую возможность увидеть эту картину глазами людей, находящихся на переднем крае — без маркетингового шума и футуристических обещаний. Кто говорит об ИИ — и почему это важно Ценность этого разговора — не только в темах, но и в участниках. Lex Fridman — один из немногих ведущих, способных удерживать баланс между инженерной глубиной и философским масштабом. Его подкаст стал пространством вдумчивого диалога, где ИИ рассматривается не как хайп, а как долгосрочная трансформация общест

Почему 2026 — переломный момент

2025–2026 годы стали для искусственного интеллекта не очередным витком прогресса, а сменой фазы развития. ИИ перестал эволюционировать исключительно за счёт увеличения размеров моделей и перешёл к более сложной конфигурации: масштабирование по нескольким осям, пост-обучение, инструменты, агентные системы и экосистемы.

Это уже не только технологический процесс. Всё большую роль начинают играть экономика, культура, политика и человеческий фактор. Подкаст Lex Fridman Podcast даёт редкую возможность увидеть эту картину глазами людей, находящихся на переднем крае — без маркетингового шума и футуристических обещаний.

Кто говорит об ИИ — и почему это важно

Ценность этого разговора — не только в темах, но и в участниках.

Lex Fridman — один из немногих ведущих, способных удерживать баланс между инженерной глубиной и философским масштабом. Его подкаст стал пространством вдумчивого диалога, где ИИ рассматривается не как хайп, а как долгосрочная трансформация общества и человека.

Sebastian Raschka — практик и исследователь, известный работами по обучению и интерпретации нейросетей. Его подход отличает инженерная трезвость и внимание к реальным ограничениям масштабирования моделей.

Nathan Lambert — исследователь в области alignment и пост-обучения, работающий на стыке reinforcement learning, reasoning и вопросов автономности ИИ.

Сочетание этих ролей — ведущий-модератор, инженер и alignment-исследователь — делает разговор не прогнозом и не проповедью, а рабочей картой текущего состояния ИИ.

1. Конец иллюзии «единственного победителя»

Одна из ключевых идей подкаста — в ИИ не будет сценария winner-takes-all. Причины этого структурны:

  • идеи быстро распространяются между лабораториями;
  • исследователи постоянно переходят между компаниями;
  • архитектуры LLM фундаментально похожи;
  • технологическое преимущество редко удерживается надолго.

Конкуренция сместилась от «уникальных идей» к инфраструктуре: вычислениям, данным, цепочкам поставок и культуре организаций.

2. DeepSeek и новая глобальная динамика

Выход китайской модели DeepSeek-R1 стал символическим моментом для open-weight экосистемы. Модель показала почти фронтирное качество при существенно меньших затратах, что изменило представление о том, кто и где может создавать передовой ИИ.

Это привело к:

  • ускорению глобальной гонки;
  • росту числа open-weight моделей;
  • усилению роли Китая как источника архитектурных идей.

Принципиально важно: ставка сделана не на платформы, а на распространение моделей, формирующее влияние через экосистему.

3. Закрытые и открытые модели: разделение ролей

Подкаст разрушает миф о прямом конфликте между закрытыми и открытыми моделями.

Закрытые модели (ChatGPT, Claude, Gemini):

  • выигрывают в пользовательском опыте;
  • глубоко интегрированы с инструментами;
  • масштабируются на сотни миллионов пользователей.

Open-weight модели (DeepSeek, Qwen, OLMo, Mistral):

  • дают контроль над данными;
  • позволяют локальный запуск;
  • служат фундаментом образования и исследований.

Вывод прост: закрытые модели доминируют в продуктах, открытые — в знаниях и инновациях.

4. Архитектура LLM: эволюция без революции

Несмотря на ощущение стремительного прогресса, архитектурно современные LLM остаются наследниками GPT-2. Изменения носят эволюционный характер:

  • Mixture of Experts (MoE);
  • оптимизации внимания (GQA, sliding window);
  • сокращение KV-кэша;
  • улучшения инференса.

Фундаментальная парадигма — авторегрессионный трансформер — по-прежнему доминирует.

5. Масштабирование: три оси прогресса

Выделяются три формы масштабирования:

  1. Предобучение — больше данных и вычислений;
  2. Пост-обучение — reinforcement learning и alignment;
  3. Инференс — больше времени и токенов на рассуждение.

Ключевое наблюдение: инференс-масштабирование субъективно ощущается сильнее всего, потому что эффект виден в каждом конкретном ответе.

6. RLHF и RLVR: почему появилось рассуждение

Классический RLHF улучшает стиль и формат ответов, но быстро насыщается. Прорыв 2025 года связан с Reinforcement Learning with Verifiable Rewards (RLVR):

  • обучение на задачах с проверяемым результатом (код, математика);
  • масштабирование времени рассуждений;
  • появление самокоррекции и «aha-моментов».

Важно: reinforcement learning не добавляет знания, а разблокирует знания, полученные на этапе предобучения.

7. Данные важнее моделей

Один из самых практических выводов подкаста — данные стали главным ограничивающим фактором:

  • качество данных важнее их объёма;
  • очистка и лицензирование выходят на первый план;
  • судебные процессы показывают конец эпохи «обучения на всём интернете».

Следующий этап — доменные модели, обученные на закрытых корпоративных данных: медицина, право, финансы.

8. Образование и роль open-weight моделей

Без open-weight моделей невозможно:

  • обучать новых исследователей;
  • проверять гипотезы;
  • строить независимые стартапы.

Участники подчёркивают важность «зоны Златовласки»:

  • сначала самостоятельная попытка;
  • затем помощь ИИ;
  • но не полная передача мышления модели.

ИИ должен снижать фрустрацию, но не устранять интеллектуальное усилие.

9. Агенты и будущее интерфейсов

Следующий скачок ИИ связан не столько с новыми моделями, сколько с использованием инструментов:

  • поиск;
  • код;
  • API;
  • рекурсивная декомпозиция задач.

Агентные системы и orchestration способны дать качественный прирост без смены базовой архитектуры.

10. AGI, ASI и трезвый скепсис

Позиция подкаста сдержанная:

  • нет чёткого определения AGI;
  • ИИ будет «рваным» — сильным в одном и слабым в другом;
  • полностью автономный «remote worker» — не ближайшая перспектива.

Прогресс ожидается постепенным и неровным.

11. Человек, культура и ценность подлинности

На фоне потока AI-сгенерированного контента возрастёт ценность:

  • живого общения;
  • авторского голоса;
  • физического присутствия;
  • доверия к источникам.

ИИ усиливает человека, но не заменяет агентность, смысл и сознание.

Заключение: амплификация, а не сингулярность

Мы находимся не на пороге сингулярности, а на пороге амплификации человеческих возможностей.

ИИ становится универсальным усилителем мышления, обучения и творчества. Самая сложная работа впереди — не техническая, а социальная: адаптация, образование, доверие и сохранение человеческого смысла.

ИИ не ведёт нас за руку.

Он проверяет нас на зрелость.

Источник

Lex Fridman Podcast #490

State of AI in 2026: LLMs, Coding, Scaling Laws, China, Agents, GPUs, AGI

▶️ https://youtu.be/EV7WhVT270Q

Хэштеги

#искусственныйинтеллект

#ai2026

#нейросети

#машинноеобучение

#opensource

#будущеетехнологий

#мышление

#агенты

#философиятехнологий

#алгоритмывремени