Найти в Дзене
AI не отставай

4,5 часа подкаста Лекса Фридмана за 10 минут чтения

Я посмотрела интервью Лекса Фридмана с ведущими экспертами по искусственному интеллекту. Это 4,5 часа плотного контента о том, как реально идут дела в индустрии в 2026 году. Если хотите посмотреть сами — ссылка вот. А если хочется узнать самую суть с моими комментариями — читайте эту серию постов. Я разбила всё на четыре части: Часть 1 (ниже): Кто реально побеждает в гонке моделей и как мы выбираем нейросети по душе. Часть 2: Про «кухню» обучения, почему архитектура «застряла» в прошлом и ловушки кратких пересказов. Часть 3: Заменит ли ИИ программистов и почему мы начали эмоционально привязываться к ботам. Часть 4: Сколько денег на это уходит, скрытая реклама в ответах ИИ и восстание домашних роботов. Кто эксперты? Ребята, которые работают на «передовой» науки: Себастьян Рашка и Нейтан Ламберт. Они читают абсолютно все научные статьи по теме языковых моделей, умеют создавать их сами с нуля и учат других это делать. > Предупреждаю: будет довольно глубоко. Эта серия постов для тех, ко

4,5 часа подкаста Лекса Фридмана за 10 минут чтения

Я посмотрела интервью Лекса Фридмана с ведущими экспертами по искусственному интеллекту. Это 4,5 часа плотного контента о том, как реально идут дела в индустрии в 2026 году. Если хотите посмотреть сами — ссылка вот. А если хочется узнать самую суть с моими комментариями — читайте эту серию постов. Я разбила всё на четыре части:

Часть 1 (ниже): Кто реально побеждает в гонке моделей и как мы выбираем нейросети по душе.

Часть 2: Про «кухню» обучения, почему архитектура «застряла» в прошлом и ловушки кратких пересказов.

Часть 3: Заменит ли ИИ программистов и почему мы начали эмоционально привязываться к ботам.

Часть 4: Сколько денег на это уходит, скрытая реклама в ответах ИИ и восстание домашних роботов.

Кто эксперты? Ребята, которые работают на «передовой» науки: Себастьян Рашка и Нейтан Ламберт. Они читают абсолютно все научные статьи по теме языковых моделей, умеют создавать их сами с нуля и учат других это делать.

> Предупреждаю: будет довольно глубоко. Эта серия постов для тех, кому интересно, как там всё устроено «под капотом».

Мои личные комментарии и мысли по ходу текста я выделила курсивом — так вам будет проще отличить факты из подкаста от моего мнения.

⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯

1. Лидеры рынка: эффект DeepSeek

Раньше казалось, что лидерство США (OpenAI, Google) непоколебимо. Но в игру ворвался Китай.

Что произошло: ребята из DeepSeek доказали, что можно обучить топовую модель в десятки раз дешевле, чем это делает OpenAI. Пока американцы строят дата-центры стоимостью в ВВП целых стран, DeepSeek сделал ставку на сверхэффективные алгоритмы.

Результат: они сделали мощную модель бесплатной, всколыхнули рынок и заставили инвесторов в США нервничать. Конкуренция обострилась: теперь денег выделяется еще больше.

Для нас, пользователей, это отлично: новые прорывы мы увидим в разы быстрее и наверняка всегда будет хоть что-то качественное и бесплатное.

2. Кто побеждает: Gemini vs ChatGPT

Сейчас эксперты единогласно присуждают победу Gemini от Google. У Google мощнейшая инфраструктура: своё «железо», свои данные и колоссальные вычислительные мощности.

OpenAI (создатели ChatGPT) славятся своей командой инноваторов, которая может выкинуть что-то эдакое, чего нет у конкурентов. Что будет к концу года — никто не знает.

3. Почему мы меняем нейросеть?

Ребята заметили паттерн: мы выбираем новую модель чаще всего тогда, когда старая нас подвела. И выбираем ту, которая впечатлила нас в моменте.

У меня всё так же: скорее всего я бы сидела на ChatGPT дальше, если бы версия 5 меня так сильно не разочаровала.

4. Две подписки — норма будущего

Многие ИИ сейчас предлагают функцию «памяти». Можно записать вводные в настройки: например, что вы не терпите феминитивы, хотите больше цинизма или чтобы ИИ помнил дни рождения детей. Но и в процессе переписки модель сама отбирает важные, по её мнению, факты.

Поэтому эксперты предсказывают: скоро у нас будет по две подписки — для работы и для личного пользования. Чтобы личные секреты, которые модель заботливо запомнила, случайно не всплыли в рабочих документах.

5. Меньше вранья

Исследователи работают над тем, чтобы минимизировать «галлюцинации». Среди способов:

Кодинг: «отправлять» модель писать код на Python для всех расчетов (раньше ИИ пытался «вспомнить» результат и часто ошибался).

Интернет: использовать поиск с умом только для проверки фактов.

Экспертные модели: ученые экспериментируют с узкоспециализированными ИИ, которые разбираются в конкретных областях. Главная задача сейчас — научить основную модель понимать, к какому «эксперту» обратиться, не переусложняя систему.

Ожидаем значительно меньше галлюцинаций к концу года.

⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯

Это был только разогрев. Скоро выложу Часть 2 — про «фундамент» моделей, этапы их обучения (pre-, mid-, post-training) и то, как нас используют как учителей.

Если что-то показалось слишком сложным или есть вопросы — пишите в комментариях, разберем. И ставьте 🔥, если ждете продолжения!