Добавить в корзинуПозвонить
Найти в Дзене

Илья Суцкевер про будущее ИИ

Илья Суцкевер про будущее ИИ Последнее большое видеоинтервью Ильи Суцкевера стало первым, где он системно объяснил свои взгляды на текущее состояние ИИ, будущее интеллекта, безопасность и влияние на общество после ухода из OpenAI и запуска компании SSI. В чем главная проблема ИИ сейчас Современные модели вроде GPT отлично проходят тесты и экзамены, но в реальной работе часто дают сбои и не приносят ожидаемого экономического эффекта. В сложных задачах они «ломаются по кругу»: исправление одной ошибки рождает другую, потому что обучение слишком заточено под «понравиться людям на оценке», а не под обобщение в реальном мире. Предобучение против RL Предобучение использует огромные массивы реальных данных и строит широкую картину мира. Обучение с подкреплением часто превращает модель в «ботаника, который умеет только сдавать экзамены» — она подгоняется под метрики, но не учится глубоко понимать и переносить знания. Почему люди учатся лучше Люди учатся в хаотичном мире, потому что у

Илья Суцкевер про будущее ИИ

Последнее большое видеоинтервью Ильи Суцкевера стало первым, где он системно объяснил свои взгляды на текущее состояние ИИ, будущее интеллекта, безопасность и влияние на общество после ухода из OpenAI и запуска компании SSI.

В чем главная проблема ИИ сейчас

Современные модели вроде GPT отлично проходят тесты и экзамены, но в реальной работе часто дают сбои и не приносят ожидаемого экономического эффекта.

В сложных задачах они «ломаются по кругу»: исправление одной ошибки рождает другую, потому что обучение слишком заточено под «понравиться людям на оценке», а не под обобщение в реальном мире.

Предобучение против RL

Предобучение использует огромные массивы реальных данных и строит широкую картину мира.

Обучение с подкреплением часто превращает модель в «ботаника, который умеет только сдавать экзамены» — она подгоняется под метрики, но не учится глубоко понимать и переносить знания.

Почему люди учатся лучше

Люди учатся в хаотичном мире, потому что у них есть внутренняя система ценностей, которая работает через эмоции:

— Радость — сигнал «делаешь правильно».

— Тревога — предупреждение о рисках.

— Стыд — корректировка поведения в обществе.

— Любопытство — толчок к исследованию.

Это похоже на скрытую «функцию ценности» в RL, которая заранее подсказывает, что направление неверное, не дожидаясь наказания.

Конец «эры масштабирования»

По словам Ильи, индустрия прошла:

— 2012–2020 — «эра исследований» (новые архитектуры, вроде Transformer).

— 2020–2025 — «эра масштабирования» (гонка за данными, вычислениями и параметрами).

Сейчас масштабирование дает все меньшую отдачу, а вычислительные мощности уже огромны.

Следующий скачок будет не за счет «еще больше железа», а за счет новых принципов обучения, которые позволят моделям учиться как люди.

План на 5–20 лет

Илья ожидает, что в ближайшие 5–20 лет ИИ:

— Научится активно исследовать мир и понимать законы физики и общества.

— Сможет кросс-модально мыслить (объединять разные «органы чувств») и заниматься саморефлексией.

Зрелая система такого уровня может резко поднять производительность экономики, перевернуть образование и науку и привести к эпохе «совместного интеллекта» человека и машины.

SSI, по его словам, будет двигаться к «безопасному сверхразуму» постепенно и прозрачно, с внешней оценкой рисков и мер контроля на каждом этапе.

Полное видео тут

#новости@dailyprompts