Ещё недавно мир искусственного интеллекта переживал гонку моделей-гигантов, требующих огромных вычислительных мощностей и многомиллионных бюджетов. Но в 2025 году небольшой китайский стартап DeepSeek буквально перевернул правила игры, выпустив модель R1 — компактный чат-бот, способный конкурировать с тяжеловесами от OpenAI и Google, но за гораздо меньшие деньги и при минимальных ресурсах. Как это оказалось возможным? Всё дело в технологии под названием «дистилляция знаний» — методе, впервые предложенном Джоффри Хинтоном в далёком 2015 году. Но, как это часто бывает в науке, метод прошёл долгий путь от идеи до триумфального успеха. 📚 Что такое дистилляция и «темное знание»? В основе дистилляции лежит простая аналогия с обучением в школе: Ключ к успеху метода заключается в передаче так называемого «темного знания» — вероятностного подхода к ответам. Вместо категоричного «это кошка», учитель сообщает: «🟢 30% это кошка, 🐕 20% это собака, 🐄 5% это корова». Такие мягкие (soft) ответы сод
🚀 Дистилляция знаний: как маленькие ИИ-модели меняют правила большой игры
24 июля 202524 июл 2025
1
3 мин