Китайская компания DeepSeek в этом году представила чат-бота R1, который моментально привлёк внимание всего AI-сообщества. Причина — не в громком бренде, а в заявлении: якобы R1 показывает уровень OpenAI, но при этом требует в разы меньше вычислительных мощностей. Рынок отреагировал мгновенно: акции крупных западных компаний резко пошли вниз, а Nvidia потеряла за день больше капитализации, чем любая компания в истории. Вокруг DeepSeek тут же появились обвинения. По неподтверждённым данным, команда использовала знания из закрытой модели OpenAI, применив технику, известную как дистилляция. СМИ подхватили волну: будто бы DeepSeek открыла принципиально новый способ «облегчённой» сборки ИИ. Но в действительности дистилляция — не ноу-хау, а вполне устоявшийся метод в компьютерных науках. Её суть — в обучении меньшей модели («ученика») на основе сигналов от большой модели («учителя»), включая так называемые «мягкие» ответы, которые показывают не только правильный результат, но и вероятностн
Китайская компания DeepSeek в этом году представила чат-бота R1, который моментально привлёк внимание всего AI-сообщества
24 июля 202524 июл 2025
542
1 мин