Американская OpenAI направила в Конгресс США материалы, в которых утверждает, что китайская компания DeepSeek использовала методы копирования знаний для обучения своих ИИ-моделей, обходя ограничения и защитные механизмы. Как сообщает Bloomberg со ссылкой на внутреннюю записку, OpenAI уведомила специальный комитет Палаты представителей США по Китаю о признаках применения так называемой дистилляции знаний. Речь идёт о технике, при которой одна модель перенимает поведенческие и функциональные характеристики другой, анализируя её ответы и логику работы. В компании Сэма Альтмана заявили, что выявили новые, более скрытые способы обхода защитных механизмов, предназначенных для предотвращения несанкционированного использования результатов работы их систем. Поводом для дополнительного внимания стал релиз модели DeepSeek-R1 с открытым исходным кодом в начале прошлого года. После её выхода OpenAI совместно с Microsoft инициировали проверку, чтобы выяснить, могла ли R1 обучаться на данных, получен