OpenAI, Google и Anthropic началии координировать защиту своих ИИ-моделей от несанкционированного копирования — конкуренты извлекают данные из ответов продвинутых систем и обучают на них собственные, более дешёвые аналоги. Обмен информацией между компаниями идёт через организацию Frontier Model Forum, основанную в 2023 году при участии также Microsoft. Процесс, о котором идёт речь, называется состязательной дистилляцией. Сторонние игроки анализируют ответы мощных моделей и на их основе обучают свои системы — это позволяет резко сократить затраты и ускорить разработку. Внутри самих компаний такой подход используется для создания компактных версий собственных продуктов. Проблема начинается тогда, когда чужие разработки воспроизводят без какого-либо согласия. По данным Bloomberg, американские ИИ-разработчики говорят о целенаправленных попытках извлечения данных из американских моделей. OpenAI уже направляла материалы в Конгресс США, где указывала на китайскую компанию DeepSeek — по оценке