Добавить в корзинуПозвонить
Найти в Дзене
CISOCLUB

ИИ-гиганты объединились против копирования

OpenAI, Google и Anthropic началии координировать защиту своих ИИ-моделей от несанкционированного копирования — конкуренты извлекают данные из ответов продвинутых систем и обучают на них собственные, более дешёвые аналоги. Обмен информацией между компаниями идёт через организацию Frontier Model Forum, основанную в 2023 году при участии также Microsoft. Процесс, о котором идёт речь, называется состязательной дистилляцией. Сторонние игроки анализируют ответы мощных моделей и на их основе обучают свои системы — это позволяет резко сократить затраты и ускорить разработку. Внутри самих компаний такой подход используется для создания компактных версий собственных продуктов. Проблема начинается тогда, когда чужие разработки воспроизводят без какого-либо согласия. По данным Bloomberg, американские ИИ-разработчики говорят о целенаправленных попытках извлечения данных из американских моделей. OpenAI уже направляла материалы в Конгресс США, где указывала на китайскую компанию DeepSeek — по оценке
   Изображение: Saradasish Pradhan (unsplash)
Изображение: Saradasish Pradhan (unsplash)

OpenAI, Google и Anthropic началии координировать защиту своих ИИ-моделей от несанкционированного копирования — конкуренты извлекают данные из ответов продвинутых систем и обучают на них собственные, более дешёвые аналоги. Обмен информацией между компаниями идёт через организацию Frontier Model Forum, основанную в 2023 году при участии также Microsoft.

Процесс, о котором идёт речь, называется состязательной дистилляцией. Сторонние игроки анализируют ответы мощных моделей и на их основе обучают свои системы — это позволяет резко сократить затраты и ускорить разработку.

Внутри самих компаний такой подход используется для создания компактных версий собственных продуктов. Проблема начинается тогда, когда чужие разработки воспроизводят без какого-либо согласия.

По данным Bloomberg, американские ИИ-разработчики говорят о целенаправленных попытках извлечения данных из американских моделей. OpenAI уже направляла материалы в Конгресс США, где указывала на китайскую компанию DeepSeek — по оценке компании, та могла использовать результаты работы американских лабораторий при создании собственных решений.

Anthropic пошла дальше и выявила ещё две структуры — Moonshot и MiniMax, которые, по оценке компании, работают теми же методами. Отдельную тревогу вызывает то, что подобные системы зачастую лишены встроенных ограничений безопасности. Это открывает дорогу к созданию вредоносных инструментов и организации масштабных кибератак.

В ряде регионов пользователи уже выбирают такие копии — они дешевле и не имеют ограничений оригинальных продуктов. Это создаёт давление не только на коммерческие позиции американских компаний, но и на их технологическое лидерство в целом.

По оценкам представителей властей США, потери компаний Кремниевой долины от несанкционированного копирования технологий ежегодно исчисляются миллиардами долларов. Разработчики вынуждены искать новые способы защиты — и судя по всему, делать это сообща.

Оригинал публикации на сайте CISOCLUB: "OpenAI, Google и Anthropic усиливают защиту своих ИИ-моделей из-за действий китайских ИТ-компаний".

Смотреть публикации по категориям: Новости | Мероприятия | Статьи | Обзоры | Отчеты | Интервью | Видео | Обучение | Вакансии | Утечки | Уязвимости | Сравнения | Дайджесты | Прочее.

Подписывайтесь на нас: MAX | VK | Rutube | Telegram | Дзен | YouTube.