Переход от LLM к полноценным AI agents требует данных, которые невозможно синтезировать. Стало известно, что OpenAI использует контракторов, которые за плату сливают реальные документы со своих основных работ для обучения системы, создавая серьёзные риски для корпоративной безопасности. Утечка через Data Partnership. Обучение agentic систем отличается от работы чат-ботов. Чтобы научить ИИ решать многошаговые рабочие задачи, ему нужно видеть реальные процессы. Контракторы загружают инвестиционные отчеты, спецификации и внутренние переписки, фактически превращая OpenAI в теневое хранилище чужих коммерческих секретов. Невольные шпионы. Работники нарушают NDA непреднамеренно. Инструкция "загружайте документы, к которым у вас есть доступ" создаёт правовую коллизию: формально сотрудник имеет доступ, но передача конфиденциальных данных третьей стороне для обучения моделей — это классический инцидент информбезопасности. Проблема "мусора в данных". Синтетические данные слишком идеальны. Агенты
Скрытая цена автономии: OpenAI тренирует агентов на корпоративных тайнах
13 января13 янв
1 мин