Компания OpenAI изменила состав команды, занимавшейся внутренней безопасностью, в том числе — защитой архитектуры своих ИИ-моделей от несанкционированного распространения. Увольнения затронули сотрудников, отвечавших за предотвращение утечки информации за пределы компании. По данным издания The Information, изменения коснулись команды, следившей за тем, чтобы параметры и веса моделей — ключевые элементы ИИ-систем, определяющие их поведение, — не попадали к посторонним. Эти данные составляют основу конкурентных преимуществ OpenAI и считаются критически важными для всей отрасли. Компания подтвердила кадровые перестановки, сославшись на необходимость адаптации к новым угрозам. В числе причин — рост числа внешних рисков, включая корпоративный шпионаж и попытки незаконного копирования моделей со стороны других компаний или государств. Решение последовало за вступлением в силу американских правил AI Diffusion, направленных на защиту стратегических ИИ-технологий. Эти нормы ограничивают переда
OpenAI уволила часть команды, отвечавшей за предотвращение утечки информации о своих ИИ-моделях
23 июня 202523 июн 2025
2
1 мин