OpenAI заметно усилила внутренние меры безопасности, чтобы защитить свои разработки от шпионажа и утечек. По информации Financial Times, компания активизировала эти шаги после того, как китайский стартап DeepSeek представил конкурирующую модель. OpenAI подозревает, что соперники использовали метод дистилляции для копирования ее решений. Теперь в офисах OpenAI действуют строгие ограничения по доступу к новым продуктам и алгоритмам. В частности, в процессе разработки модели o1 только отдельные проверенные сотрудники могли обсуждать проект, причем даже не во всех зонах офиса. Это стало частью новой политики, ограничивающей распространение информации внутри компании. Кроме того, теперь критически важные системы хранятся в офлайне, чтобы полностью исключить удаленный доступ. Для входа в некоторые помещения используется биометрическая идентификация — сотрудники должны проходить сканирование отпечатков пальцев. Также введена политика запрета на подключение к интернету по умолчанию — любые вне