Найти в Дзене
Neurotracker

OpenAI вводит жёсткую верификацию

OpenAI вводит жёсткую верификацию. Компания объявила о введении обязательной процедуры проверки для организаций, желающих получить доступ к передовым ИИ-моделям. Система Verified Organization требует предоставления государственного удостоверения личности, а также исключает КНР и вводит проверку каждые 90 дней. Меры призваны предотвратить злоупотребления технологиями. Читай до конца, чтобы быть в курсе самых передовых новостей в мире высоких технологий. ⁠В соответствии с новыми правилами, компании из списка поддерживаемых стран обязаны пройти процедуру верификации, предоставив официальный документ. Один идентификатор можно использовать для подтверждения только одной организации раз в 90 дней. При этом OpenAI сохраняет за собой право отказать в доступе без пояснения причин. Как поясняют в компании, эти меры направлены против «небольшого числа разработчиков», нарушающих политику использования API, и помогут обеспечить баланс между открытостью и безопасностью. ✅ Эксперты считают, что уж

OpenAI вводит жёсткую верификацию. Компания объявила о введении обязательной процедуры проверки для организаций, желающих получить доступ к передовым ИИ-моделям. Система Verified Organization требует предоставления государственного удостоверения личности, а также исключает КНР и вводит проверку каждые 90 дней. Меры призваны предотвратить злоупотребления технологиями. Читай до конца, чтобы быть в курсе самых передовых новостей в мире высоких технологий.

⁠В соответствии с новыми правилами, компании из списка поддерживаемых стран обязаны пройти процедуру верификации, предоставив официальный документ.

Один идентификатор можно использовать для подтверждения только одной организации раз в 90 дней.

При этом OpenAI сохраняет за собой право отказать в доступе без пояснения причин. Как поясняют в компании, эти меры направлены против «небольшого числа разработчиков», нарушающих политику использования API, и помогут обеспечить баланс между открытостью и безопасностью.

✅ Эксперты считают, что ужесточение правил связано с растущими рисками, связанными с развитием ИИ-технологий.

В феврале 2025 года Bloomberg сообщил, что OpenAI расследовала инцидент с китайской лабораторией DeepSeek: по данным издания, осенью 2024 года через API платформы могли быть незаконно загружены значительные объемы данных для обучения сторонних моделей. Этот случай стал одним из ключевых факторов введения дополнительных ограничений — летом 2024 года доступ к сервису в Китае был полностью прекращён.

✅ Новая система также направлена на противодействие злонамеренной деятельности.

В отчетах OpenAI неоднократно упоминались попытки использования ИИ-моделей группами, связанными с КНДР, для кибератак и распространения дезинформации. Программа Verified Organization, среди прочего, усложнит доступ к инструментам для подобных структур.

❗При этом базовый функционал OpenAI останется доступным без верификации, а проверенные пользователи получат приоритетный доступ к экспериментальным функциям.

Система начнёт работать в полном объёме в мае-июне 2025 года, одновременно с выходом новых ИИ-моделей.

ИСТОЧНИКИ

https://help.openai.com/en/articles/10910291-api-organization-verification

https://en.cryptonomist.ch/2025/04/14/openai-introduces-identity-checks-to-access-its-most-advanced-models/

https://techcrunch.com/2025/04/13/access-to-future-ai-models-in-openais-api-may-require-a-verified-id/

- - -