Искусственный интеллект развивается быстрее, чем когда-либо. Новые языковые модели появляются почти каждый месяц, а компании соревнуются за лидерство в этой гонке. Но вместе с ускорением разработки растёт и тревога: всё чаще эксперты говорят о том, что проверки безопасности перед выпуском моделей становятся менее строгими. Почему это происходит, какие риски это создаёт и что может изменить ситуацию, разберёмся в этой статье. Безопасность ИИ-моделей - это набор процессов, которые проверяют, насколько система безопасна для пользователей и общества. Обычно в них входят: Такие проверки проводят крупные компании, создающие LLM, например
OpenAI,
Anthropic,
Google DeepMind и другие разработчики. Но в последние годы эксперты всё чаще замечают: время на такие проверки сокращается. ИИ стал одной из самых конкурентных технологических сфер. Каждый новый релиз модели может: Поэтому компании стремятся выпускать модели быстрее конкурентов. Если раньше подготовка модели могла занимать месяцы тестиров