1 августа вступает в силу Закон ЕС об искусственном интеллекте. Теперь также стало ясно, что в ЕС ИИ-инструменты будут рассматриваться не просто как высокий риск, но даже как системный риск. Речь идет о всех так называемых моделях ИИ общего назначения (GPAI), которые были созданы с большими вычислительными усилиями. Конкретно для этого был установлен порог в 1025 FLOP — и лучшие и самые известные модели ИИ давно его превысили.
Кабель к серверу. Фото: Unsplash FLOP — внесистемная единица, используемая для измерения производительности компьютеров, показывающая, сколько операций с плавающей запятой в секунду выполняет данная вычислительная система, а 1025 FLOP — это способность (обычно высокопроизводительного компьютера) выполнять 10 квадриллионов (или 10 000 000 000 000 000 000 000) вычислений с плавающей запятой за одну секунду.
«Этот порог включает в себя самые передовые на данный момент модели GPAI, а именно GPT-4 от OpenAI и, вероятно, Gemini от Google DeepMind», — заявила Комиссия ЕС, когда порог был установлен.
Возможности моделей выше этого порога еще недостаточно известны. Они могут представлять системные риски, и поэтому имеет смысл подвергнуть их поставщиков дополнительным обязательствам. При необходимости порог FLOP в законе об ИИ может быть изменен в большую или меньшую сторону.
Теперь стало известно, какие модели ИИ будут отнесены к системному риску с высокими требованиями. OpenAI объявила в записи в блоге, что, вероятно, попадет в эту категорию.
«Мы стремимся соблюдать Закон ЕС об искусственном интеллекте и будем тесно сотрудничать с новым Управлением ЕС по искусственному интеллекту для реализации этого закона. В ближайшие месяцы мы продолжим выпускать техническую документацию и другие руководства для последующих поставщиков и операторов наших моделей GPAI, одновременно улучшая безопасность моделей, которые мы предлагаем на европейском рынке и за его пределами», — говорится в заявлении компании.
Это произойдет в ближайшие 9 месяцев. Поставщики таких GPAI высокого риска должны:
- Проводить модельные оценки для выявления и снижения системных рисков, а также постоянно оценивать и смягчать представленные риски
- Уведомлять Комиссию ЕС о моделях, соответствующих критериям данной категории
- Отслеживать и сообщать о серьезных инцидентах
- Внедрить соответствующие меры кибербезопасности для модели и ее физической инфраструктуры
С августа 2025 года (ИИ общего назначения) или с августа 2026 года (системы ИИ высокого риска) поставщики или пользователи затронутых систем ИИ должны будут соблюдать правила. В противном случае им грозят крупные штрафы или запреты.
Помимо OpenAI с GPT-4o/GPT-4 и Google с моделями Gemini, под более строгие правила ЕС, скорее всего, подпадут и другие крупные модели ИИ на рынке. Mistral Large, большая языковая модель ИИ от парижского ИИ-стартапа Mistral AI, также превышает порог в 1025 FLOP, как и Llama 3.1.
Для Claude 3 от Anthropic не известно, сколько у нее значение FLOP, но предполагается, что ИИ-модель превзойдет установленный законом ЕС порог. Кроме того, крупные модели искусственного интеллекта, такие как Sora от OpenAI или будущая модель xAI Илона Маска, еще не представлены на рынке, но, скорее всего, также попадут в эту категорию.