EU AI Act — это закон Евросоюза, который вводит правила для искусственного интеллекта по принципу «чем выше риск — тем жёстче требования».
Он будет внедряться поэтапно, а «полный разворот» регулирования ожидается к 2 августа 2027.
Простое объяснение: зачем нужен EU AI Act
Представьте, что ИИ — это не только «чат-бот для текста», а ещё системы, которые влияют на жизнь: кого взять на работу, кому дать кредит, как диагностировать болезнь, как следить за безопасностью.
EU AI Act нужен, чтобы снизить риски: запретить самые опасные практики и заставить компании объяснять пользователю, где ИИ, что он делает и кто за него отвечает.
Главные даты (без юридической каши)
Еврокомиссия публикует официальный таймлайн внедрения, и в нём есть четыре ключевые ступени.
- 2 февраля 2025 — начинают действовать базовые определения + требование повышать AI‑грамотность (AI literacy) и вступают в силу запреты на «неприемлемый риск».
- 2 августа 2025 — начинают применяться правила для GPAI (General‑Purpose AI, «ИИ общего назначения», то есть базовые модели/платформы, которые потом встраивают в продукты), и должна быть готова система управления/надзора.
- 2 августа 2026 — стартует применение большинства правил, включая требования к high‑risk AI из приложения (Annex) III.
- 2 августа 2027 — заканчивается переходный период для части high‑risk AI, который встроен в регулируемые продукты (например, устройство/изделие, которое и так подпадает под отдельные отраслевые правила).
Что будет запрещено (на уровне «нельзя вообще»)
В законе есть категория «unacceptable risk» — «неприемлемый риск»: такие практики в ЕС запрещаются.
Если перевести на человеческий язык, запреты направлены на то, чтобы ИИ не мог:
- Скрытно манипулировать людьми (сублиминальные или намеренно обманные/манипулятивные техники, которые подталкивают к решению во вред человеку).
- Массово собирать лица из интернета/камер для баз распознавания через «нетаргетированный» сбор изображений.
- Распознавать эмоции на рабочем месте и в учебных заведениях (с оговорками для медицинских/безопасностных случаев).
- Применять некоторые формы биометрической категоризации и риск-скоринга, которые считаются нарушающими права и ценности ЕС.
Пример «по-бытовому»: если условная система на собеседовании пытается «определить вашу честность по эмоциям» — в ЕС такой подход попадает в красную зону.
Что изменится для обычных пользователей (Европа)
Самая заметная вещь для пользователя — прозрачность: вас чаще будут информировать, что вы общаетесь с ИИ или видите контент, созданный/изменённый ИИ.
Например, статья о прозрачности (Article 50) говорит, что пользователь должен быть уведомлён, когда он взаимодействует с AI‑системой, а AI‑сгенерированный или AI‑изменённый контент должен быть обозначен как искусственно созданный (включая deepfake).
Проще говоря: больше пометок «это сделал ИИ», меньше ситуаций «вам подсунули бота, но сделали вид, что это человек».
Что изменится для бизнеса (особенно с 2026 года)
Закон разделяет роли: provider (поставщик/разработчик) и deployer (тот, кто внедряет/использует систему в реальном сервисе).
Самая «дорогая» категория — high‑risk AI (ИИ высокого риска): это системы, которые потенциально могут повлиять на безопасность и права людей, и для них вводятся расширенные требования (управление рисками, контроль качества данных, документация, надзор человеком и т.п.).
Пример “по бизнесу”: если компания использует ИИ, чтобы отсеивать кандидатов или оценивать людей в чувствительных контекстах, в ЕС это почти наверняка будет рассматриваться как зона повышенной ответственности и проверок.
Словарь на 30 секунд (чтобы не путаться)
- AI Act — закон ЕС, который регулирует ИИ по уровню риска.
- GPAI (General‑Purpose AI) — «ИИ общего назначения»: базовые модели/платформы, которые можно использовать для разных задач (чат‑боты, генерация, анализ).
- High‑risk AI — системы ИИ, где ошибка/злоупотребление может серьёзно повлиять на людей; для них — самые строгие требования.
- Deepfake — искусственно созданное/изменённое изображение/видео/аудио, которое выглядит «как настоящее».
Почему это важно, даже если вы живёте не в ЕС (и что может прийти в Россию)
Крупные компании редко делают две полностью разные версии продуктов: «строго для Европы» и «всё можно для остальных». Поэтому европейские правила часто становятся глобальным стандартом по умолчанию: меняются интерфейсы, добавляются пометки, переписываются политики, вводятся ограничения на функции.
Для России это может проявиться так:
- В приложениях и сервисах международных компаний может стать больше ограничений на «серые» AI‑фичи (например, биометрию/эмоции/автосортировку людей) и больше обязательных пометок AI‑контента — даже если вы используете сервисы вне ЕС.
- Российский рынок регулирования может взять идеи «риск‑подхода» и прозрачности как основу для будущих правил (как это уже было с другими цифровыми регуляторными практиками).
- Бизнесу, который работает с европейскими клиентами или продаёт софт/устройства в ЕС, придётся подтягивать документацию, процессы и ответственность — и эти же практики часто потом становятся «корпоративным стандартом» и для проектов в РФ.