Найти в Дзене
ТехноШаг

EU AI Act: что это, когда вступает в силу и что изменится в 2026–2027

EU AI Act — это закон Евросоюза, который вводит правила для искусственного интеллекта по принципу «чем выше риск — тем жёстче требования».​
Он будет внедряться поэтапно, а «полный разворот» регулирования ожидается к 2 августа 2027. Представьте, что ИИ — это не только «чат-бот для текста», а ещё системы, которые влияют на жизнь: кого взять на работу, кому дать кредит, как диагностировать болезнь, как следить за безопасностью.​
EU AI Act нужен, чтобы снизить риски: запретить самые опасные практики и заставить компании объяснять пользователю, где ИИ, что он делает и кто за него отвечает.​ Еврокомиссия публикует официальный таймлайн внедрения, и в нём есть четыре ключевые ступени.​ В законе есть категория «unacceptable risk» — «неприемлемый риск»: такие практики в ЕС запрещаются.​
Если перевести на человеческий язык, запреты направлены на то, чтобы ИИ не мог: Пример «по-бытовому»: если условная система на собеседовании пытается «определить вашу честность по эмоциям» — в ЕС такой подход поп
Оглавление

EU AI Act — это закон Евросоюза, который вводит правила для искусственного интеллекта по принципу «чем выше риск — тем жёстче требования».​
Он будет внедряться
поэтапно, а «полный разворот» регулирования ожидается к 2 августа 2027.

Простое объяснение: зачем нужен EU AI Act

Представьте, что ИИ — это не только «чат-бот для текста», а ещё системы, которые влияют на жизнь: кого взять на работу, кому дать кредит, как диагностировать болезнь, как следить за безопасностью.​
EU AI Act нужен, чтобы снизить риски: запретить самые опасные практики и заставить компании объяснять пользователю, где ИИ, что он делает и кто за него отвечает.​

Главные даты (без юридической каши)

Еврокомиссия публикует официальный таймлайн внедрения, и в нём есть четыре ключевые ступени.​

  • 2 февраля 2025 — начинают действовать базовые определения + требование повышать AI‑грамотность (AI literacy) и вступают в силу запреты на «неприемлемый риск».​
  • 2 августа 2025 — начинают применяться правила для GPAI (General‑Purpose AI, «ИИ общего назначения», то есть базовые модели/платформы, которые потом встраивают в продукты), и должна быть готова система управления/надзора.​
  • 2 августа 2026 — стартует применение большинства правил, включая требования к high‑risk AI из приложения (Annex) III.​
  • 2 августа 2027 — заканчивается переходный период для части high‑risk AI, который встроен в регулируемые продукты (например, устройство/изделие, которое и так подпадает под отдельные отраслевые правила).​

Что будет запрещено (на уровне «нельзя вообще»)

В законе есть категория «unacceptable risk» — «неприемлемый риск»: такие практики в ЕС запрещаются.​
Если перевести на человеческий язык, запреты направлены на то, чтобы ИИ не мог:

  • Скрытно манипулировать людьми (сублиминальные или намеренно обманные/манипулятивные техники, которые подталкивают к решению во вред человеку).​
  • Массово собирать лица из интернета/камер для баз распознавания через «нетаргетированный» сбор изображений.​
  • Распознавать эмоции на рабочем месте и в учебных заведениях (с оговорками для медицинских/безопасностных случаев).​
  • Применять некоторые формы биометрической категоризации и риск-скоринга, которые считаются нарушающими права и ценности ЕС.​

Пример «по-бытовому»: если условная система на собеседовании пытается «определить вашу честность по эмоциям» — в ЕС такой подход попадает в красную зону.​

Что изменится для обычных пользователей (Европа)

Самая заметная вещь для пользователя — прозрачность: вас чаще будут информировать, что вы общаетесь с ИИ или видите контент, созданный/изменённый ИИ.​
Например, статья о прозрачности (Article 50) говорит, что пользователь должен быть уведомлён, когда он взаимодействует с AI‑системой, а AI‑сгенерированный или AI‑изменённый контент должен быть обозначен как искусственно созданный (включая deepfake).​
Проще говоря: больше пометок «это сделал ИИ», меньше ситуаций «вам подсунули бота, но сделали вид, что это человек».​

Что изменится для бизнеса (особенно с 2026 года)

Закон разделяет роли: provider (поставщик/разработчик) и deployer (тот, кто внедряет/использует систему в реальном сервисе).​
Самая «дорогая» категория —
high‑risk AI (ИИ высокого риска): это системы, которые потенциально могут повлиять на безопасность и права людей, и для них вводятся расширенные требования (управление рисками, контроль качества данных, документация, надзор человеком и т.п.).​

Пример “по бизнесу”: если компания использует ИИ, чтобы отсеивать кандидатов или оценивать людей в чувствительных контекстах, в ЕС это почти наверняка будет рассматриваться как зона повышенной ответственности и проверок.​

Словарь на 30 секунд (чтобы не путаться)

  • AI Act — закон ЕС, который регулирует ИИ по уровню риска.​
  • GPAI (General‑Purpose AI) — «ИИ общего назначения»: базовые модели/платформы, которые можно использовать для разных задач (чат‑боты, генерация, анализ).​
  • High‑risk AI — системы ИИ, где ошибка/злоупотребление может серьёзно повлиять на людей; для них — самые строгие требования.​
  • Deepfake — искусственно созданное/изменённое изображение/видео/аудио, которое выглядит «как настоящее».​

Почему это важно, даже если вы живёте не в ЕС (и что может прийти в Россию)

Крупные компании редко делают две полностью разные версии продуктов: «строго для Европы» и «всё можно для остальных». Поэтому европейские правила часто становятся глобальным стандартом по умолчанию: меняются интерфейсы, добавляются пометки, переписываются политики, вводятся ограничения на функции.​
Для России это может проявиться так:

  • В приложениях и сервисах международных компаний может стать больше ограничений на «серые» AI‑фичи (например, биометрию/эмоции/автосортировку людей) и больше обязательных пометок AI‑контента — даже если вы используете сервисы вне ЕС.​
  • Российский рынок регулирования может взять идеи «риск‑подхода» и прозрачности как основу для будущих правил (как это уже было с другими цифровыми регуляторными практиками).​
  • Бизнесу, который работает с европейскими клиентами или продаёт софт/устройства в ЕС, придётся подтягивать документацию, процессы и ответственность — и эти же практики часто потом становятся «корпоративным стандартом» и для проектов в РФ.