Найти в Дзене
SON AI studio

Свобода генерации закончилась?

Верховный суд России признал незаконным использование нейросетей для создания образов людей в агитации на выборах. Речь про ИИ-сгенерированные изображения в политической рекламе. И это решение уже подтверждено в кассации. На первый взгляд — новость из политической ленты. Но если работаешь с ИИ, это гораздо шире. Я разберу, что именно произошло, почему это важно не только для выборов и какие выводы я для себя сделал. Суть простая: использование нейросетей для создания образов людей в агитационных материалах признано незаконным. Не “ИИ в целом”, не “картинки вообще”, а конкретно — создание образов людей с помощью нейросетей в рамках избирательной агитации. Это важно. Потому что речь не о теоретическом обсуждении, а о судебном решении на уровне Верховного суда. Сделали X → получили Y: Использовали ИИ для создания образа человека в агитации → суд признал это незаконным. Сам по себе инструмент нейросети никуда не делся. Но контекст — политическая реклама — оказался критичным. И вот тут для
Оглавление

Верховный суд России признал незаконным использование нейросетей для создания образов людей в агитации на выборах. Речь про ИИ-сгенерированные изображения в политической рекламе. И это решение уже подтверждено в кассации.

На первый взгляд — новость из политической ленты. Но если работаешь с ИИ, это гораздо шире. Я разберу, что именно произошло, почему это важно не только для выборов и какие выводы я для себя сделал.

Что вообще произошло

Суть простая: использование нейросетей для создания образов людей в агитационных материалах признано незаконным.

Не “ИИ в целом”, не “картинки вообще”, а конкретно — создание образов людей с помощью нейросетей в рамках избирательной агитации.

Это важно. Потому что речь не о теоретическом обсуждении, а о судебном решении на уровне Верховного суда.

Почему это не просто частный случай

Сделали X → получили Y:

Использовали ИИ для создания образа человека в агитации → суд признал это незаконным.

Сам по себе инструмент нейросети никуда не делся. Но контекст — политическая реклама — оказался критичным.

И вот тут для меня начинается самое интересное. Потому что это уже не история “кто-то переборщил с креативом”. Это история про границы применения технологии.

Небольшое личное наблюдение

Когда работаешь с ИИ, очень легко впасть в режим “если можно технически — значит можно вообще”.

Но практика показывает обратное. Закон и регуляция догоняют технологии. Иногда медленно, иногда резко — как в этом случае.

Я вообще регулярно разбираю кейсы внедрения AI в разных сферах — от бизнеса до маркетинга. И почти в каждом есть момент: “Вот здесь не учли контекст — и получили проблему”.

Если вам интересно смотреть на ИИ не как на хайп, а как на инструмент с плюсами и ограничениями, я собрал большую подборку кейсов внедрения AI и честных обзоров платформ — в формате “стоит пользоваться или нет”. Без фанатизма и без розовых очков.

Там можно увидеть реальные сценарии применения и понять, где подводные камни.

Вот ссылка:
https://t.me/turing23_bot?start=dz

Это сильно экономит время, особенно если вы только начинаете разбираться в теме.

В чём логика запрета

Если упростить, картина выглядит так:

  1. В агитации используются образы людей.
  2. Образы влияют на восприятие избирателей.
  3. Нейросеть может создавать изображения людей, которых не существует.
  4. Это создаёт риск искажения восприятия.

Сделали ИИ-образ → аудитория воспринимает его как реальный → формируется мнение.

Вот эта связка и стала критичной.

Суд фактически обозначил: в такой чувствительной сфере, как выборы, риск манипуляции недопустим.

Где проходит опасная грань

Самый тонкий момент — доверие.

Когда человек видит фотографию или портрет, он по умолчанию склонен считать, что перед ним реальный человек. Нейросети эту “базовую установку доверия” ломают.

Если это использовать в политической рекламе — последствия могут быть серьёзными.

Важно: речь не о запрете ИИ вообще. Речь о конкретной сфере, где цена ошибки слишком высока.

Что это меняет для тех, кто работает с ИИ

Если честно — многое.

Раньше логика была простой:

Сделали красивый ИИ-контент → разместили → получили внимание.

Теперь добавляется обязательный шаг:

Сделали ИИ-контент → проверили юридические и репутационные риски → только потом используем.

Особенно если проект связан с:

  • политикой,
  • общественно значимыми темами,
  • публичными фигурами,
  • созданием образов людей.

Техническая возможность ≠ юридическая допустимость.

И этот кейс — чёткое напоминание об этом.

Где можно ошибиться

Самая частая ловушка — думать, что это “про политику, а меня не касается”.

Но механизм уже запущен. Появилась судебная практика. А значит, дальше могут появляться точечные ограничения и в других чувствительных зонах.

Не учли регуляцию → упёрлись в запрет.

Не подумали о последствиях → получили репутационный удар.

Это не паника. Это реальность взрослеющего рынка.

Как бы я действовал сейчас

Если коротко — добавил бы в любой проект с ИИ три проверки:

  1. Где будет использоваться результат?
  2. Может ли он повлиять на общественное мнение?
  3. Не создаёт ли он вводящий в заблуждение образ?

Это не про страх. Это про стратегию.

ИИ — мощный инструмент. Но чем мощнее инструмент, тем выше ответственность.

Что это значит в долгую

На мой взгляд (оценка), мы увидим:

  • больше конкретных ограничений в чувствительных сферах;
  • формирование правоприменительной практики по ИИ;
  • рост требований к прозрачности цифрового контента.

Нейросети уже перестали быть “игрушкой для дизайнеров”. Это инструмент, который реально влияет на людей.

И государство это зафиксировало на уровне судебного решения.

Выводы, которые я для себя забрал

  • ИИ — не вне закона.
  • Политика — зона повышенного контроля.
  • Создание образов людей нейросетями — отдельный риск.
  • Контекст использования важнее самого инструмента.
  • Регулирование ИИ уже начинается.
  • Игнорировать юридические рамки — плохая стратегия.
  • Чем выше общественная значимость темы, тем жёстче требования.

Если вам интересно глубже разбираться в реальных сценариях применения AI — без иллюзий и без “успешного успеха”, — я собрал подборку практических кейсов и обзоров платформ. Там можно посмотреть, как именно внедряют AI в процессы, где это даёт эффект, а где больше шума. Плюс — честные разборы сервисов в формате “использовать или не стоит”.

Вот ссылка:
https://t.me/turing23_bot?start=dz

Это хороший способ понимать не только возможности нейросетей, но и их ограничения — чтобы не наступать на чужие грабли.