Добавить в корзинуПозвонить
Найти в Дзене
Просто о важном

В России могут ввести штрафы за создание и распространение фейковых видео, сгенерированных нейросетями

Соответствующая инициатива уже направлена на рассмотрение в Минцифры, сообщает телеграм-канал SHOT со ссылкой на депутата Госдумы Амира Хамитова. Парламентарий выступил с предложением ввести административную ответственность для граждан, которые злонамеренно распространяют созданные искусственным интеллектом ролики, выдавая их за подлинные события. Ключевым условием для применения наказания должно стать доказанное намерение автора ввести зрителей в заблуждение, если эти действия привели к негативным последствиям. В качестве примеров такого контента приводятся фейковые видео с якобы реальными авариями и другим шок-контентом, на бесполезную проверку которого правоохранительные и другие экстренные службы тратят время и бюджетные деньги. Нейросеть Sora 2, представленная компанией OpenAI в конце сентября 2025 года, совершила качественный скачок в генерации видео. Она позволяет создавать короткие видеоролики кинематографического качества по текстовому запросу, а также с использованием изо
Оглавление

Соответствующая инициатива уже направлена на рассмотрение в Минцифры, сообщает телеграм-канал SHOT со ссылкой на депутата Госдумы Амира Хамитова.

💡 Суть законодательной инициативы

Парламентарий выступил с предложением ввести административную ответственность для граждан, которые злонамеренно распространяют созданные искусственным интеллектом ролики, выдавая их за подлинные события. Ключевым условием для применения наказания должно стать доказанное намерение автора ввести зрителей в заблуждение, если эти действия привели к негативным последствиям. В качестве примеров такого контента приводятся фейковые видео с якобы реальными авариями и другим шок-контентом, на бесполезную проверку которого правоохранительные и другие экстренные службы тратят время и бюджетные деньги.

  • Предполагаемое наказание: За подобное нарушение предлагается ввести штраф в размере от 1 до 5 тысяч рублей.
  • Ключевой критерий: Наказание будет применяться не за сам факт создания видео, а за злонамеренное распространение с целью выдать вымысел за правду.

🤖 Почему Sora 2 вызвала такую реакцию

Нейросеть Sora 2, представленная компанией OpenAI в конце сентября 2025 года, совершила качественный скачок в генерации видео. Она позволяет создавать короткие видеоролики кинематографического качества по текстовому запросу, а также с использованием изображений. Реалиism генерируемого контента достиг невиданного ранее уровня — система достаточно точно имитирует законы физики и реального мира.

Главную опасность, по мнению экспертов, представляет функция «Камео» (Cameos), которая позволяет по фотографии или короткому видео вставить в ролик лицо и голос любого человека. Это открывает безграничные возможности для создания дипфейков. Приложение уже способно генерировать видео с участием детей, давно умерших знаменитостей и даже защищенных авторским правом персонажей. Хотя система автоматически ставит на видео видимые и невидимые метки о его ИИ-происхождении, на практике эти водяные знаки многие пользователи легко удаляют.

🚨 Риски и реальные последствия

Высокое качество видео, которое генерирует Sora 2, стирает границы между правдой и вымыслом и ставит под угрозу доверие ко всему, что люди видят на экране. До недавнего времени видеозапись считалась одним из самых надежных доказательств, но теперь эта уверенность исчезает.

  • Влияние на общество: Реалистичные фейковые ролики могут обострять социальные конфликты, становиться инструментом обмана потребителей, влиять на результаты выборов и приводить к обвинению невинных людей в преступлениях, которых они не совершали.
  • Статистика угроз: Количество создаваемых дипфейков в России стремительно растет. С начала 2025 года в Рунете выявлено в 4,1 раза больше подобных видео, чем за весь 2024 год. Причем наибольшее число видеофейков создается от лица глав российских регионов.