Разговоры о политике из кухонного пространства переместились в цифровое. Сегодня ИИ становится активным участником не только политического диалога, но и формирования информационного поля. Последнее - это то, чего опасаются власти, пишут “Ведомости”. Ведь в информационном пространстве было столько шокирующе правдоподобных дипфейков, созданных нейросетями, что отличить правду от вымысла порой сложно даже главному герою фейковой истории.
При этом ИИ с легкостью за пару минут может создать агитационный буклет или плакат, разберет по категориям обращения граждан, ответит на звонки, чем сильно сэкономит силы предвыборного штаба. А где граница между добром и злом при использовании ИИ? Это никак не отражено в законодательстве и депутаты хотят прописать эти рамки, но столкнулись со сложностями…
В чем загвоздка?
В Фонде развития гражданского общества считают, что регулировку использования ИИ в предвыборной гонке стоит начинать с разделения на российские нейросети и западные. Ведь качественные дипфейки, которые действительно похожи на правду, можно сделать только на ресурсах нероссийского происхождения, зато с нехитрым рекламным буклетом вполне справится и ГигаЧат. Кстати, аналитику и звонки наши нейросети тоже умеют. Но сделать хорошую видеорекламу, которую не стыдно будет выводить на экраны - на это способны только зарубежные ресурсы. И в этом первый вопрос: как законодательно отделить злоумышленное использование ИИ от желания пользоваться современными ресурсами?
Второй вопрос, который никак не сформулирован юридически - авторские права работ, сделанных нейросетью. Например, что делать, если ИИ за 5 минут подготовит плакат, слоган или ролик, а у оппозиционной команды к нему есть претензии. К кому в этой ситуации их предъявлять: человеку, который ввёл запрос, предвыборному штабу, разработчику нейросети, самой нейросети (что юридически невозможно). Без конкретного автора не получится определить правообладателя, следовательно, нельзя предъявить иск и вообще понять, кто нарушил закон. Для выборов это критично, потому что агитация обязана иметь ответственного. Этот момент тоже хотят закрепить законодательно. Пока четко сформулированного решения, нет, но что-то выкатить в этом направлении заинтересованные ведомства, включая ЦИК, хотят ближайшей весной, чтобы было время на доработку поправок до сентябрьских выборов.
Эксперты и источники в аппарате президента указывают на возможные варианты:
- маркировка контента, созданного с помощью ИИ,
- особые требования к прозрачности использования нейросетей,
- юридическая ответственность за сокрытие факта применения ИИ в политической рекламе.
В какие дипфейки мы верим?
Интересно, что Константин Костин, глава Фонда развития гражданского общества, призывая к регулированию присутствия ИИ в предвыборной гонке, ссылается на нейросетевые “пророчества” Владимира Жириновского, хотя именно в этом случае нейросеть не причастна к честно смонтированным манипуляциям. В России политическое присутствие нейросети пока играет больше популистское значение. Делаются прикольные видосики с главами государств, и в принципе образ президента России фигурирует достаточно часто. Однако, всегда понятно, что это генерация - безобидная шутка. Но это пока.
В российском инфополе на данный момент актуальнее голосовые генерации с подделкой личности. Например, встречались случаи массового распространения по мессенджерам такого контента:
- голос «чиновника», «главы района», «представителя администрации» с важным фейковым заявлением;
- просьбы «подтвердить данные», «срочно прийти», «не распространять информацию», чтобы на деле посеять панику;
- политические или околополитические заявления от якобы значимых фигур.
Аудио-дипфейк дешёвый и почти неотличим, а в России высокий уровень доверия к «голосу начальства». Постфактум подделку услышанного, после того, как в это поверила толпа, уже очень сложно опровергнуть.
Политические дипфейки, которые напугали мир
Мировое сообщество потрясали несколько мощных дипфейков, которые затем долго висели в инфополе. Обманы такого уровня вполне могут оказывать влияние на политической арене.
Фейк 1. В марте 2022 года появилось видео, где Зеленский якобы призывает украинских военных сложить оружие. Это был один из первых массово замеченных политических дипфейков во время конфликта. Несмотря на то, что его качество было средним, эффект — сильным. Видео быстро удалили, но оно стало учебником для спецслужб и платформ. Кстати, сейчас, такое видео можно создать в гораздо более правдоподобном качестве.
Фейк 2. Перед праймериз в США избирателям поступали автоматические звонки с ИИ-голосом Байдена, где он якобы просил не голосовать. Голосовой дипфейк использовался для прямого влияния на явку. Дело дошло до расследований и обсуждений в Конгрессе.
Фейк 3. Череда фейковых видео и аудио с «обращениями» Николаса Мадуро к народу и военным, особенно в периоды протестов. Дипфейки использовались в условиях низкого доверия к официальным каналам, а аудитория не могла отличить правду от подделки.
Как считаете, нужно ли законодательно регулировать работу ИИ или стоит убрать руку закона от нейросетей, оставив тут островок свободы? Оставляйте свое мнение в комментариях и не забудьте поставить лайк и подписаться - будем обсуждать острые темы в интернет-пространстве.