Найти тему
Актуальные комментарии

Дипфейки в период предвыборных кампаний: меры регулирования

Дипфейки с политиками несут опасность только в период предвыборных кампаний, поэтому, чтобы снизить риски, связанные с использованием искусственного интеллекта, необходимо прежде всего вносить изменения в избирательное законодательство, а введение требования о маркировке контента, созданного генеративным ИИ, станет лишь дополнительным сдерживающим фактором распространения дипфейков. Такого мнения придерживается старший научный сотрудник American Enterprise Institute Бронвин Хауэлл.

Основной проблемой ИИ является информационная асимметрия. Потребитель контента, созданного ИИ, не знает, является ли этот контент фактическим представлением или цифровой манипуляцией, но об этом знает тот, кто этот контент опубликовал. Эксперт AEI утверждает — в связи с этим требуется явна маркировка контента, созданного ИИ.

Существуют как минимум две информационные асимметрии: одна касается создания контента, а другая — намерений создателя. Потенциальный вред исходит не конкретно от того, как был создан контент, а от мотивов его использования. Когда демонстрируемый контент (независимо от того, как он был создан) предназначен для обмана потребителя, тогда потребителю нужны способы отличить «фейковые новости».

Для контента, генерируемого искусственным интеллектом, его маркировка недостаточна, она даже не нужна, если не будет нанесен ущерб. В отношении предвыборной рекламы в большинстве юрисдикций уже существуют жесткие меры и штрафы. Платформенные средства контроля, требующие маркировки, сами по себе не будут достаточным сдерживающим фактором, поскольку их обман не потребует от создателя фейкового контента больших затрат, тогда как ужесточение наказаний за недостоверную рекламу, требование регистрации или предварительного одобрения онлайновой предвыборной рекламы станут сдерживающими факторами.
Подробности от АК:
https://actualcomment.ru/dipfeyki-v-period-predvybornykh-kampaniy-mery-regulirovaniya-2311141527.html