Найти тему
Станислав Кудж

Контент, созданный с помощью нейросетей, нужно обеспечить специальной маркировкой

С таким предложением РТУ МИРЭА обратился к Минцифрам России.

Оно основано на исследовании, которое выявило рейтинг опасностей нейросетей. На первое место опрошенные эксперты вынесли возможный рост киберпреступности. Сегодня искусственный интеллект развивается и совершенствуется весьма стремительно, используется не только в рабочих, но и в развлекательных целях, как следствие охват персональных данных пользователей растет с каждым днем, увеличивается опасность для их сохранности.

Исследователи университета предлагают сработать на опережение и уже сейчас ввести дополнительные меры контроля за развитием нейросетей, которые в скором будущем смогут взламывать защиту компьютерных программ оперативнее и грамотнее хакеров. Пострадать от их действий могут не только рядовые пользователи, но и крупнейшие секторы российской экономики.

Фото: нейросеть Midjourney
Фото: нейросеть Midjourney

Чтобы этого не произошло, РТУ МИРЭА выступил с несколькими предложениями:

  • Закрепить обязательную маркировку контента, созданного с помощью искусственного интеллекта, специальным графическим знаком в рамках федерального проекта «Искусственный интеллект» национальной программы «Цифровая экономика» и предусмотреть разработку соответствующего постановления правительства Российской Федерации;
  • Подготовить и утвердить программу защиты критически важной инфраструктуры от возможных кибератак с использованием нейросетей;
  • Ввести в приказ Минцифры России от 21.12.2020 № 734 «Об определении угроз безопасности персональных данных» отдельным пунктом угрозы несанкционированного доступа к персональным данным людей без соответствующих полномочий в информационных системах и дальнейшего их использования с применением нейросетей.

С подпиской рекламы не будет

Подключите Дзен Про за 159 ₽ в месяц