110 подписчиков
Обсуждая киберитоги президентских выборов, обратили внимание на интересный факт. Многочисленные прогнозы о том, что в ходе избирательной кампании будут широко использоваться технологии искусственного интеллекта, не сбылись. Да, были отдельные эпизоды, когда для агитации генерировали персональные видеоприглашения, но случаев применения таких технологий для введения в заблуждение или создания фейков мы не наблюдали. Впрочем это вопрос времени: учитывая, что ИИ-инструменты с каждым днем становятся всё доступнее, не сомневаюсь, что уже на следующих выборах мы можем столкнуться с их злонамеренным использованием.
Нужна ли в этом контексте единая платформа для выявления информации, сгенерированной нейросетями, идею которой сейчас прорабатывает Минцифры? Безусловно, да. Учитывая, что рабочие решения уже существуют (ранее об их создании заявляли АНО «Диалог Регионы», «Сбер» и НЦКР), министерству стоит изучить опыт их применения, оценить эффективность, чтобы использовать какую-то из них в качестве базы для будущей государственной платформы, а не разрабатывать её с нуля.
Более того, считаю необходимым внедрить в российские онлайн-сервисы механизм пользовательской маркировки ИИ-контента – как на днях это сделал YouTube. При публикации видео автор должен указывать, что к его созданию причастны генеративные технологии. На мой взгляд, это правильно и честно по отношению к своей аудитории. А дополнительную проверку уже можно будет производить при помощи единой платформы, к которой после её создания все российские сервисы, работающие с пользовательским контентом, должны быть подключены в обязательном порядке.
1 минута
22 марта