Добавить в корзинуПозвонить
Найти в Дзене
Minsknews.by

ЮНИСЕФ призвал запретить контент с ИИ, изображающий сексуальное насилие над детьми

Детский фонд Организации Объединенных Наций (ЮНИСЕФ) призвал криминализировать создание контента с сексуальным насилием над детьми с помощью искусственного интеллекта, сообщает корреспондент агентства «Минск-Новости» со ссылкой на Reuters. ЮНИСЕФ также призвал разработчиков внедрять безопасные подходы и защитные механизмы, чтобы предотвратить неправомерное использование моделей ИИ. В фонде отметили, что цифровым компаниям необходимо усилить модерацию контента и инвестировать в улучшенные технологии обнаружения изображений, нарушающих законодательство. — Вред от использования дипфейков (созданных ИИ изображений, видео и аудио, правдоподобно изображающих реальных людей. — Прим. авт.) для насилия реален и требует немедленных действий. Дети не могут ждать, пока закон догонит реальность, — заявили в фонде. Также было указано на применение ИИ для редактирования фотографий: программа может убирать с людей одежду, формируя тем самым поддельные обнаженные или сексуализированные снимки. По данны

Детский фонд Организации Объединенных Наций (ЮНИСЕФ) призвал криминализировать создание контента с сексуальным насилием над детьми с помощью искусственного интеллекта, сообщает корреспондент агентства «Минск-Новости» со ссылкой на Reuters.

-2

ЮНИСЕФ также призвал разработчиков внедрять безопасные подходы и защитные механизмы, чтобы предотвратить неправомерное использование моделей ИИ. В фонде отметили, что цифровым компаниям необходимо усилить модерацию контента и инвестировать в улучшенные технологии обнаружения изображений, нарушающих законодательство.

Вред от использования дипфейков (созданных ИИ изображений, видео и аудио, правдоподобно изображающих реальных людей. — Прим. авт.) для насилия реален и требует немедленных действий. Дети не могут ждать, пока закон догонит реальность, — заявили в фонде.

Также было указано на применение ИИ для редактирования фотографий: программа может убирать с людей одежду, формируя тем самым поддельные обнаженные или сексуализированные снимки. По данным ЮНИСЕФ, как минимум 1,2 млн детей в 11 странах за последний год заявили, что их изображения были преобразованы в сексуально откровенные дипфейки.

Генеральный секретарь ООН Антониу Гутерриш ранее сообщал, что предложил кандидатуры 40 человек для работы в Независимой международной научной группе по искусственному интеллекту, целью которой является обеспечение использования ИИ на благо человечества.

А. Гутерриш заявил, что группа, которая объединяет людей из 37 стран, обладает глубокими знаниями в области машинного обучения, управления данными, общественного здравоохранения, кибербезопасности и прав человека.

Нам нужны общие понимания для создания эффективных защитных механизмов, внедрения инноваций на общее благо и содействия сотрудничеству, — добавил генеральный секретарь ООН.

Напомним, что Европейская комиссия уже начала новое расследование в отношении компании X и ее чат-бота с ИИ — Grok. Поводом стали опасения, что инструмент может использоваться для генерации в Евросоюзе незаконного контента, включая откровенные изображения и материалы, связанные с насилием над детьми.