Найти тему
wexeling-bb (wbb)

Сотни изображений сексуального насилия над детьми обнаружены в наборе данных искусственного интеллекта

"Более тысячи изображений с материалом о сексуальном насилии над детьми были обнаружены в огромном общедоступном наборе данных, используемом для обучения популярных моделей искусственного интеллекта, генерирующих изображения" - сообщили исследователи Стэнфордской интернет-обсерватории в исследовании, опубликованном ранее на этой неделе.

Присутствие этих изображений в обучающих системах может облегчить моделям ИИ создание новых и реалистичных изображений, генерируемых ИИ, с контентом о жестоком обращении с детьми или «дипфейковых» изображений эксплуатации детей.

Полученные результаты также вызывают множество новых опасений, связанных с непрозрачностью обучающих данных, которые служат основой для нового поколения мощных инструментов искусственного интеллекта.

Огромный набор данных, который изучили исследователи из Стэнфорда, известный как LAION 5B, содержит миллиарды изображений, полученных из Интернета, в том числе из социальных сетей и сайтов для взрослых.

Исследователи из Стэнфорда заявили, что из более чем пяти миллиардов изображений в наборе данных они выявили как минимум 1008 случаев материалов о сексуальном насилии над детьми.

-2

LAION, немецкая некоммерческая организация, стоящая за набором данных, в заявлении на своем веб-сайте заявила, что проводит «политику нулевой терпимости к незаконному контенту».

В организации заявили, что получили копию отчета из Стэнфорда и сейчас оценивают его выводы. Они также отметили, что наборы данных проходят «интенсивную фильтрацию», чтобы гарантировать их безопасность и соответствие закону.

«Из соображений предосторожности мы отключили LAION 5B», — добавили в организации, заявив, что сотрудничают с базирующейся в Великобритании организацией Internet Watch Foundation, «чтобы найти и удалить ссылки, которые все еще могут указывать на подозрительный, потенциально незаконный контент в общедоступных источниках в сети».

LAION заявила, что планирует завершить полную проверку безопасности LAION 5B ко второй половине января и планирует к этому же времени повторно опубликовать набор данных.

Тем временем команда из Стэнфорда заявила, что в настоящее время происходит удаление идентифицированных изображений после того, как исследователи сообщили URL-адреса изображений в Национальный центр по делам пропавших и эксплуатируемых детей и в Канадский центр защиты детей.

В отчете исследователи заявили, что, хотя разработчики LAION 5B действительно пытались фильтровать определенный откровенный контент, более ранняя версия популярной модели генерации изображений Stable Diffusion в конечном итоге была обучена «широкому спектру контента, как откровенного, так и иного».

Представитель Stability AI, лондонского стартапа, стоящего за Stable Diffusion, сообщил CNN в заявлении, что более ранняя версия, Stable Diffusion 1.5, была выпущена отдельной компанией, а не Stability AI.

И исследователи из Стэнфорда отмечают, что Stable Diffusion 2.0 в значительной степени отфильтровывал результаты, которые считались небезопасными, и в результате в обучающем наборе практически не было явного материала или вообще не было его.

«Этот отчет посвящен набору данных LAION-5b в целом», — заявил CNN представитель Stability AI — «Модели стабильности ИИ были обучены на отфильтрованном подмножестве этого набора данных. Кроме того, впоследствии мы доработали эти модели, чтобы смягчить остаточное поведение».

Представитель добавил, что Stability AI размещает только версии Stable Diffusion, которые включают фильтры, удаляющие небезопасный контент из доступа к моделям.

«Удаляя этот контент до того, как он попадет в модель, мы можем помочь предотвратить создание небезопасного контента», — сказал представитель, добавив, что компания запрещает использование своих продуктов для незаконной деятельности.

Но исследователи из Стэнфорда отмечают в своем отчете, что Stable Diffusion 1.5, которая до сих пор используется в некоторых уголках Интернета, остается «самой популярной моделью для создания откровенных изображений».

В рамках своих рекомендаций исследователи заявили, что модели, основанные на Stable Diffusion 1.5, следует «устареть, а распространение прекратить, где это возможно».

В более широком смысле, в Стэнфордском отчете говорится, что массивные наборы данных в веб-масштабе являются весьма проблематичными по ряду причин, даже с учетом попыток безопасной фильтрации, из-за возможного включения в них не только материалов о сексуальном насилии над детьми, но также из-за других вопросов конфиденциальности и авторских прав. проблемы, возникающие в результате их использования.

В отчете рекомендуется ограничить такие наборы данных «только исследовательскими настройками» и использовать только «более тщательно подобранные наборы данных с хорошими источниками» для публично распространяемых моделей.