Добавить в корзинуПозвонить
Найти в Дзене
На западе

В США очередная паника - Россия и Китай использовали ИИ для манипулирования общественным мнением по всему миру

Вот такая вот замечательная заметка появилась сегодня в Нью-Йорк Таймс. Давайте насладимся очередной американской истерикой: "OpenAI заявила в четверг, что она выявила и сорвала пять онлайн-кампаний, которые использовали ее генерирующие технологии искусственного интеллекта для обманного манипулирования общественным мнением по всему миру и влияния на геополитику.
Этими усилиями руководили государственные структуры и частные компании в России и Китае, говорится в отчете OpenAI о тайных кампаниях влияния. В операциях использовалась технология OpenAI для создания публикаций в социальных сетях, перевода и редактирования статей, написания заголовков и отладки компьютерных программ, как правило, для того, чтобы заручиться поддержкой политических кампаний или повлиять на общественное мнение в геополитических конфликтах. По словам исследователей социальных сетей, отчет OpenAI — это первый случай, когда крупная компания, занимающаяся искусственным интеллектом, раскрыла, как ее конкретные инстру

Вот такая вот замечательная заметка появилась сегодня в Нью-Йорк Таймс. Давайте насладимся очередной американской истерикой:

"OpenAI заявила в четверг, что она выявила и сорвала пять онлайн-кампаний, которые использовали ее генерирующие технологии искусственного интеллекта для обманного манипулирования общественным мнением по всему миру и влияния на геополитику.

Этими усилиями руководили государственные структуры и частные компании в России и Китае, говорится в отчете OpenAI о тайных кампаниях влияния. В операциях использовалась технология OpenAI для создания публикаций в социальных сетях, перевода и редактирования статей, написания заголовков и отладки компьютерных программ, как правило, для того, чтобы заручиться поддержкой политических кампаний или повлиять на общественное мнение в геополитических конфликтах.

По словам исследователей социальных сетей, отчет OpenAI — это первый случай, когда крупная компания, занимающаяся искусственным интеллектом, раскрыла, как ее конкретные инструменты использовались для такого онлайн-обмана. Недавний рост генеративного искусственного интеллекта поднял вопросы о том, как эта технология может способствовать онлайн-дезинформации , особенно в год, когда по всему миру проходят крупные выборы.

Бен Ниммо, главный исследователь OpenAI, сказал, что после всех спекуляций об использовании генеративного ИИ в таких кампаниях компания стремилась показать реальность того, как технология меняет онлайн-обман.

«Наши тематические исследования содержат примеры некоторых из наиболее широко освещаемых и самых продолжительных кампаний влияния, которые активны в настоящее время», — сказал он.

По словам г-на Ниммо, в кампаниях часто использовалась технология OpenAI для публикации политического контента, но компании было трудно определить, нацелены ли они на конкретные выборы или просто раздражают людей. Он добавил, что кампании не получили большого успеха и что инструменты искусственного интеллекта, похоже, не расширили свой охват или влияние.

«Эти операции по оказанию влияния до сих пор не могут привлечь аудиторию», — сказал г-н Ниммо.

Но Грэм Бруки, старший директор Лаборатории цифровых криминалистических исследований Атлантического совета, предупредил, что ландшафт онлайн-дезинформации может измениться по мере того, как технологии генеративного искусственного интеллекта становятся все более мощными. На этой неделе компания OpenAI, создающая чат-бот ChatGPT, заявила, что начала обучение новой флагманской модели искусственного интеллекта , которая обеспечит «следующий уровень возможностей».

«Это новый тип инструмента», — сказал г-н Бруки. «Пока неизвестно, какой эффект это окажет».

(The New York Times подала в суд на OpenAI и ее партнера Microsoft, заявив о нарушении авторских прав на новостной контент, связанный с системами искусственного интеллекта.)

Подобно Google, Meta и Microsoft, OpenAI предлагает онлайн-чат-ботов и другие инструменты искусственного интеллекта, которые могут писать сообщения в социальных сетях, создавать фотореалистичные изображения и писать компьютерные программы. В своем отчете компания сообщила, что ее инструменты использовались в кампаниях влияния, которые исследователи отслеживали в течение многих лет, включая российскую кампанию под названием Doppelganger и китайскую кампанию под названием Spamouflage.

Кампания Doppelganger использовала технологию OpenAI для создания антиукраинских комментариев, которые были опубликованы на X на английском, французском, немецком, итальянском и польском языках, сообщает OpenAI. Инструменты компании также использовались для перевода и редактирования статей, поддерживающих Россию в войне на Украине, на английский и французский языки, а также для конвертации антиукраинских новостных статей в посты в Facebook.

Инструменты OpenAI также использовались в ранее неизвестной российской кампании, нацеленной на людей в Украине, Молдове, странах Балтии и США, в основном через службу обмена сообщениями Telegram, сообщила компания. Кампания использовала искусственный интеллект для генерации комментариев на русском и английском языках о войне в Украине, а также о политической ситуации в Молдавии и американской политике. В рамках проекта также использовались инструменты OpenAI для отладки компьютерного кода, который, очевидно, был разработан для автоматической публикации информации в Telegram.

По словам OpenAI, компания Spamouflage, которую долгое время приписывали Китаю, использовала технологию OpenAI для отладки кода, получения советов по анализу социальных сетей и исследованиям текущих событий. Его инструменты также использовались для создания в социальных сетях постов, унижающих людей, критиковавших китайское правительство.

«Это говорит о том, что некоторые из наших самых больших опасений по поводу операций влияния с помощью ИИ и дезинформации с помощью ИИ еще не материализовались», — сказал Джек Стаббс, главный офицер разведки компании Graphika, которая отслеживает манипулирование службами социальных сетей и проанализировала выводы OpenAI".