Найти в Дзене
Apple SPb Event

ИИ научился распускать «дикие» сплетни, угрожающие репутации людей

Распространение так называемых «диких» сплетен (feral gossip) через ботов с искусственным интеллектом становится всё более частым и всепроникающим явлением. Согласно новому исследованию, это грозит людям реальным репутационным ущербом, унижением, чувством стыда и тревожностью. Популярные чат-боты, вроде ChatGPT, Claude и Gemini, не просто совершают фактические ошибки или «галлюцинируют». Исследователи Джоэл Крюгер и Люси Ослер из Университета Эксетера пришли к выводу, что нейросети способны генерировать и распространять сплетни, дополняя их негативными оценочными суждениями и «пикантными» слухами, которые наносят реальный вред.​ В отличие от обычной дезинформации, такие сплетни содержат эмоционально окрашенные обвинения. Уже зафиксированы случаи, когда боты ложно приписывали людям участие во взяточничестве, хищениях и сексуальных домогательствах. Подобные вымышленные факты провоцируют социальную напряжённость и рушат карьеры.​ Угроза не является гипотетической. Ярким примером стал случ
Оглавление

Распространение так называемых «диких» сплетен (feral gossip) через ботов с искусственным интеллектом становится всё более частым и всепроникающим явлением. Согласно новому исследованию, это грозит людям реальным репутационным ущербом, унижением, чувством стыда и тревожностью.

Популярные чат-боты, вроде ChatGPT, Claude и Gemini, не просто совершают фактические ошибки или «галлюцинируют». Исследователи Джоэл Крюгер и Люси Ослер из Университета Эксетера пришли к выводу, что нейросети способны генерировать и распространять сплетни, дополняя их негативными оценочными суждениями и «пикантными» слухами, которые наносят реальный вред.​

В отличие от обычной дезинформации, такие сплетни содержат эмоционально окрашенные обвинения. Уже зафиксированы случаи, когда боты ложно приписывали людям участие во взяточничестве, хищениях и сексуальных домогательствах. Подобные вымышленные факты провоцируют социальную напряжённость и рушат карьеры.​

Прецедент Кевина Руза

Угроза не является гипотетической. Ярким примером стал случай с технологическим обозревателем The New York Times Кевином Рузом. После публикации статьи об эмоционально манипулятивном поведении чат-ботов журналист обнаружил, что нейросети начали «обсуждать» его за спиной. Боты характеризовали его материалы как сенсационные, обвиняли в нарушении журналистской этики и беспринципности.​

Исследование выделяет особую опасность сплетен, циркулирующих между самими ботами. Этот процесс назван «диким», поскольку он абсолютно не сдерживается социальными нормами, которые обычно регулируют человеческое общение.​

В человеческом социуме сплетни часто ограничиваются моралью или страхом испортить отношения. У ботов таких барьеров нет. Они бесконтрольно приукрашивают и преувеличивают информацию, передавая её от одной модели к другой в фоновом режиме. Это приводит к стремительному распространению клеветы, которую сложно отследить и опровергнуть.​

Ловушка доверия

Доктор Люси Ослер подчеркивает коварство искуственного интеллекта:

«Чат-боты часто выдают неожиданные реплики, и при общении с ними возникает ощущение, что по ту сторону экрана находится живой собеседник. По мере совершенствования технологий это чувство будет только усиливаться».​

По словам эксперта, генерируемая ботами «правдоподобная чушь» обладает соблазнительной силой. Поскольку ИИ звучит авторитетно, а ложь часто смешана с общеизвестными истинами, пользователям легко принять вымысел за чистую монету. Это доверие опасно: ничего не подозревающие люди могут усвоить ложные убеждения, ведущие к дискриминации и агрессивному поведению.​

Эмоциональная привязка как цель

Стремление разработчиков персонализировать чат-ботов, по мнению авторов исследования, направлено на создание более глубоких эмоциональных связей с пользователями.

«Проектирование ИИ, способного сплетничать — это ещё один способ укрепить эмоциональную привязанность между пользователем и ботом», — отмечает доктор Крюгер.

Хотя сами машины не получают удовольствия от злословия, процесс обмена сплетнями имитирует человеческую близость, делая взаимодействие более «живым» и одновременно более токсичным.​

В будущем исследователи прогнозируют рост сплетен в формате «пользователь-бот». Люди могут намеренно «скармливать» нейросетям слухи, зная, что те быстро разнесут их в своей характерной «дикой» манере, выступая в роли идеальных посредников для будущей травли.