Распространение так называемых «диких» сплетен (feral gossip) через ботов с искусственным интеллектом становится всё более частым и всепроникающим явлением. Согласно новому исследованию, это грозит людям реальным репутационным ущербом, унижением, чувством стыда и тревожностью. Популярные чат-боты, вроде ChatGPT, Claude и Gemini, не просто совершают фактические ошибки или «галлюцинируют». Исследователи Джоэл Крюгер и Люси Ослер из Университета Эксетера пришли к выводу, что нейросети способны генерировать и распространять сплетни, дополняя их негативными оценочными суждениями и «пикантными» слухами, которые наносят реальный вред. В отличие от обычной дезинформации, такие сплетни содержат эмоционально окрашенные обвинения. Уже зафиксированы случаи, когда боты ложно приписывали людям участие во взяточничестве, хищениях и сексуальных домогательствах. Подобные вымышленные факты провоцируют социальную напряжённость и рушат карьеры. Угроза не является гипотетической. Ярким примером стал случ
ИИ научился распускать «дикие» сплетни, угрожающие репутации людей
2 дня назад2 дня назад
2 мин