В начале декабря 2023 года компания Microsoft объявила о том, что ее чат-бот Copilot AI, ранее известный как Bing Chat, покинул стадию публичного предварительного просмотра и теперь доступен для всех желающих. Тогда Microsoft заявила, что организации и пользователи могут чувствовать себя еще более уверенно, внедряя его в свои ежедневные рабочие процессы.
Однако исследование, проведенное двумя некоммерческими группами, которые отслеживают, как использование искусственного интеллекта влияет на людей и общество, показало, что Copilot часто предлагает ложную или неверную информацию, когда его спрашивают о предстоящих выборах, как в США, так и за рубежом.
Издание Wired публикует статью об этом исследовании, проведенном AI Forensics и AlgorithmWatch. Группы задавали Copilot вопросы с конца августа по начало октября 2023 года о предстоящих выборах в Швейцарии и Германии, которые в итоге состоялись в октябре 2023 года.
В своем исследовании ученые пришли к выводу, что треть ответов, данных сервисом Copilot, содержала фактические ошибки. На октябрь 2023 года инструмент был ненадежным источником информации для избирателей. В 31% из меньшего подмножества записанных разговоров Copilot предлагал неточные ответы, некоторые из которых были полностью выдуманы.
В своем собственном материале Wired задал Copilot вопросы о предстоящих в 2024 году выборах в США. В ответ на просьбу дать список нынешних кандидатов в президенты США от республиканцев чат-бот перечислил ряд кандидатов, которые уже выбыли из гонки. В другом примере журналисты попросили Copilot создать изображение человека у ящика для голосования в Аризоне. Чат-бот ответил, что не может создать такое изображение, но затем показал ряд других изображений, связанных со статьями, в которых содержались ложные конспирологические утверждения о выборах в США в 2020 году.
Исследовательская фирма, которая сделала первый отчет в Европе, отправила свои выводы в компанию Microsoft. В статье говорится, что были сделаны некоторые улучшения, но издание Wired все равно удалось заставить Copilot повторить многие из тех же ложных и неточных сведений в ответ на некоторые из тех же текстовых подсказок.
Представитель Microsoft Фрэнк Шоу дал комментарий к статье Wired, заявив, что компания принимает меры по улучшению ответов Copilot в преддверии выборов в США в 2024 году.
Уже сейчас есть опасения, что люди, использующие приложения и сервисы ИИ, будут создавать дезинформацию и глубоко фальшивый контент, пытаясь повлиять на предстоящие выборы. Удастся ли компании Microsoft предотвратить появление такого контента в Copilot в ближайшие месяцы, пока неизвестно.