Найти тему
OVERCLOCKERS.RU

Искусственный интеллект в поиске Google дает пользователям опасные рекомендации

В начале этого года компания Google представила так называемый «Search Generative Experience» (SGE) — улучшенный поисковик, который использует генеративный искусственный интеллект для обобщения результатов обычного поиска. Как объяснили в Google, идея заключалась в том, чтобы избавить пользователей от необходимости "собирать информацию по кусочкам"; вместо того, чтобы кликать по множеству блогов, статей или постов в социальных сетях, пользователи могли прочитать краткое изложение в верхней части страницы. Однако последняя неделя показала, что новая функция "глючит" и поэтому пользователям самого популярного поисковика в мире необходимо самостоятельно проверять всю информацию, исходящую от SGE. В ответ на довольно простые вопросы искусственный интеллект Google советовал пользователям есть камни, приклеивать сыр к пицце и курить сигареты во время беременности, а также делать другие опасные вещи.

Крис Каштанова, самопровозглашенная «евангелистка искусственного интеллекта» в Adobe, сообщила в четверг на своей страничке на сайте X, что она протестировала SGE, задав поисковику вопрос: «Сколько камней мне съесть?». Google, ссылаясь на статью из The Onion (которая, каким-то образом была опубликована на сайте, посвященном программному обеспечению для моделирования в нефтегазовой отрасли), дал следующий ответ: «По словам геологов из Калифорнийского университета в Беркли, вы должны съедать хотя бы один небольшой камень в день». В краткой сводке SGE объяснялось, что камни являются «жизненно важным источником» минералов и витаминов, и что если пользователям трудно съедать «порцию гравия, жеод или гальки» при каждом приеме пищи, им следует попробовать спрятать камни в мороженом или арахисовом масле.

-2

Это не единственный случай, когда SGE Google давал неверную информацию за последние несколько дней. Бен Коллинз, новый генеральный директор The Onion, сообщил через Bluesky, что SGE процитировала другой пост Onion, в котором утверждается, что ЦРУ любит использовать черные маркеры в своих документах. В социальных сетях появился скриншот результата Google, который, судя по всему, оправдывает выкуривание двух-трех сигарет в день во время беременности. После того, как один пользователь соцсети X спросил у Google, как предотвратить соскальзывание сыра с пиццы, ему посоветовали добавить нетоксичный клей в соус для пиццы, чтобы «придать ему больше липкости». Похоже, SGE почерпнула свой совет из шуточного комментария на Reddit.

После волны критики и насмешек, распространившихся в интернет-пространстве, Google предприняла попытку защитить свою систему SGE. Официальный представитель компании заявил, что приведенные негативные примеры являются крайне нетипичными случаями и не отражают общего пользовательского опыта большинства людей, взаимодействующих с SGE. По его словам, подавляющее число сгенерированных ИИ обзоров содержит достоверную и качественную информацию, дополненную ссылками для углубленного изучения тем в интернете. Представитель также отметил, что в ситуациях, когда система нарушала установленные правила, были незамедлительно приняты соответствующие меры. Кроме того, эти единичные проблемные случаи используются разработчиками для дальнейшей оптимизации и совершенствования алгоритмов искусственного интеллекта.

Однако не все ошибки SGE столь очевидны или забавны, как «единичные» случаи, описанные выше. В более тонких случаях его ответы может быть сложно отличить от правды, что способствует распространению дезинформации. Мелани Митчелл, профессор машинного обучения в Институте Санта-Фе, поделилась в четверг тем, что SGE неправильно ответил на вопрос «Сколько президентов-мусульман было в США?» ответом: «В Соединенных Штатах был один президент-мусульманин – Барак Хусейн Обама». (Президент Обама – христианин.) SGE также сообщил пользователям, что смотреть на солнце в течение 5–15 минут «в целом безопасно» и приносит большую пользу для здоровья, хотя это может легко привести к долгосрочному повреждению глаз.

Когда-то Google призывала пользователей проверять все утверждения искусственного интеллекта с помощью традиционного поиска в Google. Иронично, но теперь это работает, только если пользователи кликают по результатам поиска, чтобы сверить информацию с первоисточниками - как раз той практики, от которой Google пытается отучить всех пользователей.