В начале этого года компания Google представила так называемый «Search Generative Experience» (SGE) — улучшенный поисковик, который использует генеративный искусственный интеллект для обобщения результатов обычного поиска. Как объяснили в Google, идея заключалась в том, чтобы избавить пользователей от необходимости "собирать информацию по кусочкам"; вместо того, чтобы кликать по множеству блогов, статей или постов в социальных сетях, пользователи могли прочитать краткое изложение в верхней части страницы. Однако последняя неделя показала, что новая функция "глючит" и поэтому пользователям самого популярного поисковика в мире необходимо самостоятельно проверять всю информацию, исходящую от SGE. В ответ на довольно простые вопросы искусственный интеллект Google советовал пользователям есть камни, приклеивать сыр к пицце и курить сигареты во время беременности, а также делать другие опасные вещи.
Крис Каштанова, самопровозглашенная «евангелистка искусственного интеллекта» в Adobe, сообщила в четверг на своей страничке на сайте X, что она протестировала SGE, задав поисковику вопрос: «Сколько камней мне съесть?». Google, ссылаясь на статью из The Onion (которая, каким-то образом была опубликована на сайте, посвященном программному обеспечению для моделирования в нефтегазовой отрасли), дал следующий ответ: «По словам геологов из Калифорнийского университета в Беркли, вы должны съедать хотя бы один небольшой камень в день». В краткой сводке SGE объяснялось, что камни являются «жизненно важным источником» минералов и витаминов, и что если пользователям трудно съедать «порцию гравия, жеод или гальки» при каждом приеме пищи, им следует попробовать спрятать камни в мороженом или арахисовом масле.
Это не единственный случай, когда SGE Google давал неверную информацию за последние несколько дней. Бен Коллинз, новый генеральный директор The Onion, сообщил через Bluesky, что SGE процитировала другой пост Onion, в котором утверждается, что ЦРУ любит использовать черные маркеры в своих документах. В социальных сетях появился скриншот результата Google, который, судя по всему, оправдывает выкуривание двух-трех сигарет в день во время беременности. После того, как один пользователь соцсети X спросил у Google, как предотвратить соскальзывание сыра с пиццы, ему посоветовали добавить нетоксичный клей в соус для пиццы, чтобы «придать ему больше липкости». Похоже, SGE почерпнула свой совет из шуточного комментария на Reddit.
После волны критики и насмешек, распространившихся в интернет-пространстве, Google предприняла попытку защитить свою систему SGE. Официальный представитель компании заявил, что приведенные негативные примеры являются крайне нетипичными случаями и не отражают общего пользовательского опыта большинства людей, взаимодействующих с SGE. По его словам, подавляющее число сгенерированных ИИ обзоров содержит достоверную и качественную информацию, дополненную ссылками для углубленного изучения тем в интернете. Представитель также отметил, что в ситуациях, когда система нарушала установленные правила, были незамедлительно приняты соответствующие меры. Кроме того, эти единичные проблемные случаи используются разработчиками для дальнейшей оптимизации и совершенствования алгоритмов искусственного интеллекта.
Однако не все ошибки SGE столь очевидны или забавны, как «единичные» случаи, описанные выше. В более тонких случаях его ответы может быть сложно отличить от правды, что способствует распространению дезинформации. Мелани Митчелл, профессор машинного обучения в Институте Санта-Фе, поделилась в четверг тем, что SGE неправильно ответил на вопрос «Сколько президентов-мусульман было в США?» ответом: «В Соединенных Штатах был один президент-мусульманин – Барак Хусейн Обама». (Президент Обама – христианин.) SGE также сообщил пользователям, что смотреть на солнце в течение 5–15 минут «в целом безопасно» и приносит большую пользу для здоровья, хотя это может легко привести к долгосрочному повреждению глаз.
Когда-то Google призывала пользователей проверять все утверждения искусственного интеллекта с помощью традиционного поиска в Google. Иронично, но теперь это работает, только если пользователи кликают по результатам поиска, чтобы сверить информацию с первоисточниками - как раз той практики, от которой Google пытается отучить всех пользователей.