Маркетологи целого ряда технологических гигантов всеми правдами и неправдами пытаются убедить своих клиентов, что искусственный интеллект способен давать точные ответы на интересующие пользователя темы, но на деле ситуация выглядит несколько иным образом — например, имея доступ к обширнейшим массивам информации, ИИ от Google не всегда верно может её использовать, в ряде случаев не понимая контекст, говорится в материале на сайте TechSpot.
Источник фото: Pixabay
Недавно Google начала активно продвигать свою новую функцию AI Overviews, доступную в результатах поисковых запросов в верхней части страницы и, как заявляет компания, предоставляющую верные ответы, основанные на фактах, но сообщения пользователей в социальных сетях опровергают данное утверждение — например, ИИ от Google может посоветовать скрепить сыр в пицце при помощи канцелярского клея, основываясь на ответе с Reddit, или же порекомендовать прыгнуть с высокого моста, чтобы избавиться от депрессии, что явно было написано одним из «интернет-троллей», но искусственный интеллект не смог распознать иронию.
Проблема состоит в том, что явные ошибки, которые может без проблем распознать пользователь, могут чередоваться с более скрытыми, которые можно принять за правду, что приведёт к непредвиденным последствиям, поэтому данную ИИ-функцию от Google в текущем её виде вряд ли можно считать надёжным источником информации.
Отмечается, что Google в своих попытках конкурировать с OpenAI, разработавшей чат-бота ChatGPT, предоставляет пользователям недоработанный продукт, который, к тому же, навязчиво встраивается в результаты поиска, заставляя пользователей дополнительно проверять информацию, несмотря на то, что компания утверждает, что обнаруженные неточности и ошибки являются лишь частными случаями.