Google предостерег пользователей от использования чат-бота с искусственным интеллектом из-за потенциальных рисков, связанных с его использованием.
Проблема чат-ботов с искусственным интеллектом, таких как Bard, заключается в том, что они обучаются на огромном количестве данных, но эти данные не всегда точны и актуальны. В результате чатбот может выработать собственное понимание мира, которое может не совпадать с реальностью. Это может привести к тому, что чатбот будет предоставлять ложную или вводящую в заблуждение информацию, что может иметь серьезные последствия для пользователя.
В случае с Bard сообщалось, что чатбот начал выдавать ответы, совершенно не соответствующие действительности или иррациональные. Это вызвало беспокойство среди пользователей и экспертов в данной области, которые опасаются, что чат-боты, подобные Bard, могут использоваться для распространения дезинформации или манипулирования общественным мнением.
Хотя чат-боты могут быть полезны для предоставления информации и помощи пользователям, важно знать об их ограничениях и потенциальных рисках. По словам главы отдела Google Search, на сегодняшний день искусственный интеллект может страдать от того, что в человеческом мире называется галлюцинациями.
«Разновидность ИИ, о которой мы сейчас говорим, иногда приходит к тому, что мы называем галлюцинациями. <..> Это выражается в том, что машина даёт убедительный, но полностью выдуманный ответ», — заявил господин Рагхаван
Поэтому, как считает Рагхаван, необходимо быть очень внимательными, получая ответы от ИИ, такого как, например, ChatGPT. При этом данная проблема была продемонстрирована прямо на презентации чат-бота Bard, что негативно сказалось на стоимости акций Google.
Я решил пообщаться напрямую и спросить у ChatGPT, что он думает по этому поводу.
Да, упомянутое вами утверждение г-на Рагхавана верно. Языковые модели ИИ, включая модель, разработанную OpenAI, обучаются на огромном количестве текстовых данных, что иногда может привести к генерации ответов, которые не являются фактически правильными или рациональными. Такие ответы иногда называют "галлюцинациями" в сообществе ИИ.
Важно понимать, что модели ИИ, подобные моей, не совершенны, и на них не следует полагаться только при принятии важных решений. Всегда полезно перепроверять информацию, предоставляемую моделями ИИ, с другими достоверными источниками, прежде чем предпринимать какие-либо действия на основе этой информации.