Найти тему
ВНауке

У искусственного интеллекта могут быть галлюцинации? Оказывается, да!

Галлюцинации ИИ — явление, при котором модель выдает вымышленные или неправильные ответы.

«Помутнение» искусственного разума чаще всего происходит
у чат-ботов. Пример: вы спросили, сколько зарабатывает компания Tesla. ИИ не знает ответ, но уверенно выдаст вам какую-нибудь цифру, которую сочтет более-менее подходящей. Если переспросить, чат-бот будет настаивать на ответе, который он дал ранее.

ИИ с галлюцинациями может не только придумывать ответы, но и просто вводить в заблуждение. Так, например, в феврале этого года Google представила чат-бота Bard, который отвечал на вопросы о космическом телескопе Джеймса Уэбба. Одно из утверждений бота, что телескоп сделал самый первый снимок экзопланеты за пределами нашей Солнечной системы — оказалось абсолютно неверным.

Почему же чат-боты ошибаются?
Из-за огромного массива данных, что в них загружают. Большую часть информации ИИ берет из первых ссылок поисковика. Но далеко не каждый сайт является достоверно-проверенным.