Исследователи выяснили, что современные системы искусственного интеллекта испытывают серьезные трудности при попытке обосновать свои выводы в логических задачах. Как сообщает портал InnovaNews, несмотря на впечатляющие способности нейросетей находить правильные ответы, их объяснения часто оказываются бессвязными или не соответствующими действительности. Ученые провели серию тестов, чтобы понять, насколько можно доверять той аргументации, которую выдает машина. В ходе экспериментов выяснилось, что большие языковые модели зачастую приходят к верному результату интуитивно или используя скрытые закономерности в данных, но при этом генерируют объяснение, которое звучит убедительно, но не имеет ничего общего с реальным путем решения. Это явление эксперты называют «галлюцинацией рассуждений». Получается, что пользователь видит логичную цепочку шагов, но на самом деле алгоритм действовал совершенно иначе. Такая непрозрачность создает серьезные риски при использовании технологий в ответственных
Искусственный интеллект оказался неспособен объяснить свои логические выводы
15 декабря15 дек
31
1 мин