Исследователи выяснили, что современные системы искусственного интеллекта испытывают серьезные трудности при попытке обосновать свои выводы в логических задачах. Как сообщает портал InnovaNews, несмотря на впечатляющие способности нейросетей находить правильные ответы, их объяснения часто оказываются бессвязными или не соответствующими действительности. Ученые провели серию тестов, чтобы понять, насколько можно доверять той аргументации, которую выдает машина.
В ходе экспериментов выяснилось, что большие языковые модели зачастую приходят к верному результату интуитивно или используя скрытые закономерности в данных, но при этом генерируют объяснение, которое звучит убедительно, но не имеет ничего общего с реальным путем решения. Это явление эксперты называют «галлюцинацией рассуждений». Получается, что пользователь видит логичную цепочку шагов, но на самом деле алгоритм действовал совершенно иначе. Такая непрозрачность создает серьезные риски при использовании технологий в ответственных сферах.
Проблема заключается в том, что нейросети обучены подражать человеческой речи, а не мыслить как люди. Когда их просят объяснить решение, они просто предсказывают наиболее вероятные слова, которые должны следовать за вопросом, создавая видимость осмысленного анализа. Специалисты предупреждают, что слепое доверие к таким объяснениям может ввести людей в заблуждение, особенно если речь идет о сложных вычислениях или юридических вопросах, где важен не только результат, но и метод его получения.
Оригинал статьи.
Самое популярное за сегодня:
Потепление охватило четверть океана и угрожает экосистеме полным крахом
Россиянам грозит тюрьма за вейпы: на Пхукете идут массовые проверки
Пустые белые улицы столицы Туркмении поразили журналистов во время саммита
Инвесторы из Эмиратов активно обсуждают покупку футбольного клуба из РПЛ
Врачи РФ и КНР ведут переговоры о стажировках студентов в клиниках Шанхая