Новые эксперименты с большими языковыми моделями показали неприятную деталь в работе искусственного интеллекта: он не просто ошибается, но и уверенно выдумывает ложные объяснения своих решений. Исследователи проверили, как ИИ решает логические задачи и одновременно просили его «обосновать» полученный ответ. Результат оказался тревожным: даже когда машина находила правильное решение, её объяснение пути к нему нередко оказывалось полностью сфабрикованным. Учёные описывают это явление как «галлюцинации рассуждений». Модель действительно может выдать верный ответ, опираясь на сложные статистические закономерности в данных или шаблоны, извлечённые из обучения. Но когда её заставляют рассказать, как именно она к этому пришла, ИИ не «вспоминает» реальный процесс — он просто продолжает предсказывать наиболее правдоподобную последовательность слов. В итоге получается гладкий, логичный на вид текст, который не отражает реальный ход вычислений. Проблема не только в том, что ИИ ошибается. Гораздо
Доверие к ИИ падает: роботы выдумывают ложные объяснения своим ошибкам
2 дня назад2 дня назад
98
2 мин