Сегодня искусственный интеллект в виде чат-ботов повсюду: в мобильных приложениях, службах поддержки и поисковых системах. Тем опаснее, когда этот удобный инструмент переоценивает свои возможности. В Университете Карнеги-Меллона (CMU) провели исследование, в котором попросили людей и четыре большие языковые модели (LLM) оценить уверенность в своих ответах на вопросы викторин, прогнозах исходов матчей НФЛ или церемоний вручения «Оскара», а также в игре, напоминающей «Крокодил». С результатами можно ознакомиться в журнале Memory & Cognition. А они таковы: и ИИ, и живые участники склонны проявлять излишнюю уверенность в своих гипотетических результатах; но только люди способны скорректировать самооценку, узнав реальные результаты. «Например, люди изначально заявляли, что ответят правильно на 18 вопросов, но в итоге давали 15 верных ответов. После этого они оценивали свой результат примерно в 16 правильных ответов. То есть их уверенность снижалась, хотя оставалась завышенной. С ИИ такого н