Ответы, которые дают крупные языковые модели (LLM), такие как ChatGPT, не являются результатом настоящего логического рассуждения, как ответы людей. Он лишь создают иллюзию интеллекта, выдавая слова, похожие на правильный ответ. К такому выводу пришли специалисты компании Apple, которые провели исследование механизмов работы нейросетей.
Дело в том, что разумные существа, такие как человек, могут различать важную и несущественную информацию. Соответственно, они сосредотачиваются только на первой и отбрасывают вторую.
А искусственный интеллект не умеет ранжировать данные по их значимости, поэтому LLM часто сбиваются на незначительных деталях, что приводит к неправильным или бессмысленным ответам.
Исследователи включили в свои вопросы для нейросетей небольшое количество лишней информации, что привело к некорректным ответам. То есть LLM просто не смогли отбросить неуместную информацию, и это указывает на отсутствие у них способности к рациональному мышлению, считают специалисты компании.