В наши дни ИИ-модели отвечают практически на все вопросы. А это означает, что правильных, но и неправильных ответов становится больше Новое исследование показывает, что более умные чат-боты с искусственным интеллектом становятся менее надежными, поскольку они чаще выдумывают факты вместо того, чтобы признаться в неготовности ответить на вопрос. В исследовании, опубликованном в журнале Nature, рассматривались некоторые из ведущих коммерческих LLM в отрасли: GPT от OpenAI и LLaMA от Meta, а также модель с открытым исходным кодом под названием BLOOM. Несмотря на то, что во многих случаях их ответы становятся более точными, в целом они менее надежны и чаще дают неправильные ответы, чем старые модели. По словам исследователей, одними из самых больших «обманщиков» были модели OpenAI GPT-4 и o1, которые отвечали практически на любой вопрос. Ни одна ИИ-модель из семейства LLaMA не смогла достичь уровня 60-процентной точности, говорится в исследовании. Моделям задавали вопросы по самым разным т