С момента появления ChatGPT большие языковые ИИ-модели продолжают свою эволюцию. Они генерируют уже крупные и порой весьма качественные тексты, нередко справляются с математикой и не самыми простыми задачами по программированию. Некоторые «нейронки» в этом году даже научились создавать стихи, причём с хорошей рифмой. Однако всё ещё существуют весьма простые вопросы, которые наглядно могут продемонстрировать ограниченность «мышления» даже самых продвинутых ИИ-моделей. На один из таких наткнулся промт-инженер Райли Гудсайд. Он спросил самую умную, если верить рейтингу ChatBot Arena, модель GPT-4 Omni: «9,11 или 9,9 – что больше?». Модель без особых колебаний ответила, что больше 9,11. Задав ИИ аналогичный вопрос, мы тоже получили неверный ответ. Причём GPT-4 Omni будет каждый раз выдумывать новые объяснения своей правоте. Дальнейшее исследование показывает, что это проблема отнюдь не только в лучшей версии ChatGPT. Мощнейшие ИИ-системы от Google и Anthropic – Gemini 1.5 и Claude 3 также
Простейший вопрос заставил ошибиться лучшие нейросети
22 июля 202422 июл 2024
2651
3 мин