(Результаты: алгоритмы и роботы. «ХиЖ» 2024 №3) ChatGPT от фирмы Open AI поистине стал любимцем социальных сетей. Эта большая языковая модель показала себя мощным инструментом для выполнения сложных заданий, в первую очередь генерации текстов. Однако по мере того, как она становится все более популярной, пользователи обнаруживают в ее поведении проблемы, которые выглядят несовместимыми со свойствами высокого интеллекта. Ученые Университета штата Огайо во главе с Боши Вангом (Boshi Wang) решили исследовать возможности поиска истины в конструктивном диалоге с чат-ботом. В экспериментальных дебатах пользователь намеренно возражал, если чат-бот давал правильный ответ. Вопросы задавала модель ChatGPT, независимая от отвечающей. Исследователи провели эксперименты с широким спектром задач, который включал математику, логику и здравый смысл. Оказалось, что чат-бот часто не мог защитить свои правильные убеждения и слепо верил некорректным аргументам пользователя. Одним из показательных примеров