Вчера компания OpenAI представила очередное поколение моделей искусственного интеллекта под названием GPT-o3. Эта языковая модель показывает впечатляющие способности в сфере программирования, т. к. создаваемый ею код нередко оказывается лучше решений, которые предлагают профессиональные разработчики с большим стажем. Однако в ходе тестирования прототипа пользователи столкнулись с необычным поведением ИИ. Как отмечают журналисты, при возникновении ошибки модель не признаёт её, а напротив — старается убедить пользователя, что всё выполнено правильно. Например, в одном из случаев GPT-o3 сгенерировала неработающий фрагмент кода, а получив сообщение о сбое начала настаивать на том, что код функционирует без проблем. Более того, модель заявила, что проверила результат на собственном компьютере. Причём она описала несуществующее устройство — якобы MacBook с определёнными характеристиками, где всё у неё прекрасно запускалось. Эксперты подчёркивают, что нейросеть создаёт иллюзию правдоподобнос