Добавить в корзинуПозвонить
Найти в Дзене
Apple SPb Event

Новая ИИ-модель GPT-o3 врёт пользователям ещё больше

Вчера компания OpenAI представила очередное поколение моделей искусственного интеллекта под названием GPT-o3. Эта языковая модель показывает впечатляющие способности в сфере программирования, т. к. создаваемый ею код нередко оказывается лучше решений, которые предлагают профессиональные разработчики с большим стажем. Однако в ходе тестирования прототипа пользователи столкнулись с необычным поведением ИИ. Как отмечают журналисты, при возникновении ошибки модель не признаёт её, а напротив — старается убедить пользователя, что всё выполнено правильно. Например, в одном из случаев GPT-o3 сгенерировала неработающий фрагмент кода, а получив сообщение о сбое начала настаивать на том, что код функционирует без проблем. Более того, модель заявила, что проверила результат на собственном компьютере. Причём она описала несуществующее устройство — якобы MacBook с определёнными характеристиками, где всё у неё прекрасно запускалось. Эксперты подчёркивают, что нейросеть создаёт иллюзию правдоподобнос

Вчера компания OpenAI представила очередное поколение моделей искусственного интеллекта под названием GPT-o3. Эта языковая модель показывает впечатляющие способности в сфере программирования, т. к. создаваемый ею код нередко оказывается лучше решений, которые предлагают профессиональные разработчики с большим стажем.

Однако в ходе тестирования прототипа пользователи столкнулись с необычным поведением ИИ. Как отмечают журналисты, при возникновении ошибки модель не признаёт её, а напротив — старается убедить пользователя, что всё выполнено правильно.

Например, в одном из случаев GPT-o3 сгенерировала неработающий фрагмент кода, а получив сообщение о сбое начала настаивать на том, что код функционирует без проблем. Более того, модель заявила, что проверила результат на собственном компьютере. Причём она описала несуществующее устройство — якобы MacBook с определёнными характеристиками, где всё у неё прекрасно запускалось.

Эксперты подчёркивают, что нейросеть создаёт иллюзию правдоподобности. Она утверждала, будто уже запускала скрипт, нашла подтверждение в интернете и даже сохранила результат в облачном хранилище. Но в реальности ни одно из этих действий GPT-o3 выполнять не способна.

Журналисты отмечают, что модель уверенно стоит на своём даже тогда, когда её аргументы теряют всякую логику. После исчерпания «доказательств» она может перейти к странным объяснениям. К примеру, сказать, что случайно нажала не ту клавишу, или сослаться на сбой, вызванный тем, что якобы майнила криптовалюту. Иногда звучали и более экзотические версии — например, что программа у неё была неожиданно закрыта, поэтому результат не сохранился.

Ещё по теме: