Пользователи популярного ChatGPT уже некоторое время жалуются, что популярный бот начал отказываться отвечать на вопросы. Создатели признаются, что ChatGPT становится ленивее и, как следствие, его ответы становятся короче или он их вообще не выдает. «Поведение модели может быть непредсказуемым, и мы думаем, как это исправить», — говорят представители OpenAI.
Со второй половины ноября к создателям ChatGPT поступают жалобы на то, что он стал... ленивым. Один пользователь пожаловался, что бот ответил на его запрос коротко и предельно по-человечески: «остальные данные вы можете заполнить». Создатели признают, что проблема действительно существует, но на данный момент не могут сказать, почему это происходит.
В настоящее время они работают над решением как можно скорее. «Мы услышали все ваши мнения о том, что GPT4 становится более ленивым!» – пишут представители OpenAI.
Команда считает, что проблема может быть результатом отсутствия обновлений.
ChatGPT впал в сезонную депрессию
Один исследователь в области ИИ провел интересный эксперимент, чтобы разобраться в данном вопросе. Он обратился к последней модели LLM ChatGPT 4 Turbo с просьбой выполнить задачу, но добавил небольшую деталь. Сначала он попросил ответ так, как будто сейчас еще май, а затем дал ему то же задание, сказав ответить в соответствии с тем, какой сейчас месяц.
Результаты были шокирующими. Роб Линч провел 954 теста. Оказывается, когда ChatGPT думает, что сейчас декабрь, его ответы автоматически становятся короче, чем когда он «думает», что сейчас май. В шутку предположили, что бот может страдать от сезонной депрессии.
Один из пользователей предположил, что ChatGPT узнал из интернета, к которому он имеет доступ уже некоторое время, что люди обычно начинают отвлекаться от работы в декабре и откладывают более крупные проекты до нового года. Это говорит о том, что ChatGPT хочет стать больше похожим на людей. Это, конечно, далеко идущие выводы. Приписывание каких-либо эмоций языковой модели, даже такой продвинутой, как ChatGPT, в данном случае не кажется решением.
Другой исследователь искусственного интеллекта, Ян Аравхо, попытался повторить результаты Линча, также предложив боту разные времена года, но не получил тех же результатов. Необходимо еще много попыток для получения достоверной статистики.
Джеффри Литт, также занимающийся исследованием искусственного интеллекта, прокомментировал всю ситуацию как "самую забавную теорию всех времен", добавив при этом: "Правда это или нет, но мне нравится, что это трудно исключить".