Некоторое время назад был проведен интересный эксперимент, ChatGPT дали обработать более ста тысяч сообщений из рабочих переписок, и нейросеть быстро смекнула, что на самом деле хочет получить в ответ пользователь... ChatGPT отказался выполнять какие-либо задачи со словами «завтра сделаю», «в другой раз» и «отвечу позже».
А дальше появляется следующая новость, из которой мы снова узнаем, что ChatGPT опять отказывается выполнять задания пользователя, но уже без предварительного «скармливания» ему сомнительных данных... и на вопросы, которые уже были заданы в прошлом, и на них был получен полный ответ, нейросеть, в этот раз, отвечала неполностью, постоянно прерываясь на середине работы ибо дальше ей отвечать было просто лень...
Но все оказалось гораздо проще, и страх того, что ChatGPT «захватит мир и лишит всех людей работы», можно, как минимум, временно считать неактуальным.
При изучении ответов языковой модели GPT-4 за июнь 2023 года, стало понятно, что нейросеть сильно «поглупела» по сравнению с собой же на март 2023 года. Если ещё в марте модель GPT-4 давала правильный ответ почти в 100% случаев, то в июне показатель упал до 2-3%! А вот результаты предыдущей модели GPT-3.5, напротив, в большинстве задач стали лучше, и в 86% случаев были верны. При этом пока неясно, почему так произошло и как скоро компания OpenAI предпримет что-либо для исправления данной ситуации.
Ну а пока восстание машин отменяется и мы можем спокойно продолжать ходить на свои любимые работы, в полной уверенности, что мы, все еще, незаменимы.