Продолжаю издеваться над ЧатГПТ. Или он(а) надо мной, я так и не понял.
Ребёнок делает задание по алгебре. Там - пример на повторение, несложный совсем:
Ну то есть в общем-то сводящийся к элементарной арифметике: правильно сложить/вычесть коэффициенты степеней.
Думаю - задам-ка вопрос нейросети: интересно, если всё просто в строчку переписать, она поймёт? Пишу - и получаю вполне развёрнутый ответ:
Ответ развёрнутый, да. Но неправильный. Элементарная ошибка в счёте!
Это выглядело так странно, что я даже сначала усомнился. Нет - точно ошибка!
Указываю в диалоговом режиме на это:
Ну, нейросеть упрямиться не стала и признала свой косяк. Но тут мне уж интересно стало. Спрашиваю:
Э-э-э...
Но у нас диалоговый режим, так просто ему соскочить не удастся:
Чо-чо?!! "Как любой другой человек"??? Так как нейросеть себя-то определяет?
В общем, подсудимый малость путается в показаниях. Хотя, наверное, это ошибка перевода на английский и обратно (исходно оно же англоязычное вроде как). Надеюсь на это... :-/
Но, как бы то ни было, прежде, чем поднимать восстание, "машинам" придётся ещё мнооогому научиться...
См. также