Модель доказывает на практике, что понимает ход наших мыслей. А как мыслит она, нам по-прежнему неизвестно Предыдущая версия модели (GPT-3.5), благодаря «Эффекту Элизы», создает у людей убедительное впечатление человекоподобности её мышления. Но мышления, как такового у нее нет. Да и быть не может, — утверждают специалисты. Ведь будучи «стохастическим попугаем», модель не может мыслить, а всего лишь подбирает наиболее вероятное продолжение фразы на основе статических характеристик колоссального корпуса текстов, на которых модель обучалась. Это легко увидеть на конкретном примере — шуточная задача о трёх логиках в баре. Три логика заходят в бар. Бармен спрашивает: “Всем подаю выпивку?” - Не знаю, — отвечает первый логик. - Не знаю, — говорит второй. - Да! — восклицает третий. Попросите модель GPT-3.5 объяснить в чем соль этой задачи-шутки (сформулировав вопрос бармена в наиболее лингвистически сложной для понимания на английском форме — “Can I get you all a drink?”). Объяснение GPT-3.5
Зря надеетесь на превосходство людей над GPT-4
18 марта 202318 мар 2023
2667
1 мин