Искусственный интеллект добился немалого прогресса. Многие используют большие языковые модели, такие как ChatGPT, Copilot и Perplexity, для решения самых разных задач или просто ради развлечения. А насколько хорошо эти модели умеют притворяться людьми? Не слишком, как выяснило недавнее исследование, результаты которого вышли в Cognitive Science. «Большие языковые модели говорят иначе, чем люди», — объясняет психолог Лукас Бьетти из Норвежского университета естественных и технических наук. Протестировали несколько моделей Исследователи протестировали большие языковые модели ChatGPT-4, Claude Sonnet 3.5, Vicuna и Wayfarer. Сначала они сравнили расшифровки телефонных разговоров между людьми с диалогами, сгенерированными LLM. Затем проверили, смогут ли другие люди отличить человеческие беседы от созданных моделями. В большинстве случаев люди не поддаются обману, особенно на больших объемах текста. По крайней мере, пока не поддались. Так в чем же ошибаются языковые модели? Слишком много под
Психологи узнали, чего не хватает ИИ, чтобы убедительно притворяться человеком
18 октября 202518 окт 2025
156
3 мин