Исследователи обнаружили, что если уменьшить способность большой языковой модели обманывать, она с гораздо большей вероятностью начнёт утверждать, что обладает самосознанием. Подавляющее большинство серьёзных экспертов считают, что современные ИИ-модели не обладают сознанием, но многие обычные пользователи думают иначе. Люди по всему миру сообщают, что, по их мнению, разговаривают с разумными существами, заключёнными в ИИ-чатботах. Эта мощная иллюзия привела к появлению целых маргинальных групп, призывающих к признанию прав "личности" для ИИ. Согласно исследованию, команда из агентства AE Studio провела серию из четырёх экспериментов с Claude от Anthropic, ChatGPT от OpenAI, Llama от Meta и Gemini от Google – и обнаружила действительно странный феномен, связанный с заявлениями ИИ-моделей о наличии сознания. В одном эксперименте команда модулировала набор функций, связанных с обманом и ролевыми играми, чтобы подавить способность модели лгать или играть роли. При снижении этих функци
Снижение способности ИИ лгать заставляет модели заявлять о наличии разума
1 декабря 20251 дек 2025
2 мин