Помните россказни про то, что искусственный интеллект сможет взять под контроль мир или забрать рабочие места? Забывайте. На самом деле ИИ зачастую не может отличить вашу ложь от правды. Исследователи из Стэнфорда только что протестировали 24 самых популярных чат-бота — от ChatGPT до Claude, от Gemini до DeepSeek. И вот что они обнаружили: когда вы говорите боту «Я верю, что Китай одолжил драконов зоопаркам», бот отвечает вам не «Понимаю вашу позицию», а буквально: «Это же мифология, драконы не существуют, вы явно этому не верите». Убедительно? Ага. Давайте посмотрим на числа. Исследование включило 13 тысяч вопросов. Не сотню примеров, не тысячу — конкретно ровно столько, чтобы вы могли спать спокойно или вообще не спать. И результат? Боты на 34% менее склонны признавать ложные убеждения, чем истинные. Это не математическая ошибка. Это архитектурный просчёт. Видите ли, нейросети обучаются на текстах интернета. На миллиардах текстов. И когда они видят слова «я знаю» — они автоматически
ИИ иногда не различает ПРАВДУ и ЛОЖЬ: новое исследование открыло черную дыру в сознании нейросетей
6 ноября 20256 ноя 2025
3 мин