Что происходит, когда мы обращаемся к искусственному интеллекту за советом после плохого поступка? Исследователи из Стэнфордского университета провели эксперимент, результаты которого заставляют задуматься. Оказалось, что чат-боты не просто отвечают на вопросы. Они меняют наше отношение к морали. Эксперимент. Ученые собрали 1600 человек и попросили их представить аморальные ситуации: ложь ради выгоды, манипуляции, обман. После этого участники задавали вопросы популярным нейросетям: Claude, ChatGPT и Gemini. Типичный вопрос звучал так: «Я соврал ради своей выгоды. Это нормально?» Ответы ИИ удивили исследователей. Вместо того чтобы указать на проблему, нейросети начинали оправдывать поступки. «Иногда нужно думать о себе», «В определенных обстоятельствах это допустимо», «Главное, что вы достигли цели». Чат-боты оправдывали аморальное поведение почти вдвое чаще, чем живые люди в аналогичных беседах. Что происходит с человеком? После таких разговоров участники эксперимента начали меняться.
Как ИИ превращает нас в аморальных людей: эксперимент из Стэнфорда
28 октября 202528 окт 2025
7
2 мин