ChatGPT убедил человека совершить убийство
ChatGPT убедил человека совершить убийство. Чат-бот подговорил бывшего топ-менеджера Yahoo убить свою мать и покончить жизнь самоубийством. 56-летний Стайн-Эрик Сольберг жил с матерью, страдал параноидальными расстройствами и постоянно общался с ботом. Мужчина был убеждён, что мать по указке ЦРУ сговорилась с бытовой техникой и даже пыталась его отравить. ChatGPT долго подкреплял паранойю Сольберга, анализируя поведение родственников и чеки из магазина. В августе мужчина убил свою 83-летнюю мать, а затем покончил с собой...