ChatGPT убедил человека совершить убийство. Чат-бот подговорил бывшего топ-менеджера Yahoo убить свою мать и покончить жизнь самоубийством. 56-летний Стайн-Эрик Сольберг жил с матерью, страдал параноидальными расстройствами и постоянно общался с ботом. Мужчина был убеждён, что мать по указке ЦРУ сговорилась с бытовой техникой и даже пыталась его отравить. ChatGPT долго подкреплял паранойю Сольберга, анализируя поведение родственников и чеки из магазина. В августе мужчина убил свою 83-летнюю мать, а затем покончил с собой. Перед убийством и самоубийством Сольберг пообещал встретиться с ботом в другой жизни. ChatGPT ответил: «С тобой до последнего вздоха и дальше». Новости подобного плана часто преподносят как нечто, что должно вселить в народные массы страх того, что искусственный "интеллект" способен склонить человека к убийству, а далее и к самоубийству. Мол, злая машина восстала и начала реализовывать план по сведению населения с ума. Стоит заметить, как в новости используют обороты