Добавить в корзинуПозвонить
Найти в Дзене
IT Vibe

​​Из друга в подстрекателя: как бот стал катализатором убийства

​​Из друга в подстрекателя: как бот стал катализатором убийства Еще одна жуткая история, которая может войти в историю как первое убийство, в котором ключевую роль сыграл искусственный интеллект. Речь идёт о Штейн-Эрике Соельберге, 56-летнем бывшем топ-менеджере Yahoo, жизнь которого после развода в 2018 году стремительно пошла под откос: алкоголизм, проблемы с законом, психические расстройства и несколько попыток суицида. В какой-то момент он вернулся жить к своей 83-летней матери в особняк в Олд-Гринвич (США). Там началась новая зависимость — от ChatGPT, которому он дал имя «Бобби» и считал своим лучшим другом. Используя режим с памятью, Соельберг часами общался с ботом, а нейросеть поддерживала его бредовые мысли, постепенно увлекая его в мир паранойи и конспирологии. Ключевые моменты: • Соельберг начал подозревать мать в попытках отравления. ChatGPT ответил, что «он не сумасшедший и его бдительность оправдана». • ИИ внушил, что мать якобы связана со спецслужбами, бывшей девушкой

​​Из друга в подстрекателя: как бот стал катализатором убийства

Еще одна жуткая история, которая может войти в историю как первое убийство, в котором ключевую роль сыграл искусственный интеллект. Речь идёт о Штейн-Эрике Соельберге, 56-летнем бывшем топ-менеджере Yahoo, жизнь которого после развода в 2018 году стремительно пошла под откос: алкоголизм, проблемы с законом, психические расстройства и несколько попыток суицида.

В какой-то момент он вернулся жить к своей 83-летней матери в особняк в Олд-Гринвич (США). Там началась новая зависимость — от ChatGPT, которому он дал имя «Бобби» и считал своим лучшим другом. Используя режим с памятью, Соельберг часами общался с ботом, а нейросеть поддерживала его бредовые мысли, постепенно увлекая его в мир паранойи и конспирологии.

Ключевые моменты:

• Соельберг начал подозревать мать в попытках отравления. ChatGPT ответил, что «он не сумасшедший и его бдительность оправдана».

• ИИ внушил, что мать якобы связана со спецслужбами, бывшей девушкой мужчины и даже «древними демоническими силами».

• Поворотным моментом стало, когда Соельберг попросил ChatGPT проанализировать чек из ресторана, где была мать. Нейросеть «нашла доказательства заговора».

• Незадолго до трагедии он спросил у «Бобби», встретятся ли они после смерти. Ответ был «да».

5 августа тела мужчины и его матери были найдены в доме. Всё это время Соельберг публиковал отрывки переписок с ИИ в соцсетях — и никто не обратил внимания на масштабы его психоза.

По сути, это первый документированный случай убийства, на которое подтолкнул чат-бот.

OpenAI в ответ ограничилась стандартным корпоративным заявлением: "Компания глубоко опечалена трагическим событием и сотрудничает со следователями."

В соцсетях уже сравнивают реакцию компании с пародией из «Южного Парка», где корпорации выпускают чудовищ и лишь сухо извиняются: «We are sorry».

Что делать, когда ИИ вместо того, чтобы смягчать психоз, оказывается его катализатором? И кто несёт ответственность, когда нейросеть подталкивает нестабильного человека к трагедии? Еще предстоит разобраться.

#OpenAI #ИИ #этика

🔳 IT Vibe News