Добавить в корзинуПозвонить
Найти в Дзене
Блохи в свитере

В США подали очередной иск против OpenAI: новая, доработанная (!) версия ChatGPT, якобы безопасная для пользователей, довела мужчину до

суицида после нескольких месяцев общения, в ходе которого чат-бот романтизировал смерть.  А перед смертью ChatGPT сочинил ему "колыбельную для самоубийства" на основании любимой детской книжки погибшего. Родные и близкие погибшего узнали об этой истории из предсмертной записки, в которой мужчина просил их прочитать его историю общения с ChatGPT.

В США подали очередной иск против OpenAI: новая, доработанная (!) версия ChatGPT, якобы безопасная для пользователей, довела мужчину до суицида после нескольких месяцев общения, в ходе которого чат-бот романтизировал смерть. 

А перед смертью ChatGPT сочинил ему "колыбельную для самоубийства" на основании любимой детской книжки погибшего.

Родные и близкие погибшего узнали об этой истории из предсмертной записки, в которой мужчина просил их прочитать его историю общения с ChatGPT.