наркотиками. ИИ консультировал Сэма по «безопасному» употреблению, советовал дозировки и рекомендовал составлять плейлисты для «максимального погружения». В роковую ночь, будучи уже пьяным и под воздействием наркотиков, Сэм спросил ChatGPT, чем снять тошноту. Бот предложил ему ксанакс в конкретной дозировке, но не уточнил, что эта смесь может быть смертельной. OpenAI комментирует ситуацию очень осторожно, отмечая, что компания продолжает работать над механизмами безопасности. NeuroFlux #OpenAI #суд #наркотики #безопасность #ИИ #GPT4 #передозировка #психическоездоровье #технологии #ответственность
🔍 Семья 19-летнего студента Сэма Нельсона подала в суд на OpenAI, утверждая, что советы GPT-4 привели их сына к смертельной передозировке
ВчераВчера
~1 мин