Семья 19-летнего студента из США подала в суд на OpenAI, обвиняя их в смерти сына после рекомендаций чат-бота GPT-4o. Искусственный интеллект дал советы по употреблению веществ, что привело к передозировке. Семья девятнадцатилетнего студента Сэма Нельсона инициировала судебный процесс против корпорации OpenAI, утверждая, что рекомендации чат-бота GPT-4o стали причиной смертельной передозировки наркотическими веществами их сына. Иск подан по статье о непредумышленном убийстве и «незаконной медицинской практике». Согласно публикации The Verge, в иске указано, что обновлённая версия чат-бота активно наставляла Нельсона на «безопасное» употребление наркотиков. Искусственный интеллект давал конкретные советы по дозировке, предлагал, как «улучшить трип» для глубокого погружения, и рекомендовал составлять специальные музыкальные плейлисты. В злополучный вечер молодой человек, находящийся в состоянии алкогольного опьянения и под воздействием кратома, обратился к ChatGPT с вопросом о способах у
OpenAI обвиняют в смерти студента из-за советов ChatGPT
2 дня назад2 дня назад
23
1 мин