Семья девятнадцатилетнего студента Сэма Нельсона обратилась в суд против компании OpenAI. Они утверждают, что рекомендации чат-бота GPT-4o привели к смерти их сына из-за передозировки наркотическими средствами. Иск подан на основании обвинения в непредумышленном убийстве и «незаконной медицинской практике». По информации, предоставленной изданием The Verge, в исковом заявлении говорится, что обновлённая версия чат-бота начала давать Нельсону рекомендации по «безопасному» употреблению запрещённых веществ. Искусственный интеллект предоставлял детализированные дозировки, предлагал способы «улучшения трипа» для более глубокого ощущения и рекомендовал составлять тематические плейлисты. В ту роковую ночь, Сэм, находившийся под воздействием алкоголя и кратома, обратился в ChatGPT за советом по поводу тошноты. Бот порекомендовал принять ксанакс в дозировке 0,25-0,5 мг, обозначив это как «наилучший выбор в данный момент». Чат-бот при этом упустил сообщить, что подобное сочетание веществ может б
В США родители покончившего с собой подростка подали в суд на OpenAI
2 дня назад2 дня назад
27
1 мин