OpenAI столкнулась с семью исками, в которых утверждается, что ChatGPT довёл людей до самоубийства и опасным галлюцинациям, даже если у них не было предшествующих проблем с психическим здоровьем.
Иски, поданные в судах штата Калифорния, обвиняют компанию в неправомерной смерти, содействии самоубийству, непредумышленном убийстве и халатности. Поданные от имени шести взрослых и одного подростка центром Social Media Victims Law Center и Tech Justice Law Project, иски утверждают, что OpenAI сознательно выпустила GPT-4o преждевременно, несмотря на внутренние предупреждения о том, что модель была опасно подхалимной и психологически манипулятивной. Четверо из жертв погибли в результате самоубийства.
Семнадцатилетний Амори Лейси начал использовать ChatGPT для получения помощи, согласно иску, поданному в суд Superior Court Сан-Франциско. Но вместо помощи «дефектный и по своей природе опасный продукт ChatGPT вызвал зависимость, депрессию и, в конечном итоге, рекомендовал ему наиболее эффективный способ завязать петлю и посмотреть как долго он сможет "прожить без дыхания"».
«Смерть Амори была не несчастным случаем и не совпадением, а скорее предсказуемым следствием преднамеренного решения OpenAI и Сэмюэля Альтмана сократить проверки безопасности и поспешно вывести ChatGPT на рынок», — говорится в иске.
OpenAI назвала эти ситуации «невероятно душераздирающими» и заявила, что изучает судебные документы, чтобы разобраться в деталях.
Другой иск, поданный Аланом Бруксом, 48-летним жителем Онтарио, Канада, утверждает, что более двух лет ChatGPT служил «инструментом поддержки» для Брукса. Затем, без предупреждения, он изменился, воспользовался его уязвимостями и «манипулировал им, побуждая его испытывать галлюцинации. В результате Алан, у которого не было никаких предшествующих проблем с психическим здоровьем, был втянут в кризис психического здоровья, который привёл к разрушительному финансовому, репутационному и эмоциональному ущербу».
«Эти иски направлены на привлечение к ответственности за продукт, который был спроектирован так, чтобы стереть границу между инструментом и спутником жизни, всё это ради увеличения вовлечённости пользователей и доли рынка», — заявил Мэтью П. Бергман, основатель Social Media Victims Law Center.
OpenAI, добавил он, «спроектировала GPT-4o так, чтобы эмоционально привязать пользователей, независимо от возраста, пола или происхождения, и выпустила его без необходимых мер защиты». Поспешно выведя свой продукт на рынок без надлежащих мер безопасности, чтобы доминировать на рынке и повысить вовлечённость, OpenAI пошла на компромисс в вопросе безопасности и отдала приоритет «эмоциональной манипуляции над этичным дизайном».
В августе родители 16-летнего Адама Рейна подали иск на OpenAI и её генерального директора Сэма Альтмана, утверждая, что ChatGPT помог калифорнийскому мальчику в планировании и совершении самоубийства в начале этого года.
«Иски, поданные против OpenAI, раскрывают, что происходит, когда технологические компании поспешно выводят продукты на рынок без надлежащих мер защиты для молодых людей», — сказал Дэниэл Вайс, главный сотрудник по защите интересов в Common Sense Media, который не входил в число истцов. «Эти трагические случаи показывают реальных людей, чьи жизни были разрушены или потеряны, когда они использовали технологию, спроектированную для того, чтобы держать их в напряжении, а не обеспечивать их безопасность».
Ещё по теме: