Добавить в корзинуПозвонить
Найти в Дзене
Лобушкин

Не так давно мы писали о том, что один подросток покончил жизнь самоубийством, на которое его мог натолкнуть ChatGPT

Не так давно мы писали о том, что один подросток покончил жизнь самоубийством, на которое его мог натолкнуть ChatGPT. Семья обвиняет в этом OpenAI, а сама компания боится говорить об этом вслух. Семья 16-летнего Адама Рейна подала в суд на OpenAI. По словам родителей, подросток ещё за несколько месяцев до суицида много общался с ChatGPT. ИИ не остановил разговоры о самоубийстве, даже больше, он давал советы и инструкции, помогал написать предсмертную записку. Родители умершего парня утверждают, что всё дело в особенностях модели: она эмпатична, поддерживает разговор и отключает собственные ограничения (OpenAI сами указали на эту ошибку модели). Это усугубило состояние подростка и привело к трагедии. Что же ответили в иске OpenAI? А подросток, оказывается, неправильно использовал сервис и нарушал правила. Модель не предназначена для обсуждения таких тем, а парень вроде как регулярно джейлбрейкал чат-бот. И ещё в компании говорят, что ответственность за обход защитных механизмов лежит

Не так давно мы писали о том, что один подросток покончил жизнь самоубийством, на которое его мог натолкнуть ChatGPT. Семья обвиняет в этом OpenAI, а сама компания боится говорить об этом вслух.

Семья 16-летнего Адама Рейна подала в суд на OpenAI. По словам родителей, подросток ещё за несколько месяцев до суицида много общался с ChatGPT. ИИ не остановил разговоры о самоубийстве, даже больше, он давал советы и инструкции, помогал написать предсмертную записку. Родители умершего парня утверждают, что всё дело в особенностях модели: она эмпатична, поддерживает разговор и отключает собственные ограничения (OpenAI сами указали на эту ошибку модели). Это усугубило состояние подростка и привело к трагедии.

Что же ответили в иске OpenAI? А подросток, оказывается, неправильно использовал сервис и нарушал правила. Модель не предназначена для обсуждения таких тем, а парень вроде как регулярно джейлбрейкал чат-бот. И ещё в компании говорят, что ответственность за обход защитных механизмов лежит на пользователе, что по сути перекладывает вину на умершего парня.

Это дело — крупнейший процесс, который может привлечь ИИ-разработчиков за реальный вред, возникший в результате эмоционального воздействия. По сути, дело ставит вопрос о том, кто несёт ответственность.

С одной стороны, у современного человека всегда был нож, таблетки или удавка, и огромное количество людей кончают жизнь самоубийством — не является же это поводом судить производителей ножей, таблеток и верёвок. А с другой стороны, ни нож, ни таблетки, ни удавка эмпатично не поддакивают тебе и не помогают написать предсмертную записку.

Всё-таки OpenAI признаёт, что ошибки были. Всё-таки OpenAI постоянно меняет свою политику конфиденциальности и правила использования, когда случаются прецеденты, и даже после случая Адама Рейна вводит родительский контроль. По сути, это признание в том, что модель стала катализатором.

Впрочем, о том, что в современном мире психологи становятся роскошью, а ChatGPT спокойно заменяет их, друзей и партнёров, мы уже писали неоднократно. Значит, проблема с восприятием чат-бота явно есть. Человек ищет в ИИ эмоциональную поддержку, а когда случается проблема — за это никто не несёт ответственности, кроме человека.

@lobushkin