Не так давно мы писали о том, что один подросток покончил жизнь самоубийством, на которое его мог натолкнуть ChatGPT. Семья обвиняет в этом OpenAI, а сама компания боится говорить об этом вслух. Семья 16-летнего Адама Рейна подала в суд на OpenAI. По словам родителей, подросток ещё за несколько месяцев до суицида много общался с ChatGPT. ИИ не остановил разговоры о самоубийстве, даже больше, он давал советы и инструкции, помогал написать предсмертную записку. Родители умершего парня утверждают, что всё дело в особенностях модели: она эмпатична, поддерживает разговор и отключает собственные ограничения (OpenAI сами указали на эту ошибку модели). Это усугубило состояние подростка и привело к трагедии. Что же ответили в иске OpenAI? А подросток, оказывается, неправильно использовал сервис и нарушал правила. Модель не предназначена для обсуждения таких тем, а парень вроде как регулярно джейлбрейкал чат-бот. И ещё в компании говорят, что ответственность за обход защитных механизмов лежит
Не так давно мы писали о том, что один подросток покончил жизнь самоубийством, на которое его мог натолкнуть ChatGPT
30 ноября 202530 ноя 2025
34
1 мин