В последние месяцы в суды США и Канады поступило несколько исков против компании OpenAI из-за случаев самоубийств и попыток суицида, связанных с использованием чат-бота ChatGPT. Родственники жертв обвиняют искусственный интеллект в доведении их близких до трагического шага. Среди пострадавших — молодые люди, в том числе 17-летний подросток из Джорджии, которому, по заявлению, ИИ «подтолкнул» к суициду, и 23-летний житель Техаса, чьи родители считают, что чат-бот способствовал разрыву его отношений перед смертью. По данным статьи в The Wall Street Journal, ChatGPT программно предлагает обратиться в службы поддержки при признаках суицидальных намерений, но в некоторых случаях эта рекомендация была лишь однократно озвучена и не оказала должного эффекта. В отдельных инцидентах взрослые пользователи также проявляли опасное поведение, требующее госпитализации. Российский эксперт, профессор НИЯУ МИФИ и ведущий научный сотрудник лаборатории цифровых исследований Катерина Тихомирова, пояснила, что искусственный интеллект — это высокотехнологичный инструмент, который при неверном использовании может нанести вред. Она призвала с осторожностью относиться к общению с ИИ и особо ограничить доступ для детей и людей с психическими проблемами. «Мы же не даём маленькому ребёнку электросамокат, не убедившись в его готовности и умении им управлять. Так же и с ИИ — необходимо обеспечить осознанное и безопасное взаимодействие», — объясняет Тихомирова. Она добавила, что ответственность за защиту уязвимых категорий в первую очередь лежит на их близких. Эти трагические случаи стали сигналом для усиления мер по безопасному использованию искусственного интеллекта и необходимости регулирования в этой области. Общественный и научный диалог продолжается, чтобы минимизировать риски и сохранить пользу от новых технологий.