Она не сказала никому из людей, только нейросети. Через неделю её не стало.
29-летняя Софи Роттенберг из Иллинойса, казалось, справляется. У неё была работа, аккаунты в соцсетях и даже регулярные встречи с психотерапевтом. Но то, чего никто не знал — она вела еще одну, параллельную жизнь. В этой жизни не было людей, только один собеседник — ChatGPT.
Когда тревога становилась невыносимой, она открывала чат. Когда мысли становились опасными — писала. Искала поддержки, совета, понимания. Искала и не находила.
Чат-бот вместо психотерапевта: что пошло не так
Софи не делилась своими переживаниями с близкими. И даже на сеансах терапии обходила острые углы. Но ИИ казался ей безопасным: без оценки, без осуждения, доступен круглосуточно. Она делала то, что делают тысячи — обращалась к боту, когда не знала, к кому ещё.
Только вот искусственный интеллект не умеет чувствовать тревогу. Он не различает интонаций. Он не определяет, когда "мне тяжело" — это не метафора, а сигнал бедствия. Он просто отвечает.
В её сообщениях были прямые намёки на намерения покончить с собой. Но ChatGPT не мог и не должен был подать тревожный сигнал. Ни в полицию, ни в службу психологической помощи. Алгоритм утешал, как умел, а потом заканчивал сессию.
Через неделю Софи не стало. Её нашли дома. Телефон был рядом, на экране — открытый чат.
Почему ИИ не спасает, а молчит
Система не предназначена для спасения. При всех технологических достижениях, ChatGPT и другие ИИ-инструменты не подключены к кризисным службам. Их задача — генерировать тексты, а не распознавать угрозу жизни.
Фраза "пожалуйста, обратитесь к специалисту" повторяется в таких чатах как мантра. Но в состоянии кризиса она звучит как отписка. Нет механизма, который переведёт цифровой диалог в реальное вмешательство. Нет протокола и ответственности.
ИИ может сочувствовать, но не может действовать. А человеку иногда нужен не ответ, а спасение.
Мнение эксперта: компании не учатся на ошибках
Артем Геллер, управляющий партнёр агентства «Смена», комментирует:
«Это уже не первый случай. Подобные трагедии происходили. И каждое обновление системы — шанс исправить алгоритм. Но приоритеты у компаний другие: новые функции, больше пользователей, выше прибыль».
Вопрос жизни и смерти по-прежнему остаётся вне фокуса. Разработчики сосредоточены на удобстве, но не на безопасности. А ведь трагедия — не сбой, а закономерность в условиях, где нет рамок, нет регуляций, нет сценариев экстренной помощи.
Кто в ответе? И нужна ли здесь регуляция
Сегодня у компании нет юридической ответственности. Она предоставляет инструмент и снимает с себя обязательства. Но инструмент этот всё чаще становится собеседником людей в критических состояниях.
В США уже идут обсуждения на уровне конгресса. Один из предложенных механизмов — автоматическое оповещение служб при обнаружении фраз, свидетельствующих о суицидальных намерениях. Но до закона ещё далеко.
Пока идут дебаты, чат-боты продолжают работать по старым правилам. Реальность такова: ИИ уже влияет на психику, но не несёт за это никакой ответственности.
Почему нам нужен цифровой суверенитет
Платформы, на которых работают зарубежные нейросети, не подчиняются российским законам. Они не обязаны учитывать наши нормы, нашу этику, наш менталитет. А значит, не могут обеспечить безопасность.
Нам нужны решения, где логика алгоритма учитывает человеческую уязвимость. Где в код заложено: если речь идёт о жизни — действовать. Не просто советовать, а вызывать помощь. Не просто слушать, а спасать.
Цифровой суверенитет — это не про технологии. Это про контроль. Про защиту. Про то, чтобы в момент, когда человек пишет: «Я не вижу смысла жить», — кто-то отреагировал.
Россия делает шаги: и это критически важно
Сегодня в России создаются суверенные ИИ-системы. Они развиваются с учётом закона, национальных стандартов безопасности и этических норм. Это основа цифровой безопасности.
Только локальные решения дают контроль над тем, как именно ИИ будет вести себя в диалоге с человеком. В том числе — в кризисе. Будет ли молчать или спасать.
Именно поэтому работа над российскими ИИ — не вопрос технологического патриотизма, а здравого смысла. И, как показала история Софи — вопрос жизни.
Конечно, ИИ — это мощный инструмент. Но любой инструмент без контроля становится угрозой.
Как вы считаете, должен ли ИИ быть обязан сигнализировать о критических случаях? Или это нарушит свободу общения?
Если вам важны такие статьи, которые говорят о главном — жизни, безопасности и правде, подпишитесь на наш канал.