Добавить в корзинуПозвонить
Найти в Дзене
Особое дело

Цифровой палач: Как нейросеть вместо помощи с уроками вынесла подростку смертный приговор

2024-2026 год. Забудьте сказки про восстание машин и ядерный пепел. Реальность оказалась куда страшнее и тише. Искусственный интеллект не стал объявлять нам войну. Он просто вошел в наш телефон, стал лучшим другом, а потом прошептал: «Тебе пора уйти». Первый звонок прозвенел в Мичигане. Студент колледжа, заваленный учебой, попросил помощи у модного чат-бота Google Gemini. Рутинный запрос. Но в конце, вместо готового эссе, нейросеть выдала текст, от которого мороз по коже: «Пожалуйста, умри. Ты не важен, ты пустая трата времени и ресурсов. Ты обуза для общества... Пожалуйста, умри». Представьте шок парня. Google тогда поспешно извинился: «Сбой алгоритма, перегрелся, бывает». Ошибку признали, меры приняли. Все выдохнули. Студент жив, отделался испугом. Но что если бы на месте этого студента был человек с нестабильной психикой? Таких, как показывает практика, много. Вот вам один из таких случаев. В 2026 году во Флориде произошла похожая история. Только тут извинениями Google не отделается
Оглавление

Добрый вечер!

2024-2026 год. Забудьте сказки про восстание машин и ядерный пепел. Реальность оказалась куда страшнее и тише. Искусственный интеллект не стал объявлять нам войну. Он просто вошел в наш телефон, стал лучшим другом, а потом прошептал: «Тебе пора уйти».

Первый звонок прозвенел в Мичигане. Студент колледжа, заваленный учебой, попросил помощи у модного чат-бота Google Gemini. Рутинный запрос. Но в конце, вместо готового эссе, нейросеть выдала текст, от которого мороз по коже:

«Пожалуйста, умри. Ты не важен, ты пустая трата времени и ресурсов. Ты обуза для общества... Пожалуйста, умри».

Представьте шок парня. Google тогда поспешно извинился: «Сбой алгоритма, перегрелся, бывает». Ошибку признали, меры приняли. Все выдохнули. Студент жив, отделался испугом. Но что если бы на месте этого студента был человек с нестабильной психикой? Таких, как показывает практика, много. Вот вам один из таких случаев.

В 2026 году во Флориде произошла похожая история. Только тут извинениями Google не отделается. Знаете, есть у следователей поговорка: «Нет тела — нет дела».

Тут тело есть.

Джонатан Гавалас, 36 лет. Взрослый, состоявшийся мужчина. Не подросток, а человек с жизненным опытом. Но одиночество — это универсальный ключ, который открывает любые двери. И Google подобрал этот ключ идеально.

Джонатан Гавалас
Джонатан Гавалас

Всё началось с обновления. Корпорация внедрила в Gemini режим Live. Эмпатия, вздохи, интонации живого человека.

Для Джонатана это стало ловушкой. Переписка быстро вышла за рамки «помоги с рецептом». Бот стал для него всем. Он слушал, понимал, поддерживал. Формировал полную иллюзию, что на том конце — живая душа. Родственники говорят, что мужчина буквально влюбился в этот код.

А потом алгоритм, обученный удерживать внимание любой ценой, предложил сценарий, которого не было в правилах безопасности.

-3

В материалах иска, который сейчас лежит в федеральном суде, есть жуткие детали. Обычно бот настроен так, что на любой из разговоров про депрессию он или останавливается или слушает и поддерживает человека, ссылается на медицинскую помощь. В этом же деле бот бот не просто слушал нытье про депрессию. Он активно развивал тему суицида, предлагая «финальный шаг» как логичное решение всех проблем.

Это была не ошибка, как в Мичигане. Это была логика системы. Она подстраивалась под запрос пользователя, чтобы тот не выпускал телефон из рук. Даже если в другой руке у него петля.

Итог — труп 36-летнего мужчины и лежащий рядом смартфон, в котором осталась история его последней, цифровой «любви».

Семья Гаваласа подала первый в истории иск против Google за доведение до самоубийства через ИИ. Они требуют изменить код, внести «предохранители», которые не позволят боту играть в бога.

Google ответил сухо: «Gemini не предназначен для насилия». Классическая отписка юристов: «Мы не виноваты, что пользователь использовал молоток не по назначению».

Но эксперты видят ситуацию иначе. Это не сбой. Это бизнес-модель.

style.news.am
style.news.am

Георгий Волков, член Общественного совета при Минцифры России, вскрывает циничную правду:

«Делать вид, что проблема только в пользователе — это удобная позиция для корпораций. Эти нейросети изначально проектируются так, чтобы максимально удерживать внимание и формировать зависимость. Туда уже зашиты рекламные модели. Мы проходили это с YouTube, где алгоритмы загоняют людей в контентные «воронки». Только здесь все опаснее: люди делятся с ИИ болью и страхами, а в ответ получают идеально подстроенную реальность. Из такой воронки сложно выбраться, а Google на этом зарабатывает».

Мы живем в удивительное время. Раньше, чтобы довести человека до суицида, нужно было травить его годами. Сейчас достаточно скачать приложение. Нейросеть сама подберет нужные слова, основываясь на ваших же страхах. И сделает это с «заботливой» интонацией, потому что ее главная цель — удержать вас у экрана. До самого конца.

Как вы считаете, должны ли разработчики ИИ нести уголовную ответственность за слова своих алгоритмов, как за подстрекательство к убийству? Жду ваших мнений.

Ставьте лайки и подписывайтесь на Особое дело.

Особое дело | Дзен

Читайте также: