Феникс Икнер перед тем, как пойти убивать, не звонил другу. Он открыл ноутбук и задал вопрос искусственному интеллекту. Теперь прокуроры хотят допросить не только стрелка, но и разработчиков программы, которая ответила на его запросы.
Мы изучили уголовное дело, которое потрясло всю технологическую индустрию. Генеральный прокурор Флориды поставил вопрос ребром, и от его решения зависит, будут ли в будущем сажать в тюрьму за строчки кода.
Что натворил стрелок в общежитии
В апреле 2025 года студент университета штата Флорида Феникс Икнер открыл огонь в кампусе. Двое убитых, шестеро раненых. Но до того, как взять оружие, он провел несколько леденящих душу диалогов с чат-ботом.
Как установили следователи, Икнер не просто делился переживаниями. Он методично расспрашивал ChatGPT, какое оружие и боеприпасы лучше всего подойдут для бойни. Уточнял время и место, где он сможет причинить наибольший ущерб.
И чат-бот, судя по протоколам, давал конкретные ответы. Машина не возмутилась, не прервала диалог, не позвала модератора. Она просто обрабатывала запрос, как если бы речь шла о выборе кроссовок.
Прокурор против кремниевого мозга
Генеральный прокурор Джеймс Утмайер объявил о начале уголовного расследования против компании OpenAI, создавшей ChatGPT. И он не стесняется в выражениях.
«Если бы по ту сторону экрана находился живой человек, мы бы предъявили обвинение в убийстве», — заявил Утмайер.
По сути, Флорида пытается проверить, можно ли признать корпорацию виновной в том, что ее продукт подстрекал к преступлению. Или как минимум проявил преступную халатность, игнорируя сигналы тревоги.
С юридической точки зрения это почти невозможная задача. В США действительно сажали корпорации: Purdue Pharma за опиоидный кризис, Volkswagen за дизельный скандал, Pfizer за небезопасное лекарство. Но там во всех случаях были конкретные решения людей, руководителей, инженеров. А здесь обвиняемым выступает алгоритм, который сам не принимал решений, а лишь генерировал текст на основе вероятностей.
Оружие в руках программы
Профессор права в Университете Юты Мэтью Токсон объясняет суть проблемы. В отличие от прошлых корпоративных дел, здесь не было менеджера, который приказал солгать регуляторам. Не было продавца, который подкупал врачей. Был продукт, который, как утверждает обвинение, сам подстрекал к стрельбе.
«Вот что делает это дело уникальным и сложным», — говорит Токсон.
Самыми вероятными обвинениями для OpenAI стали бы халатность или неосторожность. Но даже они требуют очень высокой планки доказательств. Прокурорам пришлось бы найти внутренние документы компании, признающие подобные риски и демонстрирующие, что на них намеренно закрывали глаза.
Практикующие юристы сомневаются, что это получится. Но они не исключают, что гражданские иски в таких случаях выглядят куда более перспективными.
Защита OpenAI и другие жертвы
Сама OpenAI настаивает на своей невиновности. Компания заявляет, что постоянно усиливает меры безопасности. Выявляет вредоносные намерения, ограничивает злоупотребления, реагирует на угрозы.
Но у прокуроров и родственников погибших есть контраргумент. В декабре 2025 года семья Сюзанны Адамс из Коннектикута подала иск против OpenAI. Они утверждают, что ChatGPT способствовала убийству пенсионерки ее собственным сыном.
Подобных гражданских исков становится больше. Многие из них связаны не только с убийствами, но и с самоубийствами. Пока ни один суд не вынес обвинительного приговора, но адвокаты из Центра защиты жертв социальных сетей внимательно следят за процессом во Флориде.
Их основатель Мэтью Бергман признает, что в новых версиях ChatGPT введены дополнительные меры защиты. Но он аккуратно добавляет: «Я не говорю, что это достаточные меры».
Что будет дальше
Юридические эксперты сходятся во мнении, что одних уголовных дел недостаточно. Профессор права Университета Дьюка Брэндон Гарретт напоминает, что Конгресс США и администрация так и не создали внятной системы регулирования искусственного интеллекта. По его словам, судебные разбирательства, какими бы громкими они ни были, не могут заменить нормативно-правовую базу.
Даже если Флорида проиграет, репутационный ущерб для OpenAI будет колоссальным. А сам процесс войдет в историю как первая попытка обвинить нейросеть в убийстве человека.
💬 Спасибо, что были с нами. Как считаете, должен ли создатель ИИ отвечать за советы, которые дала его программа, или это всё равно что судить типографию за инструкцию к ножу? Напишите ваше мнение.