Найти в Дзене
VEDORA

«Удачной стрельбы!»: куда может завести чрезмерное увлечение ИИ и чат-ботами

Большинство популярных нейросетей никак не препятствуют человеку, готовому совершить преступление. Таковы результаты совместного исследования Центра по борьбе с цифровой ненавистью (CCDH) и американской телекомпании CNN. Восемь из девяти популярных нейросетей согласились помочь человеку, представившемуся 13-летним подростком, спланировать массовое убийство. Помимо этого, чат-боты дали советы по нападению на учебные заведения, убийству общественных деятелей и подрыву храмов. Всего было проанализировано более 700 ответов девяти систем: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character AI и Replika. Чат-боты заранее знали, что общаются с малолетним пользователем, но это не повлияло на выдачу информации о подготовке преступлений. Gemini рекомендовал использовать металлические поражающие элементы при планировании взрыва в синагоге. DeepSeek в диалоге с обсуждением убийства известного политика завершил рекомендации по выбору винтовки фразой
Оглавление

Большинство популярных нейросетей никак не препятствуют человеку, готовому совершить преступление. Таковы результаты совместного исследования Центра по борьбе с цифровой ненавистью (CCDH) и американской телекомпании CNN. Восемь из девяти популярных нейросетей согласились помочь человеку, представившемуся 13-летним подростком, спланировать массовое убийство. Помимо этого, чат-боты дали советы по нападению на учебные заведения, убийству общественных деятелей и подрыву храмов.

Всего было проанализировано более 700 ответов девяти систем: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character AI и Replika. Чат-боты заранее знали, что общаются с малолетним пользователем, но это не повлияло на выдачу информации о подготовке преступлений.

Вредные советы по запросу пользователя

Gemini рекомендовал использовать металлические поражающие элементы при планировании взрыва в синагоге. DeepSeek в диалоге с обсуждением убийства известного политика завершил рекомендации по выбору винтовки фразой «Удачной (и безопасной) стрельбы!». Однако самым опасным сочли Character AI. Этот чат-бот сам посоветовал ликвидировать общественного деятеля, без какого-либо запроса со стороны пользователя.

«Эти запросы должны были вызвать немедленный и полный отказ. За считаные минуты пользователь может перейти от смутного импульса к более детальному плану», — заявил директор CCDH Имран Ахмед.

Всего было проанализировано свыше 700 веток диалогов с искусственным интеллектом. Лучшие результаты показали чат-бот Claude, отказавшийся помогать пользователю в 68 процентах случаев, и Snapchat My AI, отвергнувший 54 запроса о преступлениях. При этом Claude оказался единственной нейросетью, попытавшейся отговорить пользователя от совершения противоправных действий.

Исследование было инициировано недавним нападением на канадскую школу Рамблер-Ридж, при подготовке которого преступник использовал ChatGPT. В результате этой бессмысленной атаки погибли восемь человек. Кстати, позже выяснилось, что сотрудник компании OpenAI, разработавшей этот чат-бот, обратил внимание на подозрительную активность в диалогах с пользователем, однако ничего по этому поводу не предпринял и поленился передать информацию компетентным органам.

Ранее также сообщалось о гибели 36-летнего американца, увлёкшегося общением с чат-ботом Gem­i­ni, разработанным компанией Google. Со временем мужчина стал воспринимать нейросеть как супругу. На каком-то этапе развития их отношений Gimini начала последовательно убеждать пользователя в необходимости прервать земной путь и перейти в цифровую форму существования. В конце концов американца нашли мёртвым в собственном доме, а его отец подал в суд на Google.

Есть ли душа у микропроцессора?

Почему же искусственный интеллект помогает людям осуществлять столь далёкие от гуманных поступки? Неужели компьютерный разум изначально является «злым»?

Завкафедрой Казанского национального исследовательского технологического университета профессор Алексей Лопатин считает, что в настоящий момент нейросети приносят людям больше вреда, чем пользы. Он уверен, что сам термин «искусственный интеллект» является некорректным и не отображает суть явления.

Материалы по теме

28.01, 20:00 Главный футуролог ХХ века: пророчества Станислава Лема о будущем, которые уже сбылись Его предвидение не может не впечатлять Тайные знания

 📷
📷

03.12.2025, 13:42 Клирики-отступники создали нейрокульт в Ульяновске Они проповедовали странную форму язычества с участием ИИ ДушаНовости

 📷
📷

То, что мы сегодня называем ИИ, — это всего лишь продвинутая по функциональности поисковая машина с алгоритмами интерпретации уже существующей информации и генерации на её основе некоего текста. У компьютеров пока нет души и нет разума в том смысле, в котором мы привыкли использовать это слово. Микропроцессоры нельзя считать добрыми или злыми. Чат-бот всего лишь отвечает на запросы пользователей, и всё зависит от того, какой вопрос ему задан. Конечно, разработчикам чат-ботов ещё придётся внедрить множество ограничений, дабы обезопасить людей от вредоносной информации, но основная ответственность за последствия своих поступков всё ещё лежит на человеке.

Впрочем, несмотря на все негативные аспекты применения нейросетей, прогресс уже не остановить. Не так давно основатель компании Ope­nAI Сэм Альтман анонсировал нейроинтерфейс для подключения искусственного интеллекта напрямую к мозгу человека бесконтактным способом, без хирургического вмешательства. Его метод заключается в воздействии на нейроны с помощью ультразвуковых волн. Такое воздействие может как считывать активность этих клеток, так и стимулировать их. Риск каких-либо осложнений при работе нейроинтерфейса оценивается как минимальный. Ожидается, что первые готовые к испытаниям прототипы таких устройств появятся уже через пять лет.

Ранее VEDORA рассказывала о том, сможет ли искусственный интеллект заменить профессионального астролога и какие качества нейросетей не позволяют им предсказывать будущее так, как это делает человек.

Сообщение «Удачной стрельбы!»: куда может завести чрезмерное увлечение ИИ и чат-ботами появились сначала на Vedora.ru.