Искусственный интеллект (ИИ, Artificial Intelligence / AI) становится всё более влиятельной технологией, затрагивая практически все сферы жизни. Среди его многочисленных применений особенно активно используются крупные языковые модели (Large Language Models / LLM, крупные языковые модели), такие как ChatGPT (ЧатГПТ), Gemini (Джемини), DeepSeek (ДипСик), Perplexity (Перплексити), Grok (Грок), Microsoft Copilot (Майкрософт Копилот) и Claude (Клод). Эти платформы позволяют пользователям получать информацию, проводить исследования, создавать тексты и решать сложные задачи.
Однако, как показывает практика, некоторые пользователи пытаются использовать возможности ИИ для преступных целей. Планирование физического насилия, производство оружия и боеприпасов, инструкции по незаконной деятельности — это лишь часть потенциальных угроз. В связи с этим компании, разрабатывающие ИИ, внедряют механизмы обнаружения опасных запросов и предотвращения их выполнения.
Как платформы ИИ выявляют преступное использование
Платформы ИИ применяют многослойные системы безопасности (multi-layered security protocols / многоуровневые протоколы безопасности), чтобы выявлять и блокировать попытки использования моделей для преступных целей.
Основные механизмы
- Автоматическое сканирование запросов в реальном времени (real-time query scanning / сканирование запросов в реальном времени): система проверяет поступающие команды на наличие инструкций по изготовлению оружия, синтезу запрещённых веществ или планированию насилия.
- Отказ в ответе на опасные запросы (automatic refusal / автоматический отказ): если выявляется риск, модель не выдаёт инструкции.
- Регулярный аудит (regular audit / регулярный аудит): эксперты и независимые исследователи проверяют фразы, отмеченные системой, чтобы исключить ложные срабатывания и повысить точность фильтров.
- Передача информации властям при угрозах жизни (data sharing in imminent threat cases / передача данных в случае непосредственной угрозы): Google и другие компании указывают, что при реальной угрозе физического ущерба они могут передавать сведения государственным органам.
Канадский пример: трагедия в Британской Колумбии
Серьёзное применение системы обнаружения преступных запросов на практике произошло в Канаде.
10 февраля 2026 года в провинции Британская Колумбия (British Columbia / Британская Колумбия) произошло вооружённое нападение на школу и частный дом. В результате происшествия погибло 10 человек, включая нападавшего, и 27 получили ранения.
По данным расследования, 18-летний Джесси Ван Рутселар (Jesse Van Rootselaar) использовал ChatGPT (ЧатГПТ) для создания сценариев насилия несколько месяцев назад. OpenAI (ОупенЭйАй) выявила подозрительную активность и заблокировала аккаунт пользователя.
Действия OpenAI и дискуссия о конфиденциальности
Сотрудники OpenAI оценивали возможность передачи данных в правоохранительные органы, однако запросы не соответствовали критериям для уведомления, и информация не была передана. Этот случай подчёркивает дискуссию о том, как балансировать превентивные меры (preventive measures / превентивные меры) и конфиденциальность данных (data privacy / конфиденциальность данных).
Превентивные меры платформ
ChatGPT (ЧатГПТ) и Gemini (Джемини)
Модели ChatGPT (ЧатГПТ) и Gemini (Джемини) обладают встроенными протоколами безопасности:
- Обнаружение и блокировка преступных запросов.
- Автоматическое отклонение инструкций по оружию, химическим веществам или насилию.
- Экспертный аудит опасных запросов.
Действия Google (Гугл)
Согласно политикам Google, компания может передавать данные властям, если есть реальная и серьёзная угроза физического ущерба (imminent physical harm / непосредственная угроза физического вреда).
Примеры таких случаев:
- угрозы взрывов (bomb threats / угрозы взрыва);
- нападения на школы (school attacks / нападения на школы);
- похищения (kidnappings / похищения);
- предотвращение самоубийств (suicide prevention / предотвращение самоубийств);
- пропавшие люди (missing persons / пропавшие люди).
Компания оценивает такие запросы с точки зрения действующего законодательства и внутренних правил.
Роль ИИ в предупреждении преступлений
Использование ИИ для раннего обнаружения потенциально опасного поведения предоставляет новые возможности для предотвращения трагедий. Однако возникают вопросы этики и прав пользователей:
- Где проходит граница между защитой общества и нарушением конфиденциальности?
- Должны ли компании уведомлять государственные органы до совершения преступления?
- Как гарантировать точность алгоритмов и исключить ложные срабатывания?
Эти вопросы остаются предметом активного обсуждения среди экспертов, разработчиков и правозащитников.
Примеры угроз и механизмов предотвращения
Примеры потенциально опасных запросов:
- Инструкции по созданию огнестрельного оружия.
- Планирование нападений на школы или публичные места.
- Синтез запрещённых химических веществ.
- Организация насильственных групп и террористических действий.
Механизмы платформ:
- Фильтры и сканеры запросов в реальном времени.
- Ограничение выдачи инструкций и отказ в ответах.
- Экспертная проверка сообщений, отмеченных системой.
- Возможная передача информации властям при прямой угрозе жизни.
Перспективы развития технологий ИИ
- Разработка более сложных алгоритмов обнаружения преступного использования.
- Баланс между конфиденциальностью пользователей и безопасностью общества.
- Усиление роли платформ ИИ в предотвращении массовых трагедий.
- Внедрение образовательных программ для пользователей о безопасном использовании ИИ.
Заключение
ИИ продолжает активно интегрироваться в повседневную жизнь, и его возможности растут. Использование ChatGPT (ЧатГПТ), Gemini (Джемини) и других моделей требует внимательного регулирования, чтобы предотвратить преступное применение технологий, одновременно сохраняя права пользователей.
Системы раннего обнаружения и протоколы безопасности показывают, что ИИ способен не только помогать людям, но и предотвращать потенциальные трагедии, однако вопросы этики и конфиденциальности остаются открытыми.
Вам могут понравиться следующие статьи / видеоматериалы:
#искусственныйинтеллект #ИИ #ChatGPT #Gemini #Claude #предотвращениепреступлений #безопасностьданных #технологии #технологиибудущего #OpenAI #преступность #конфиденциальность #платформыИИ #блокировкаопасныхзапросов #раннеепредупреждение #цифроваябезопасность #технологиивжизни #защитаобщества #моделиявысокогоуровня #наукаИТехнологии