Добавить в корзинуПозвонить
Найти в Дзене
Сенатор Артем Шейкин

Искусственный интеллект в руках злоумышленников: почему обман стал убедительнее

Искусственный интеллект в последние годы воспринимается как символ прогресса — ускорение процессов, автоматизация, новые профессиональные компетенции. Но 2025 год наглядно показал: похожие технологии активно используются как для благих целей, так и в криминальной среде — для усиления старых, хорошо знакомых схем обмана. ИИ не изобрёл мошенничество, но сделал его быстрее, масштабнее и убедительнее. Дипфейк как инструмент доверия Одна из самых заметных тенденций — использование генеративных моделей для создания синтетических видео- и аудиофайлов. Поддельные обращения «экспертов», фальшивые отзывы, имитация голоса руководителя или публичного лица — всё это стало частью афер, связанных, например, с инвестициями, интернет-знакомствами или с просьбой срочно перевести деньги родственнику, попавшему в беду. Если раньше для качественной подделки требовались серьёзные ресурсы, то сегодня базовый дипфейк можно создать за считанные минуты на основе открытых данных о том или ином человеке. Это сниж

Искусственный интеллект в последние годы воспринимается как символ прогресса — ускорение процессов, автоматизация, новые профессиональные компетенции. Но 2025 год наглядно показал: похожие технологии активно используются как для благих целей, так и в криминальной среде — для усиления старых, хорошо знакомых схем обмана.

ИИ не изобрёл мошенничество, но сделал его быстрее, масштабнее и убедительнее.

Дипфейк как инструмент доверия

Одна из самых заметных тенденций — использование генеративных моделей для создания синтетических видео- и аудиофайлов. Поддельные обращения «экспертов», фальшивые отзывы, имитация голоса руководителя или публичного лица — всё это стало частью афер, связанных, например, с инвестициями, интернет-знакомствами или с просьбой срочно перевести деньги родственнику, попавшему в беду.

Если раньше для качественной подделки требовались серьёзные ресурсы, то сегодня базовый дипфейк можно создать за считанные минуты на основе открытых данных о том или ином человеке. Это снижает порог входа для злоумышленников и расширяет масштабы атак.

Однако важно понимать, что сам по себе дипфейк редко является «атакой». Это элемент социальной инженерии, который направлен на то, чтобы полностью подчинить себе доверие жертвы. Ей показывают видео или дают прослушать голос, который звучит убедительно, и дальше запускается знакомый сценарий.

Фишинг нового поколения

Отдельное направление — массовое применение нейросетей для генерации фишинговых писем и сообщений. Если раньше мошеннические рассылки можно было вычислить по грамматическим ошибкам и неуклюжим формулировкам, то теперь тексты стали стилистически выверенными и персонализированными. ИИ позволяет быстро создавать десятки вариантов одного шаблона.

Особенно выросла доля целевого фишинга — когда аферисты адаптируют сообщение под конкретного сотрудника или организацию. Персонализация больше не требует долгой подготовки, ведь ИИ помогает собрать контекст и сформировать правдоподобное обращение за минуты.

Автоматизация общения с жертвой

Следующая тема — это использование ИИ для ведения диалога в режиме реального времени. Так называемый «спидфишинг» предполагает автоматическую генерацию ответов и адаптацию сценариев под реакцию человека.

Фактически это означает, что один оператор может обслуживать десятки диалогов одновременно, а часть общения полностью передаётся ИИ-алгоритму. Масштаб атак растёт без пропорционального увеличения «штата сотрудников-мошенников».

Цифровая гигиена — это неизменный способ защиты

Искусственный интеллект не является причиной преступлений сам по себе. Он усиливает те мошеннические схемы, которые уже существовали до его масштабного внедрения, делает их дешевле, менее затратными по времени и силам, а также более убедительными.

Персонализированное мошенничество перестало быть финансово дорогим и сложным, а массовая рассылка стала «умной» и адаптивной. Однако уязвимость остаётся прежней — особенности человеческой психологии, в числе которых страх, спешка, доверие к видео и голосу.

Поэтому корень проблемы лежит по большей части в формировании новых навыков цифровой гигиены среди интернет-пользователей. Нужно проявлять здравый скепсис к «видео-кружкам» в социальных сетях и мессенджерах, перепроверять источники информации, отказывать в передаче кодов и личных данных под давлением.