5 подписчиков
📊 Темная сторона ИИ: от взлома до манипуляций
Искусственный интеллект стремительно меняет мир, но в тени инноваций скрывается растущая угроза. Последние месяцы показали взрывной рост киберпреступлений с использованием ИИ, и тенденция только усиливается.
Рассмотрим ключевые направления атак:
🔸 Взлом криптобирж: Недавний взлом Bybit с выводом $1,5 млрд в Ethereum — крупнейшая кража в истории криптовалют. Биржа даже предложила $140 млн (10% украденной суммы) за информацию о хакерах. Интересно, что стандартная награда по их Bug Bounty составляла всего 4000 USDT. Видимо, не самый эффективный способ предотвращения взломов.
🔸 ИИ-фишинг: Исследования показывают, что фишинговые письма, написанные с помощью ИИ, заставляют более 50% получателей переходить по вредоносным ссылкам. LLM-модели анализируют личную информацию жертв, формулируя убедительные и персонализированные сообщения.
🔸 Хищение аккаунтов: В России количество украденных Telegram-аккаунтов выросло на 25%. Стоимость аккаунта на черном рынке достигла 160 рублей. Мошенники используют новые схемы — от создания секретных чатов под видом поддержки до генерации фейковых аудиосообщений с голосом, имитирующим знакомых.
🔸 Атаки на ИИ-системы: Китайский чат-бот DeepSeek подвергся массированным кибератакам, делающим невозможной регистрацию новых пользователей. Часть данных компании оказалась в открытом доступе.
Особенно тревожит экономическая привлекательность хакерских атак. По данным Positive Technologies, средняя стоимость хакерской атаки составляет $20 000, а потенциальная прибыль — до $130 000.
Что делать обычным пользователям?
Для защиты от ИИ-фишинга необходимо внимательно проверять отправителя писем и сообщений, даже если они выглядят идеально персонализированными. А для сохранности аккаунтов — не переходить по подозрительным ссылкам и не доверять сообщениям, якобы отправленным от службы поддержки.
Темная сторона ИИ развивается быстрее, чем методы защиты. И пока регуляторы только обсуждают правила, нам самим придется научиться жить в мире, где технологии могут быть использованы против нас.
1 минута
18 марта 2025