Найти в Дзене

*Мир столкнётся с резким ростом преступности в 2025 году из-за развития ИИ*

☀️Мошенники совершенствуют свои методы вместе с прогрессом нейросетей   ☀️В 2025 году ожидается значительный рост числа преступлений, совершаемых с использованием искусственного интеллекта. Эксперты в области кибербезопасности предупреждают, что злоумышленники активно внедряют нейросети в свои схемы, и уже в этом году около 90% нелегальных кибергруппировок будут применять ИИ для реализации атак.   ☀️Технологии развиваются настолько быстро, что преступники успевают адаптироваться к новым возможностям. Атаки с использованием ИИ затронут не только виртуальное пространство, но и реальные сферы жизни. Например, в начале января в Лас-Вегасе был подорван автомобиль Tesla Cybertruck, а для подготовки этой атаки злоумышленники использовали чат-бот ChatGPT.   ☀️Официальной статистики по преступлениям, совершаемым с помощью ИИ, пока нет. Однако эксперты оценивают их рост по количеству ботов и генерируемого ими контента. К 2025 году число таких преступлений может увеличиться в 8–10 раз по сра

☀️Мошенники совершенствуют свои методы вместе с прогрессом нейросетей  

☀️В 2025 году ожидается значительный рост числа преступлений, совершаемых с использованием искусственного интеллекта. Эксперты в области кибербезопасности предупреждают, что злоумышленники активно внедряют нейросети в свои схемы, и уже в этом году около 90% нелегальных кибергруппировок будут применять ИИ для реализации атак.  

☀️Технологии развиваются настолько быстро, что преступники успевают адаптироваться к новым возможностям. Атаки с использованием ИИ затронут не только виртуальное пространство, но и реальные сферы жизни. Например, в начале января в Лас-Вегасе был подорван автомобиль Tesla Cybertruck, а для подготовки этой атаки злоумышленники использовали чат-бот ChatGPT.  

☀️Официальной статистики по преступлениям, совершаемым с помощью ИИ, пока нет. Однако эксперты оценивают их рост по количеству ботов и генерируемого ими контента. К 2025 году число таких преступлений может увеличиться в 8–10 раз по сравнению с предыдущими годами.  

☀️Одной из главных угроз является так называемый промпт-инжиниринг, когда злоумышленники создают для ИИ вымышленные сценарии, чтобы получить нужную информацию. Например, нейросеть могут попросить представить себя писателем и составить текст, содержащий инструкции по созданию взрывных устройств или других опасных предметов.  

☄️**Опасные возможности нейросетей**  

Наибольшую опасность представляют случаи, когда злоумышленники получают от ИИ информацию о создании оружия, взрывчатых веществ или химических соединений, которые могут быть использованы в террористических целях.  

🌚Кроме того, в 2025 году ожидается увеличение числа утечек данных из-за активного использования ИИ в организациях. Многие сотрудники применяют такие инструменты без ведома руководства, что создаёт дополнительные риски для безопасности.  

🕳️Рост преступности с использованием ИИ связан с автоматизацией и персонализацией атак. Киберпреступники начинают применять технологии для более изощрённых схем, что требует разработки новых методов защиты и изменений в законодательстве.  

🟢По мнению генерального директора IT-компании "ПРОФРЕСГРУПП" Александра Шестова, "искусственный интеллект открывает новые возможности не только для бизнеса, но и для злоумышленников. Уже сейчас мы видим, как ИИ используется для создания фишинговых писем, вредоносного ПО и даже для планирования реальных преступлений. Это требует от компаний и государств более активного внедрения защитных механизмов и разработки новых стандартов безопасности".  

**ИИ в руках злоумышленников**  

Искусственный интеллект не может атаковать самостоятельно, но он эффективно справляется с созданием фишинговых писем, вредоносных сценариев и даже дипфейков. В 2025 году возможности ИИ значительно расширятся, что сделает его ещё более привлекательным инструментом для киберпреступников.  

🟠Например, в 2024 году была обнаружена фишинговая кампания, в рамках которой распространялся вирус AsyncRAT. Вредоносные сценарии были созданы с использованием ИИ, что демонстрирует растущую сложность атак.  

🟠Эксперты также отмечают, что ИИ может использоваться для автоматизации поиска уязвимостей в системах и приложениях, что делает кибератаки более эффективными. Однако статистика по таким случаям пока отсутствует, и специалисты изучают их на основе конкретных примеров.  

🔴**Защита от угроз**  

В России использование зарубежных сервисов, таких как ChatGPT или Grok, ограничено из-за санкций и блокировок. Однако отечественные аналоги считаются более безопасными, так как они регулируются российским законодательством и контролируются государственными органами.  

🟠Эксперты подчёркивают, что необходимо внести изменения в законодательную базу, чтобы более точно регулировать использование ИИ. Например, следует запретить применение GPT-технологий для создания инструкций по изготовлению оружия или опасных химических веществ.  

🔵В России уже существуют механизмы защиты пользователей от нежелательного контента, включая фильтры и "Кодекс этики в сфере искусственного интеллекта", который подписали крупные компании. Однако этого может быть недостаточно для противодействия новым угрозам.  

🟠**Золотая эра ИИ**  

Несмотря на риски, искусственный интеллект продолжает стремительно развиваться. По прогнозам, к 2025 году доля ИИ в ВВП России может достичь 2%. Это станет возможным благодаря государственной поддержке: 5% бюджета планируется выделить на исследования в области нейросетей, а ещё 15% — на другие направления, связанные с ИИ.  

🟠Однако эксперты предупреждают, что разделение ИИ по национальным, гендерным или конфессиональным признакам может привести к конфликтам между системами. В такой ситуации человечество рискует оказаться заложником технологической войны.  

🟠В ближайшие годы искусственный интеллект достигнет пика своего развития, открывая как новые возможности, так и серьёзные вызовы для общества.