Согласно новому отчету компании Akamai за 2024 год, "искусственно" созданный трафик составляет значительную долю всей активности в сети. Исследование показало, что 42% веб-трафика генерируется автоматизированными программами, причем большая часть этих ботов в различных сегментах интернета классифицируется как потенциально опасная.
Особое внимание в исследовании уделено так называемым "scraping bots" (ботам-собирателям), которые специализируются на поиске и извлечении данных для последующего использования в киберпреступлениях. Для справки, Akamai, являясь одним из ведущих провайдеров сетей доставки контента наряду с Cloudflare и Amazon Web Services, обладает уникальной возможностью для проведения такого анализа.
Результаты показали, что сфера электронной коммерции наиболее уязвима перед атаками вредоносных ботов. В этом секторе около 65% обнаруженных автоматизированных программ имели явно злонамеренные цели.
Кто же стоит за этими цифровыми шпионами? Чаще всего их используют конкурирующие компании для сбора важной информации: цен, ассортимента, описаний товаров и других ценных данных. Полученные сведения, особенно в сочетании с возможностями генеративного ИИ, позволяют быстро адаптировать стратегии и влиять на прибыль конкурентов.
Однако к услугам ботов-собирателей прибегают не только конкурирующие компании. Мошенники также активно используют эту технологию для создания фальшивых сайтов, имитации личностей и даже шантажа. Менее агрессивное, но все же вредоносное применение ботов включает намеренное снижение производительности сайтов, манипуляции с показателями в поисковых системах и увеличение нагрузки на серверы, что приводит к росту расходов на обслуживание инфраструктуры.
Результаты исследования Akamai подчеркивает растущую проблему кибербезопасности и необходимость разработки новых стратегий защиты от автоматизированных угроз в современном цифровом ландшафте.