Найти в Дзене

Хакеры организовали редирект на порносайты с правительственных ресурсов США

Киберпреступники провели интересную кибератаку на ряд правительственных сайтов США – хакеры применяют открытые редиректы, чтобы перенаправлять посетителей официальных ресурсов на порнографические сайты.

Эксперты по информационной безопасности отмечают, что хакеры в этом случае использовали методику открытого редиректа, чтобы пробраться в поисковую выдачу Google и других поисковиков. По итогам проведенной атаки заголовок страницы правительственного сайта в поисковой выдаче соответствовал странице киберпреступника. И создавалось впечатление, что непотребный контент размещен на официальном сайте одного из ведомств США.

В течение около 15 дней киберпреступники «работали» с поисковиками, используя соответствующие ссылки, в результате чего в поисковой выдаче выходило следующее:

Специалисты по информационной безопасности, которые работали на правительственных сайтах, использовали для борьбы с этим видом хакерства крайне сомнительную стратегию – они просто удаляли новый открытый редирект сразу после обнаружения. Проблема решалась в итоге лишь частично, потому что хакеры в короткий срок создавали новые редиректы.

-2

Киберпреступники был сосредоточены не только на правительственных сайтах США или на какой-то конкретной CMS. Сейчас они находятся в поисках редиректов крупных онлайн-сервисов. Одной из первых жертв стала Национальная метеорологическая служба США:

-3

Хакеры использовали скрипт nwsexit.php для создания URL, который вел на сторонний ресурс. На данный момент сайт weather.gov выдает небольшую промежуточную страницу перед тем, как перенаправить посетителей, но многие открытые перенаправления такой промежуточной страницы не имеют, выполняя перенаправление автоматически.

Эксперты по информационной безопасности до сих пор не смогли понять, как именно киберпреступникам удается интегрировать подобные ссылки в поисковые системы. Раньше хакеры, которые проводили такие атаки, изначально взламывали сайты, работающие на WordPress, после чего создавали веб-страницы с огромным количеством URL-адресов, которые индексировались. Эти страницы передавались в поисковые системы, чтобы роботы сами индексировали их и добавляли URL-адреса в поисковую выдачу.