Если вы уже освоили базовые методы OSINT, такие как проверка whois и использование Google Dorks, пора копнуть глубже. В этой статье я расскажу о продвинутых, но всё ещё доступных новичкам способах анализа сайта. Эти техники помогут узнать больше о структуре сайта, его владельцах и даже скрытых деталях, не повторяя базовые шаги. Всё делается через браузер и бесплатные сервисы за 10–15 минут.
1. Анализ структуры сайта через Sitemap и Robots.txt
Файлы sitemap.xml и robots.txt — это «дорожные карты» сайта, которые часто содержат полезную информацию.
- Sitemap.xml: Это файл, который показывает поисковикам, какие страницы есть на сайте. Иногда он раскрывает скрытые разделы или старые страницы, которые не видны через меню.
Как проверить: Введите в браузере example.com/sitemap.xml. Если файл доступен, вы увидите список URL.
Пример: На одном сайте я нашёл через sitemap старые страницы с акциями, которые больше не отображались на главной. - Robots.txt: Этот файл указывает, какие страницы поисковики не должны индексировать. Иногда он случайно раскрывает скрытые директории, например, /admin или /test.
Как проверить: Введите example.com/robots.txt.
💡 Совет новичку: Если в robots.txt есть строка вроде Disallow: /private, попробуйте открыть этот путь в браузере (но только если это разрешено и этично).
⚠️ Важно: Не пытайтесь получить доступ к закрытым разделам без разрешения — это может быть незаконно.
2. Проверка поддоменов для поиска скрытых ресурсов
Сайты часто используют поддомены (например, blog.example.com или api.example.com), которые могут содержать интересные данные или быть менее защищёнными.
- Инструмент: Используйте сервисы вроде DNSDumpster или Subdomain Finder (доступны бесплатно онлайн).
- Как работает:
Введите домен (например, example.com).
Сервис покажет список поддоменов, IP-адресов и иногда связанные домены. - Пример: На учебном сайте я нашёл поддомен dev.example.com, где лежала тестовая версия сайта с открытой админ-панелью (без пароля, что указывало на слабую защиту).
💡 Совет новичку: Поддомены могут раскрывать дополнительные сервисы, такие как API или старые версии сайта. Записывайте их для дальнейшего анализа.
3. Анализ технологий сайта с помощью Wappalyzer
Сайты строятся на разных технологиях: CMS (WordPress, Drupal), серверы (Apache, Nginx), библиотеки JavaScript и т.д. Знать стек технологий полезно, чтобы понять, как работает сайт и где могут быть уязвимости.
- Инструмент: Wappalyzer (есть расширение для браузера или онлайн-версия).
- Как работает:
Установите расширение Wappalyzer в Chrome или Firefox.
Откройте сайт, и Wappalyzer покажет, какие технологии используются. - Пример: На одном сайте я увидел, что используется старая версия WordPress, что может указывать на потенциальные уязвимости (но проверять это нужно только с разрешения владельца).
💡 Совет новичку: Если вы видите устаревшие технологии, это может быть точкой для дальнейшего анализа, но не используйте эту информацию для несанкционированного доступа.
4. Проверка истории сайта через Wayback Machine
Wayback Machine (archive.org) хранит старые версии сайтов. Это полезно, чтобы узнать, как сайт выглядел раньше, какие разделы были удалены или какие данные публиковались.
- Как проверить:
Перейдите на archive.org.
Введите URL сайта (например, example.com).
Просмотрите сохранённые версии за разные годы. - Пример: Я нашёл старую версию сайта, где был раздел с контактами сотрудников, который позже убрали с текущей версии.
💡 Совет новичку: Wayback Machine может показать старые логотипы, текст или даже удалённые страницы с ценной информацией.
5. Анализ DNS-записей для понимания инфраструктуры
DNS-записи (A, MX, TXT и т.д.) дают информацию о серверах, почтовых сервисах и других аспектах инфраструктуры сайта.
- Инструмент: DNSlytics или MXToolbox.
- Как работает:
Введите домен в поиск.
Получите данные о DNS-записях, таких как IP-адреса, почтовые серверы или SPF-записи. - Пример: Анализируя DNS, я увидел, что сайт использует Google Workspace для почты, а сервер хостится на AWS, что дало понимание их инфраструктуры.
💡 Совет новичку: DNS-записи могут подсказать, какие сервисы использует компания, например, облачные платформы или почтовые службы.
6. Итог и рекомендации
Эти методы позволяют новичку собрать более глубокую информацию о сайте, не повторяя базовые шаги вроде whois или Google Dorks. Вот что стоит запомнить:
- Начинайте с анализа sitemap.xml и robots.txt — это быстрый способ найти скрытые страницы.
- Проверяйте поддомены через DNSDumpster, чтобы раскрыть дополнительные ресурсы.
- Используйте Wappalyzer для анализа технологий.
- Wayback Machine покажет историю сайта.
- DNS-записи раскроют инфраструктуру.
⚠️ Напоминание: Всегда действуйте этично и в рамках закона. Используйте OSINT только для обучения или с разрешения владельца сайта.
Следующий шаг: Попробуйте эти методы на учебных сайтах (например, scanme.nmap.org или собственном проекте). В следующей статье мы разберём, как использовать OSINT для анализа социальных сетей.
Какие из этих методов вы уже пробовали? Делитесь своими находками в комментариях, чтобы дополнить список инструментов для новичков!