Иногда в поисковой выдаче можно наблюдать очень интересные результаты. Например, вот такие: Это так называемые «мусорные страницы», которые нужно закрывать от индексации. Как сделать так, чтобы в результаты поиска не попадали те страницы, которых там быть не должно? Для этого нужно настроить файл robots.txt. Файл robots.txt – это инструкция для поисковых роботов. Он содержит рекомендации, какие страницы можно индексировать, какие – нельзя. С помощью этого файла можно запретить индексацию сайта или отдельных страниц...
В проводнике телефона можно обнаружить множество различных папок, которые изначально кажутся полностью бесполезными. А если у вас ещё и установлены root-права, то неизвестные файлы вы будете встречать повсюду...