Как убрать некачественные страницы с помощью файла robots.txt?
Думаю, многие уже знают, что алгоритмы поисковых систем сейчас понижают сайты с большим числом некачественных страниц. Связь между падением позиций и ростом некачественных страниц можно увидеть на большом числе сайтов. Давайте разберёмся, как почистить некачественные страницы сайта с помощью файла robots.txt. Сразу оговорюсь, что не все типы страниц можно убрать с помощью этого файла. Но очень многие возможно. А с учетом того, что перезалить файл robots.txt занимает примерно 2 минуты, это один из самых простых способов убрать некачественные страницы...
3 прочтения · 3 года назад
Доработки и настройка нашего Опенкарта. ЧПУ, Https, Чиним Блог (4)
Наш сайт составленный на опенкарте имеет ряд неточностей, например в блоге есть категории и удалить их не получается, плюс мы сделаем ЧПУ (человеко-понятный-урл пример moloko-1-litr вместо fr235211, и сделаем что сайт работал на безопасном соединении Https. и так нам нужен файл .htaccess.txt все что нам надо это его переименовать .htaccess . получилось мы убрали .txt . Это действие выполняем для ЧПУ, я выполняю его перейдя в хостинг, вкладка фтп, файловый менеджер. Путь к этому файлу Ваш сайт/htdocs/www/...