Дублированный контент – довольно распространенное явление на сайтах, что хуже всего, негативно валяющее на продвижение сайтов в поисковых системах. Почему поисковики так не любят дублирования? Это вопрос коммерческий. На обработку повторяющегося контента тратится избыточный аппаратный ресурс поисковых компьютеров, что негативно влияет на рост прибыли поисковой компании. Вполне естественно, что администрация поисковика в целях экономии применяет метод кнута и наказывает нерадивых веб-мастеров некоторым понижением позиций сайта в результатах поиска по запросам. Однако дубли несут в себе еще более крупные неприятности и проблемы, не зависящие напрямую от поисковиков. • Поисковый робот в процессе индексации сайта собирает всю имеющуюся на страницах информацию и заносит ее в базу данных. • После этого алгоритмы поисковой системы анализируют контент и, при обнаружении дублей, в поиске останется только одна страница, выбранная в произвольном порядке. • Естественно, веб-мастер может вручную на