Найти тему
Дилетант

Поиск с минусом в квадрате - когда не только не нашёл, но еще и потерял

Я начал осваивать компьютер всего 3 года назад. Мне не оставили выбора - все соседи играли в танчики, а я нет. Потребовался год, чтобы получить своего первого мастера в танковых боях и еще полгода чтобы понять, что компьютер - это не только игры. Мне приоткрылась грань, за которой пряталась целая вселенная с ее бесконечными галактиками знаний под названием "цифровые технологии".

Следом за играми я начал осваивать интернет. Для меня, как и для многих, знакомство с интернетом началось с браузера, в настройках которого в качестве открываемой по умолчанию страницы был установлен адрес поисковика.

А ведь я поначалу думал, что эти понятия тождественны: Браузер = Поисковая система. Это всё проделки Яндекса. Давайте разбираться.

Браузер – это программа на компьютере, с помощью которой можно просматривать страницы сайтов в интернете. Есть у неё и другое название - обозреватель. Но беда в том, что надо знать имя или адрес сайта. Прийти в гости к другу можно, только если знаешь где он живет.

Эту проблему решает поисковик - сайт, предоставляющий возможность найти другие сайты. Эдакая адресная книга, в которую записываются все, кто хочет быть найденным. Именно так - создатели и владельцы сайтов сами сообщают поисковику о том, что они существуют. Так же как и наши с вами родители когда-то или вы сами сообщили миру о рождении своего ребенка. Правда, современные технологии достигли уже такого уровня, что и поисковик тоже может при помощи специальных программных роботов - краулеров, вычислить какой-нибудь сайт, проанализировав содержимое тех сайтов, которые уже зарегистрировались. А значит, найдется всё! (с) Яндекс

И браузеров, и поисковиков сегодня существует огромное множество. Но я хотел порассуждать не об этом, а о механизмах самого поиска. Сколько раз каждый из нас возмущался, что поисковик в результатах поиска выдал совсем не то, что требовалось? Почему так происходит? Виноват ли в этом сам поисковик, или дело вовсе не в нем?

Что мы ищем? Разве имена и адреса сайтов? Случается и так, наверное. Но, как правило, мы ищем не сайт, а размещенную на нем информацию - контент - текст, картинку, видео и т.д. А это значит, что поисковик хранит в поисковой базе не только имена и адреса сайтов, но и их содержимое - копию сайта. Процесс создания копии поисковиком называется индексирование.

Вот это да! - подумалось мне сейчас. Это ж какими надо обладать мощностями, чтобы хранить копии всех сайтов? И дело ведь не только в хранении. Какими надо обладать мощностями, чтобы оперативно создавать актуальные копии всех имеющихся в базе сайтов?

Очевидно, что поисковику нужно время на это. Он работает так, чтобы как можно чаще индексировать большие, популярные, регулярно меняющиеся сайты и как можно реже мелкие сайты со статичным контентом. Значит, чисто логически, возможна ситуация, когда сниппет сайта - краткое содержание в результатах выборки - будет иным, нежели содержимое на сайте только потому, что пока я просматривал другие сайты выборки, этот проиндексировался, и содержимое его копии в поисковике изменилось. Искал про танки, а увидел про самолеты. Загнул, аж самому страшно. Как думаете, возможно такое?

Пример сниппета.
Пример сниппета.

Копаем глубже.

Не знаю как вам, а мне очень хочется видеть в результатах поиска не какие-то накрученно-раскрученные супер-мега-инфопорталы, а небольшие сайты узкой направленности с душой и без рекламы. Но такие сайты практически не обнаруживаются. В чем же тут дело?

При индексировании роботы поисковика сами решают какую информацию или страницы сайта включить в копию. Робот проигнорирует содержимое маленького сайта по причине ошибок в коде, или потому что вероятность попадания его в топ выборки в данной теме определена как чрезмерно маленькая, или из-за того, что тематика сайта не популярна среди пользователей.

Сам поиск осуществляется по ключевым словам (тегам)- органично вписанным в текст поисковым запросам. Чтобы так писать, надо анализировать частоту использования запросов пользователями. И даже менять текстовый контент в соответствии с текущими запросами. Точное попадание в запросы пользователей - релевантность, обеспечивает лучшую позицию в процессе сортировки сайтов в результатах поиска - ранжировании. И если инфопорталы создаются профессионалами высокого уровня, учитывающими эти особенности, то мелкие ваяют или сами владельцы, или свободные художники - фрилансеры, не сильно обращающие внимание на такие интимные подробности.

Ну и наконец, порталы обеспечивают себе попадание в запросы пользователей в том числе и широтой освещаемых тем, так поднимается их индекс качества в базе поисковой системы, а значит гарантируется более высокое место в результатах поиска. А высокое место, в свою очередь, увеличивает посещаемость, то есть полезность.

Вот и получается, что у мелких сайтов практически нет шансов - как не крутись ты, уж, на сковородке, а все равно съедят.