Сегодня во всех Яндекс.Метриках страны SEO-специалисты и владельцы сайтов, могут наблюдать подобные запросы с Илоном Маском. Что это за напасть и какую цель преследуют, пока не ясно, но выглядит забавно 😂
6 дней назад
Роскомнадзор начал блокировать загрузку сайтов, которые используют защиту от Cloudflare, а именно, сайты использующие TLS 1.3 и Encrypted Client Hello (ECH). Предполагается, что блокировки связаны с тем, что с ECH доменные имена становятся невидимы для Роскомнадзора и других промежуточных узлов. Что удивительно, коснулось не всех сайтов, но затронуло многие, если Вы в числе "счастливчиков", ниже инструкция как отключить TLS 1.3 на стороне Cloudflare: 1. Войдите в аккаунт Cloudflare. 2. Перейдите в Dashboard и выберите сайт, где требуется изменить настройки. 3. Перейдите в раздел SSL/TLS. 4. Найдите вкладку Edge Certificates. 5. Прокрутите вниз до настроек TLS 1.3 и выключите переключатель. После внесения изменений доступ к сайту через TLS 1.2 должен восстановиться в течение нескольких минут, но обычно восстанавливается тут же. Для ускорения эффекта можно очистить кеш в разделе Caching -> Configuration -> Purge Cache -> Purge Everything. Поделитесь этим постом, чтобы помочь другим владельцам сайтов восстановить доступ для пользователей из России.
4 месяца назад
Роскомнадзор начал блокировать загрузку сайтов, которые используют защиту от Cloudflare, а именно, сайты использующие TLS 1.3 и Encrypted Client Hello (ECH). Предполагается, что блокировки связаны с тем, что с ECH доменные имена становятся невидимы для Роскомнадзора и других промежуточных узлов. Что удивительно, коснулось не всех сайтов, но затронуло многие, если Вы в числе "счастливчиков", ниже инструкция как отключить TLS 1.3 на стороне Cloudflare: 1. Войдите в аккаунт Cloudflare. 2. Перейдите в Dashboard и выберите сайт, где требуется изменить настройки. 3. Перейдите в раздел SSL/TLS. 4. Найдите вкладку Edge Certificates. 5. Прокрутите вниз до настроек TLS 1.3 и выключите переключатель. После внесения изменений доступ к сайту через TLS 1.2 должен восстановиться в течение нескольких минут, но обычно восстанавливается тут же. Поделитесь этим постом, чтобы помочь другим владельцам сайтов восстановить доступ для пользователей из России.
4 месяца назад
Настройка регионов сайта в Яндекс.Вебмастере стала более информативной. Теперь пользователю расписывается "зачем" нужно указывать регион сайта. Вопреки тому, что сотрудники Яндекса заявляют что: "Если сайт не связан с каким-то конкретным регионом, это не является ошибкой" - рекомендую указывать регион сайту, так как неоднократно встречал в работе, что после его указания - наблюдался рост позиций у сайтов. Указывать не имеет смысла только в том случае, если сайт продвигается на всю Россию.
1 год назад
Столкнулся с ситуацией, когда у клиента стоит защита от ПФ ботов на сайте и требуется просканировать сайт на скорость загрузки инструментом PageSpeed Insights. Стал искать в сети параметры, по которым можно было бы добавить исключения для антибота, но ничего не сумел нарыть . В итоге путем проб и ошибок, выяснил, что гугл обращается к сайту с User-Agent: Chrome-Lighthouse Тем самым, можно добавить в исключения роботов с данным юзер агентом и сможете спокойно сканировать свой сайт и улучшать скорость загрузки. Не благодарите 😉
1 год назад
Google окончательно перешел на First Mobile Indexing, а это значит, что теперь обход ваших сайтов будет происходить мобильным роботом. В связи с этим, для нормальной индексации ресурсов, важно убедиться в следующем: - Сайт должен иметь адаптивный дизайн или мобильную версию шаблона. Шрифты должны быть читабельными, интерактивные элементы, такие как кнопки, меню и прочее, должны иметь удобный размер для использования. Таблицы адаптированы для мобильных пользователей, впрочем, как и остальные элементы сайта. - Скорость загрузки сайта должна быть хотя бы в желтой зоне https://pagespeed.web.dev/ При проверке, не забывайте учесть разные типы страниц, не нужно ориентироваться только на главную сайта. Используйте оптимизацию изображений, скриптов, кеширование, для более быстрой загрузки сайта. - Используйте микрораазметку данных, для формирования корректного снипета в социальных сетях. За это отвечает микроразметка OpenGraph. Вслед за Google, через пару лет, Яндекс тоже может ввести аналогичный алгоритм, уже сейчас Яндекс заявляет о росте числа мобильных пользователей, более 70%. Поэтому Важно подготовить свои сайты под эти изменения, если еще этого не сделали. В комментариях пишите, если заметили какие-то изменения в индексации своих проектов в Google. Будет интересно узнать, как изменения затронули SEO специалистов и владельцев сайтов.
1 год назад
Касаемо проблемы МПК из прошлых постов. Яндекс анонсировал (теперь уже официально) обновление своих алгоритмов, касаемо уникальности контента https://webmaster.yandex.ru/blog/yandeks-obnovil-algoritmy-poiska-chtoby-luchshe-opredelyat-neoriginalnyy-kontent Теперь ужесточатся требования к рерайту и полностью заимствованных текстов. Как эти изменения скажутся на текстах, которые были сгенерированы нейросетями, по типу ChatGPT, пока неизвестно. Держим пальцы крестиком и наблюдаем за изменениями. Кого коснулись изменения алгоритмов - прошу в комментарии)
1 год назад
То, что в прошлом посте, я писал про МПК, частично подтвердила поддержка Яндекса. На прошлой неделе Яндекс обновил свои алгоритмы по определению заимствованного и неоригинального контента на сайтах. От этого выдачу так и штормит в последнее время. Полная новость на сёрче: https://searchengines.guru/ru/news/2057550
1 год назад
В Яндекс.Вебмастере стали массово приходить уведомления о том, что на сайте обнаружен Малоценный (малополезный) контент. Когда-то была уже история с этими страницами, но после поутихла. Видимо Яндексоиды допилили алгоритм или тестируют что-то новое. Проверьте свои сайты на наличие проблемы.
1 год назад
Яндекс.Вебмастер представил новую функцию - статистика фидов. Если перейти в раздел Товары и предложения -> Статистика фидов, то можно увидеть, насколько эффективно работает Поиск по товарам для Вашего сайта. В статистике отображаются показы, клики, статус проверки предложений, и другие показатели. Также здесь проще отслеживать статус предложений — сколько принятых, а какие отклонены в ходе проверки. Оригинальная новость от Яндекса: https://webmaster.yandex.ru/blog/razdel-statistika-derzhite-ruku-na-pulse
1 год назад
Директива Clean-param в Robots.txt, правильное использование для всех страниц сайта. Часто случается, так, что в индекс поисковиков попадают страницы с GET-параметрами, по типу site.ru/catalog/category/?sort_field=PRICE&order=asc или site.ru/catalog/category/?cf=390&cf=2816&cf=293 к подобным параметрам, можно также отнести различные UTM-метки, сортировки фильтров на сайте и прочие параметры, которые обычно передаются после знака вопроса ?. Страницы с параметрами обычно содержат один и тот же контент, как если бы эти параметры были бы убраны из URL страницы, из-за чего поисковики могут посчитать такие страницы полными ДУБЛЯМИ. Чтобы этого избежать для Яндекса, можно использовать директиву Clean-param в robots.txt. Правило работает только для Яндекса, на всякий случай повторюсь! Итак, как же она работает? Если кратко, то синтаксис таков: Clean-param: p0[&p1&p2&..&pn] [path] где p — это динамические параметры. Если их несколько, то нужно перечислить через амперсанд, например, sort&price. Поле path — префикс, указывающий путь применения директивы. В интернете полно описаний, как применять эту директиву к конкретной категории, однако никто не упоминает тот факт, что зачастую параметры распространяются чуть ли не на все страницы сайта, и в таком случае, проще всего указывать их таким образом (без указания директивы): Clean-param: utm&cf&order&sort_field где utm,cf,order,sort_field - это параметры, которые нужно исключить из поиска, а символ & связывает их (что-то вроде запятой при перечислении). Таким образом, мы исключаем параметры со всех страниц сайта. Проверить корректность настройки Robots очень легко в Яндекс.Вебмастере, сервисом https://webmaster.yandex.ru/site/tools/robotstxt/ Файл robots.txt не имеет ограничений на количество указываемых директив Clean-param. В любом месте файла и количестве они будут учтены. В написании директивы учитывается регистр, а также длина правила ограничена 500 символами. Учитывайте это, при заполнении.
1 год назад
В Яндекс.Бизнес появилась возможность добавлять организацию, без ее фактического существования. Долгое время вебмастера испытывали трудности с созданием карточки в Яндекс.Бизнесе, для тех компаний, которые имеют бизнес только в интернете, например, интернет-магазины или сайты услуг, которые можно оказывать дистанционно. И вот, оно случилось, Яндекс, смягчил политику добавления в свой справочник и теперь каждый может внести свой сайт или организацию туда, без замороченных подтверждений, съемок фасадов зданий, видео подтверждений и прочего. Я бы об этом не узнал, если бы у моего клиента, в сниппете не стал отображаться чужой номер телефона, а в вебмастере не стала отображаться чужая карточка организации 🤣 Не исключено, что в связи с данным нововведением, появятся прецеденты, аналогичные, тому, что описал выше. Но в любом случае, для меня это прекрасная новость, надеюсь и Вы этого также долго ждали 😉