Найти тему
Есть у Google классная штука под названием Google Discover (или Гугл Рекомендации) 🥸 Доступны только на мобилках, и туда можно попасть как со статьей, так и с карточкой товара 👀 Большую роль играет релевантность страницы, а описания товаров (особенно на маркеплейсах) продавцы, ох, как любят расписывать во всей красе 🥰 Порой, переплюнуть такую релевантность инфо статьей в Блоге какой-нибудь компании очень сложно 😢 Если уже знакомы с Google Рекомендациями, вот классное видео с ЦУ, которые можно усвоить и начать внедрять прямо сейчас (но придется постараться, чтобы прогрузить его на Youtube) www.youtube.com/...jim Для тех, кто вообще хз, что такое эти Рекомендации, сделаю подробный пост 👇
2 месяца назад
💻 В конце ноября у "Ашманов и Партнеры" прошел бесплатный вебинар на тему: ➡️ Как продвигать коммерческие сайты по информационным запросам? ⬅️ vk.com/...247  Довольно горячо обсуждаемый вопрос в последнее время 🤔 Особенно среди владельцев интернет-магазинов, которые пытаются захватить дополнительный трафик с помощью доработки своих Блогов и Журналов. В видео все действо конкретно по теме начинается ~ с 33-34 минуты, так что можно смело отматывать ⏩ Делитесь инсайтами в комментариях 🥸 #ашмановипартнеры #seo #продвижениесайта #трафик
2 месяца назад
Директивы файла robots.txt
Ловите полезную инфу 👇 про директивы файла robots 🤖 🔺User-agent - чтобы показать, к какому поисковому роботу вы обращаетесь Так, например, User-agent: * - обращение ко всем роботам одновременно. А вот отдельно для роботов Гугл будет User-agent: Googlebot, для всех роботов Яндекса User-agent: Yandex 🔺Disallow - как можно догадаться из перевода, это запрещающая директива, используется, чтобы скрыть определённые страницы сайта от индексации. 🔺Allow - наоборот разрешающая директива, можно комбинировать с disallow, если, например, нужно открыть для индексации только некоторые части раздела на сайте (или каталога)...
2 года назад
Что такое файл robots.txt?
Файл 🤖 robots.txt — это текстовый документ (да, его можно создать прямо в блокноте 😉) в кодировке UTF-8, действует для протоколов http и https, а также FTP. Он должен располагаться в корневом каталоге и быть доступен по адресу типа: https://вашдомен.ru/robots.txt. ❓Зачем нужен файл robots 🤖 Этот файл дает роботам поисковым систем рекомендации: какие страницы/файлы вашего сайта надо сканировать и показывать в выдаче, а какие оставить "приватными" 👌 Для последнего это, например, могут быть: 🔹страницы...
2 года назад
Несколько постов подряд про семантику 🤔 Боюсь, что у новичков сложится впечатление, что именно поиск ключевиков под, как это модно сейчас говорить, нишу - и есть главная задача seo-специалиста 🙃 НО НЕТ 🚫 Роботы поисковых систем любят "скринить" технические аспекты 👌 сайта. Поэтому настало время познакомиться с такими понятиями как "файл robots" и "файл sitemap" поближе 🤗 Они только называются так страшно, на самом деле, там всё предельно просто и поддаётся логике 😉
2 года назад
Сегментация СЯ
Сегодня вечером немного про сегментацию семантического ядра 📊 Представьте, что Вы собрали сотни поисковых запросов для продвижения сайта. Как их разбить на группы, и зачем это делать? 🤓 Не смотря на то, что сейчас есть много автоматизированных сервисов, которые запросто разделят запросы из семантического ядра на группы, выполнить такую задачу вручную очень полезно. Ведь в процессе можно дополнить список новыми ключевиками, убрать случайные дубли и т.д. 👍 Вот несколько вариантов, на какие группы можно разделить поисковые запросы: 🔹 виды услуг 🔹типы товаров 🔹брендированные запросы 🔹региональные...
2 года назад
Частотность ключевых запросов для продвижения
Определяем частотность ключевых запросов для продвижения: в этом помогут разные сервисы. Самый популярный - Яндекс Wordstat. 🤓 Как же понять, какие из выбранных Вами запросов, высокой частотности, средней или низкой? Разбираемся по порядку: ⏩ высокочастотные ключевики - запросы содержат 1-2 слова и могут похвастаться, ну, просто широченной направленностью. Так, например, в Вордстате количество показов в месяц будет от 1500 до...огромных цифр ( все зависит от конкурентности сферы\тематики, в которой ведется продвижение сайта)...
2 года назад
Что такое семантическое ядро в SEO?
На повестке дня - понятие "семантического ядра" (сокращённо - СЯ) Простыми словами, это список поисковых запросов (слов, фраз), по которым Вы хотите продвигать свой сайт. "Ключевики" (говоря уже по-сеошному) нужно распределить по страницам сайта - сделать для них, так называемые, посадочные страницы. Они должны быть максимально релевантны запросу ☝️ Если есть опыт работы с созданием объявлений для контекстной или таргетированной рекламы, с этим проблем возникнуть не должно. Поисковые запросы используют...
2 года назад
Что такое сниппет?
На днях заказчик шепотом спросил:"А что такое сниппет?" 😳 Давайте разбираться, тут всё просто 🤗 Всё, что ниже ссылки на сайт и есть, так называемый, сниппет (см.картинку) Поговаривают, что он влияет на кликабельность, и это действительно так ☝️ Если "забить" на сниппеты страниц, которые ты выбрал как посадочные для продвижения каких-то поисковых запросов, то можно даже, о, ужас, клиентов потерять 😱 Так, откуда же он берётся? Если говорить про выдачу Гугла, то это пара тегов: title и description...
2 года назад
А теперь буквально пару слов на тему внутренней оптимизации, ведь она гораздо глобальнее 😜 Поэтому лучше делать параллельно две задачи: •технический аудит: сюда можно отнести пункты с файлами robots и sitemap, редиректы, коды ответов сервера, скорость загрузки сайта; • анализ семантического ядра сайта: сбор и распределение поисковых запросов по посадочным страницам 😉 Больше полезной информации на ТГ канале pro SEO: t.me/...seo #внутренняяпоисковаяоптимизация #поисковаяоптимизация #seoпродвижение
2 года назад
Внешняя поисковая оптимизация
Чтобы не пугать "новичков", предлагаю начать с разбора понятия Внешней оптимизации сайта в рамках #seo продвижения ⬇️ Подробнее по пунктам с иллюстрации: 1. Речь идёт о сниппетах, которые показывает ваш сайт в поисковой выдаче. Если специально не заморочиться и не сделать их понятными и манящими, то кликабельность будет низкая, ведь робот сам "подтянет" со страниц сайта всякую ненужную ерунду и слепит из неё непонятно что 🙄 2. Конечно, внешние ссылки с проверенных (а ещё лучше - тематических) ресурсов будут положительно сказываться на ранжировании сайта...
2 года назад
Приветствую всех 🙌 Теперь у каждого ☝️ есть уникальная возможность узнать, как сделать так, чтобы поисковые системы 😍 влюбились в ваш сайт, а позиции в выдаче Яндекса и Google выросли ⬆️ Подпишись, чтобы не пропустить что-то уникально полезное. Больше информации в реальном времени в ТГ канале pro SEO: t.me/...seo #продвижениесайтов #seoпродвижение #поисковаяоптимизация
2 года назад