Недавно Google внес изменения в свои рекомендации по качеству поиска, касающиеся контента, созданного искусственным интеллектом, а также новых видов спама. Теперь поисковая система оценивает такой контент в соответствии с обновленными стандартами. В правилах указано, что использование ИИ-инструментов допустимо, но создаваемый материал должен быть уникальным. Также были добавлены три новых типа спама: использование просроченных доменов, злоупотребление репутацией сайта и массовая генерация бесполезного контента.
Эти обновления указывают на изменение подхода Google к определению качества материалов, особенно когда речь идет о контенте, созданном ИИ, и новых методах обмана поисковых систем.
Основные изменения в правилах оценки контента
1. Добавлено определение генеративного ИИ
Раздел 2.1 "Важные определения" теперь официально охватывает контент, созданный ИИ, и включает в себя четкие инструкции для специалистов, оценивающих такие материалы. В этом разделе указано: "Генеративный ИИ - это модель машинного обучения, способная анализировать предоставленные примеры и создавать новый контент, включая текст, изображения, музыку и программный код".
2. Определение контента низкого качества
Разделы с 4.0 по 4.6 были пересмотрены и дополнены новыми категориями спама. В обновленных правилах выделены три ключевых проблемы:
- Использование истекших доменов. Некоторые владельцы сайтов покупают домены с истекшим сроком действия и размещают там контент, который не несет пользы пользователям.
- Злоупотребление репутацией сайта. Это когда авторитетные сайты размещают материалы от третьих лиц, которые используют их высокий рейтинг в поисковике для продвижения сомнительного контента.
- Массовое создание бесполезного контента. Включает автоматическую генерацию множества страниц, созданных исключительно в целях монетизации, а не для пользы пользователей.
3. Оценка контента, созданного ИИ
В разделе 4.7 приводятся примеры, как отличить и оценить статьи, созданные при помощи нейросетей. Google особенно внимательно относится к текстам, которые не содержат уникального контента и не несут практической пользы для пользователей.
Один из типичных примеров - статьи, начинающиеся с фраз вроде: "Как языковая модель, я не обладаю актуальной информацией...". Также в список подозрительных материалов попадают тексты, заканчивающиеся незавершенными предложениями или содержащие очевидные фактические ошибки.
4. Технические требования
Среди новых рекомендаций появился пункт об отключении блокировщиков рекламы во время оценки контента. В правилах говорится: "Некоторые браузеры автоматически блокируют рекламу, поэтому перед оценкой страницы необходимо отключить все расширения, препятствующие отображению объявлений". Это необходимо, чтобы специалисты могли объективно оценить влияние рекламы на удобство использования сайта.
Как работают алгоритмы Google: от BERT до систем дедупликации
Google – это не просто поисковик, а сложная экосистема алгоритмов, которая анализирует миллиарды страниц, определяет их полезность и предлагает пользователям максимально точные результаты. Сегодня разберем несколько ключевых систем, на которых строится поиск, и посмотрим, как они работают.
BERT – алгоритм, который понимает смысл
Один из самых важных алгоритмов в работе поисковой системы – BERT (Bidirectional Encoder Representations from Transformers). Эта технология позволяет Google лучше понимать смысл запроса, даже если в нем есть ошибки, неоднозначные формулировки или пропущенные слова.
BERT анализирует текст двусторонне, то есть учитывает контекст слов, которые стоят не только до, но и после анализируемого элемента. Это делает систему более точной при обработке естественного языка. Например, раньше Google мог неправильно интерпретировать запрос «банки рядом», думая, что речь идет о стеклянных емкостях, а не о финансовых учреждениях. С BERT таких проблем стало значительно меньше.
Системы обработки кризисной информации
Еще один важный элемент работы поисковика – кризисные информационные системы. Они помогают пользователям находить проверенные данные в экстренных ситуациях.
Кризисные системы делятся на два направления:
- Поиск информации о личных кризисах, таких как помощь при депрессии, насилии или других сложных ситуациях. При таких запросах Google показывает горячие линии поддержки, контакты специалистов и другие важные данные.
- Оповещения SOS – работают в случаях стихийных бедствий, катастроф и аварий. В результатах поиска могут появляться данные о перекрытых дорогах, эвакуационных пунктах, актуальные карты и инструкции.
Как Google борется с дубликатами
В сети миллионы страниц содержат один и тот же текст. Это может быть случайное совпадение (например, репост новости на разных сайтах) или сознательная попытка манипулировать выдачей. Чтобы пользователи не тратили время на просмотр одинаковых страниц, Google использует системы дедупликации.
Эти алгоритмы автоматически выявляют страницы с идентичным или почти идентичным содержанием. Если несколько сайтов предлагают один и тот же материал, Google показывает только один из них, который считает наиболее релевантным и авторитетным.
Почему ключевые слова в домене больше не дают преимущества
Раньше владельцы сайтов могли легко продвигаться в топ, используя доменные имена с ключевыми словами. Например, сайт с названием «лучшие-рестораны-москвы.рф» мог занять высокие позиции только за счет домена. Однако Google давно понял этот трюк и внедрил систему, которая анализирует домены с точным соответствием запросу.
Теперь такие сайты ранжируются по тем же принципам, что и все остальные. Алгоритмы оценивают их содержание, структуру, удобство использования, а не просто наличие ключевых слов в названии.
Freshness systems (системы свежести). Свежий контент не всегда по определению качественнее вышедшего давно. Но алгоритмы Google понимают, когда фактор новизны может иметь большее значение, и поднимают недавние публикации выше в поиске. Например, если вышел обзор на новый фильм, то при запросе информации о фильме этот обзор будет выше, чем новость о запуске производства ленты, а новость о крупном землетрясении недалеко от вас – выше, чем статья из «Википедии».
Helpful content system (система полезного контента). Этот алгоритм ориентирован на то, чтобы люди видели в результатах выдачи больше полезного контента, написанного людьми для людей.
Link analysis systems (системы анализа ссылок). У Google есть системы, которые фокусируются на том, как страницы ссылаются друг на друга – благодаря этому они понимают, о чем страницы и какие из них могут быть наиболее полезными.
Local news systems (местные новостные системы). Системы выдачи местного новостного контента работают в Google, как это утверждается в блоге компании, «когда это уместно». Это не отключенный весной в России Google News, а один из быстрых результатов. Но, возможно, эти алгоритмы работают в связке: мы попытались проверить работу этого алгоритма на примерно десятке запросов – и не увидели ничего релевантного.
Multitask Unified Model (MUM, многозадачная унифицированная модель). Это система искусственного интеллекта, способная как понимать, так и генерировать письменную речь. ИИ используется не для общего ранжирования в поиске, а только для некоторых «приложений», например, поиска информации о вакцине против COVID-19.
Neural matching (нейронное сопоставление). Этот ИИ Google использует для понимания того, о чем говорится в запросах и на страницах – и сопоставления этих сущностей друг с другом.
Original content systems (системы оригинального контента). Это алгоритмы, которые нацелены на приоритет в выдаче оригинального контента. Если контент по каким-то причинам дублируется на одном сайте, владелец может просто указать одну из страниц как каноническую – для этого Google предусмотрел специальную разметку.
Removal-based demotion systems (системы понижения сайтов в выдаче, основанные на фактах законного удаления контента). Алгоритмы Google понижают в выдаче сайты, контент с которых удаляется по двум причинам: из-за нарушения авторских прав; из-за публикации личной информации. По сути, сайт, попадая в такие конфликты, сигналит поисковой системе, что у него не все ок с контентной политикой – раз его контент удаляют на законном основании.
Page experience system (системы, завязанные на пользовательском опыте). Этот алгоритм оценивает критерии, которые свидетельствуют о плохом или хорошем опыте взаимодействия со страницей: скорость загрузки, удобство для мобильных устройств, отсутствие навязчивых межстраничных объявлений, безопасность обслуживания. При прочих равных поисковик показывает выше те страницы, которые показывают лучшие результаты по перечисленным критериям.
Passage ranking system (система ранжирования отрывков). Алгоритм, который анализирует не саму страницу, а отдельные разделы или даже отрывки контента – это делает поиск еще качественнее.
Product reviews system (система отзывов о товарах). Это система, которая делает, по сути, то же самое, что Helpful Content, – то есть «вычисляет» самую полезную информацию и дает ей приоритет – но «заточена» конкретно под товары. В остальном – то же самое: алгоритм оценивает отзыв как обычный контент, «рассматривая» в первую очередь экспертность и опыт автора.
RankBrain («ранжирующий интеллект»). Алгоритм «изучает» значение слов, встреченных им впервые, причем делает это в связке с языком, на котором сделан запрос. Например, запрос banker от американца система поймет как «человек, работающий в банке», а вот для британца Google добавит в выдачу также результаты со значением «железнодорожный локомотив» (потому что это дополнительное значение слова banker в британском английском).
Reliable information systems (информационные системы, заслуживающие доверия). Google очень следит за качеством информации, в том числе – быстро меняющейся. Когда алгоритмы не уверены в том, что конкретные данные являются достоверными, он дает рекомендации, как выполнить поиск другими способами – такими, которые приведут к надежным результатам.
Site diversity system (система разнообразной выдачи сайтов). Как правило, Google не показывает более двух страниц с одного и того же сайта в лучших результатах, чтобы исключить возможность захвата выдачи. При этом здравый смысл все еще в приоритете – если несколько страниц одного сайта действительно наиболее релевантны запросу, чем все другие, то делается исключение.
Spam detection systems (системы обнаружения спама). Интернет содержит огромное количество спама, который, если его не устранить, не позволит поисковику показывать самые полезные и релевантные результаты. Google использует целый ряд систем обнаружения спама. Спам, увы, постоянно совершенствуется – но и алгоритмы тоже.
Что еще важно в Google?
Это не совсем алгоритмы в прямом понимании слова, но это важные факторы ранжирования Google:
Core Web Vitals. Этот набор метрик был представлен в 2021 году и фокусируется на оценке производительности веб-страниц. Core Web Vitals включает такие показатели, как скорость загрузки страницы, интерактивность и стабильность отображения контента. Они помогают поисковику определить, насколько комфортно пользователю взаимодействовать с сайтом. Если сайт загружается слишком долго или контент «прыгает» при прокрутке, это негативно влияет на его позицию в выдаче.
Mobile-first indexing. С 2019 года Google начал использовать мобильный вариант сайта для индексации и ранжирования. Это означает, что поисковая система отдаёт приоритет мобильной версии сайта при определении его позиции в результатах поиска. Если сайт плохо оптимизирован под мобильные устройства, его шансы на высокие позиции снижаются. Это связано с тем, что большинство пользователей заходят в интернет именно со смартфонов.
E-E-A-T (Expertise, Experience, Authoritativeness, Trustworthiness). Хотя это не алгоритм в традиционном смысле, E-E-A-T является важным фактором ранжирования в Google. Поисковая система оценивает качество и надёжность информации на сайте, а также авторитет и опыт автора. Если контент написан экспертом, который действительно разбирается в теме, он будет выше в выдаче, чем статья без указания автора или с сомнительными источниками. Этот фактор особенно важен для тем, связанных с финансами, медициной и юридическими вопросами.
User Intent (намерение пользователя). Google постоянно совершенствует механизмы анализа поисковых запросов, чтобы лучше понимать, что именно хочет найти человек. Это значит, что страницы, которые наиболее точно соответствуют запросу, будут выше в поисковой выдаче. Например, если человек ищет «лучшие смартфоны 2025 года», поисковик покажет свежие обзоры и рейтинги, а не статьи, написанные пять лет назад.
Page Experience Update. Этот фактор оценивает удобство использования страницы, учитывая такие аспекты, как наличие безопасного соединения (HTTPS), удобная навигация, отсутствие навязчивой рекламы и плавность работы сайта. Google стремится продвигать сайты, которые обеспечивают комфортное взаимодействие с пользователем.
Content Depth (глубина контента). Важно не просто наполнять сайт текстами, а делать их максимально полезными и информативными. Google учитывает, насколько полно раскрыта тема, есть ли дополнительные материалы, ссылки на авторитетные источники и примеры из практики. Чем глубже проработан материал, тем выше его шансы занять лидирующие позиции.
Internal Linking (внутренние ссылки). Связь между страницами внутри одного сайта помогает поисковым системам лучше понимать его структуру и содержание. Чем логичнее построена внутренняя перелинковка, тем проще поисковику определить важность и тематику каждой страницы.
Structured Data (структурированные данные). Использование специальных разметок, таких как Schema.org, помогает поисковым системам лучше понимать содержание страницы. Например, если на сайте есть рецепты, можно добавить разметку, которая позволит поисковику отображать рейтинг блюда, время приготовления и список ингредиентов прямо в поисковой выдаче.
Backlinks (входящие ссылки). Несмотря на развитие других факторов ранжирования, ссылки с авторитетных ресурсов по-прежнему играют большую роль. Чем больше качественных сайтов ссылается на ваш контент, тем выше его авторитет в глазах Google. Однако стоит помнить, что покупка ссылок или участие в сомнительных схемах может привести к санкциям со стороны поисковика.
User Engagement (вовлеченность пользователей). Время, проведенное на сайте, количество просмотренных страниц, процент отказов – все это учитывается при ранжировании. Если пользователи быстро покидают страницу, это сигнал для Google, что контент либо неинтересен, либо не соответствует запросу.
Regular Updates (регулярное обновление контента). Поисковики любят свежий контент, особенно в темах, где информация быстро устаревает. Регулярное обновление материалов помогает сайту оставаться актуальным и сохранять высокие позиции в выдаче.
Эти факторы в комплексе формируют стратегию ранжирования Google, позволяя пользователям находить наиболее полезную и качественную информацию. Оптимизация сайта с учетом этих принципов помогает улучшить его позиции в поисковой выдаче и привлечь больше посетителей.