Высокая видимость и низкое качество (или бесполезность) страниц — самая опасная комбинация для SEO

Обстоятельная статья Гленна Гейба про то, насколько иначе и более понятно воспринимаются слова Джона Мюллера после того, как мы узнали про Navboost.
Новизна вывода Гленна заключается в том, что по-прежнему нужно выявлять весь некачественный контент на сайте, но начинать в первую очередь с того, что имеет сейчас наибольшую видимость. Это отличается от традиционного подхода «переделываем/удаляем все, что сейчас не приносит трафик». При этом, конечно же, не стоит забывать об алгоритмах оценки качества на уровне сайта.

Сокращенная версия:

Помогая компаниям, на которые сильно повлияли апдейты 2023 года, я снова услышал от нескольких владельцев сайтов, что у них был самый высокий уровень трафика на сайте прямо перед падением.
Теперь, когда мы прочитали показания Гугла о Navboost и сигналах взаимодействия с пользователем в ходе антимонопольного процесса, в моей голове пронеслось несколько идей.

Гугл учитывает каждую проиндексированную страницу при оценке качества сайта. Джон Мюллер объяснял это не раз.
Комментарии Джона по поводу удаления некачественного контента с годами немного изменились. Он перешел от объяснения, что если часть контента проиндексирована, это уже говорит о прохождении некоего порога качества, к объяснению, что надо в первую очередь сосредоточиться на том, что имеет хорошую видимость и при этом низкое качество («content that was “highly visible” and lower-quality»).

Благодаря антимонопольному разбирательству мы узнали многое о том, как Гугл использует поведенческие факторы в ранжировании. Например, Панду Наяк из Google рассказал о Navboost, о том, как Google собирает данные о кликах за 13 месяцев (ранее — за 18 месяцев) и как эти данные могут помочь Гуглу понять уровень счастья пользователей (удовлетворенных пользователей поиска).

Хотя информация о Navboost поразила многих людей, всегда были признаки того, что Гугл что-то делает с данными о вовлеченности пользователей с точки зрения ранжирования. Никто не знал наверняка, но было трудно игнорировать эту концепцию, копаясь на многих сайтах, трафик которых со временем падал из-за крупных обновлений алгоритмов (особенно обширных core апдейтов).

Что касается времени на сайте, одна из моих любимых цитат была сделана много лет назад, когда Дуэйн Форрестер из Bing написал сообщение в блоге, объясняющее, как низкое время пребывания может повлиять на видимость в результатах поиска. Дуэйн больше не работает в Bing, но несколько лет он был Мэттом Каттсом из Bing:
«Если ваш контент не побуждает их оставаться с вами, пользователи уйдут. Поисковые системы могут понять это, наблюдая за временем пребывания. Время между тем, когда пользователь кликает на наш сайт в результатах поиска и когда он уходит с вашего сайта, рассказывает потенциальную историю. Минута или две — это хорошо, поскольку они могут легко указать, что посетитель воспользовался вашим контентом. Менее пары секунд можно расценивать как плохой результат. И хотя это не единственный фактор, который мы учитываем при определении качества; это сигнал, на который мы смотрим».

Дуэйн объяснял, что время рассматривается в совокупности с другими факторами и гоняться только за длительностью сессии (dwell time) — плохая идея. Для некоторых типов контента более короткие визиты подходят с точки зрения вовлечения пользователей.

Основная мысль, которую я пытаюсь донести, заключается в том, что взаимодействие с пользователем всегда каким-то образом было фактором… просто мы не знали, каким именно образом. Так продолжалось до тех пор, пока не был разоблачен Navboost.
Теперь слова Джона Миллера имеют бОльший смысл.

Чем больше данных о взаимодействии с пользователем для комбинаций запросов и целевых страниц Гугл имеет, тем лучше он может понять уровень удовлетворенности пользователей. Если страница имеет низкое качество и при этом не видна в поиске, Гугл не имеет данных о взаимодействии пользователей с ней.