7 причин, почему страницы сайта могут быть понижены в выдаче или удалены из поиска

7 причин, почему страницы сайта могут быть понижены в выдаче или удалены из поиска

Присутствие в индексе поисковиков является обязательным условием эффективного SEO. Вот несколько причин, по которым сайт может быть понижен в выдаче или исключен из поиска.

На эффективность бизнес-сайта влияет множество факторов. Их комбинация обеспечивает лучшие или худшие результаты для владельца. Много отличий будет даже в зависимости от проекта и ниши. 

Но у всех веб-проектов есть нечто общее, что является необходимым условием SEO-продвижения — страницы сайта должны присутствовать в индексе поисковой системы. Влиять на положение сайта и его страниц в Яндексе и Google можно лишь тогда, когда поиск их видит. 

Отсутствие проблем с ранжированием и хорошая видимость в поисковой выдаче позволяют без добавочных усилий привлекать органический трафик и повышают ROI (Return On Investment — коэффициент возврата инвестиций).

Чтобы стабильно добиваться хороших результатов, нужно понимать, почему страницы изначально качественного сайта могут быть понижены или удалены из поиска. 

1. Технические проблемы 

Технические проблемы могут мешать поисковым роботам индексировать страницы сайта. Это снижает видимость сайта в органической выдаче.

Накопившиеся со временем технические сбои могут влиять на поведенческие факторы ранжирования, что также приводит к снижению позиций. 

Проблемы могут быть вызваны человеческим фактором. Так, например, неправильно прописанные директивы в robots.txt блокируют индексацию отдельных страниц, а то и целых разделов. Сюда же относятся изменения на сайте, которые не были согласованы с оптимизатором. Вмешательства в настройки CMS и плагинов, изменение дизайна могут негативно отразиться на индексации. 

Нештатная работа программной части нередко приводит к генерации большого количества ненужных страниц, например, с ошибкой 404, что влияет на отношение поисковиков к сайту в целом.

Ряд проблем связан с естественным старением сайта:

  • Давно созданный сайт хорош на десктопе, но не адаптирован или плохо адаптирован под мобильные устройства — это негативно влияет на его положение в мобильной выдаче.
  • По старинке используется http вместо https, или миграция на защищенный протокол организована недостаточно хорошо, что приводит к появлению смешанного содержимого (mixed content). Ошибка чревата проблемами с индексацией.
  • Сайт загружается медленнее, чем сайты конкурентов. Фактор скорости загрузки теперь приобрел большой вес в ранжировании.

Технический SEO-аудит позволяет выявить и устранить подобные проблемы. Стоит делать аудит регулярно, например, раз в полгода. 

2. Попадание под фильтры

Внезапное исчезновение страниц из результатов поиска свидетельствует о том, что сайт мог попасть под санкции поисковых систем (фильтры). Штрафы бывают алгоритмические, то есть такие, которые накладываются в автоматическом режиме, и ручные. Последние довольно редки. Куда проще угодить под фильтр алгоритма, который посчитал, что сайт недостаточно качественный или нарушает рекомендации поиска.

К счастью, в наши дни поисковые системы стали лояльнее к владельцам сайтов и вебмастерам. Предупреждения об угрозе санкций за нарушения рекомендаций поисковиков отображаются в панелях вебмастеров. Вот как это выглядит:

Но уведомлений может и не быть. Кроме того, фильтры встречаются разные, связь санкций с апдейтами поисковых алгоритмов не всегда очевидна. Поэтому, если есть подозрение насчет возможных санкций, лучше обратится за помощью к опытным специалистам.

3. Взлом и вирусы

Безопасность — проблема номер один в современном вебе. Злоумышленники взламывают чужие сайты, а получив к ним доступ, заражают вредоносным кодом, сгенерированными страницами, спам-контентом и ссылками. Обнаружив на сайте подобную активность, поисковые системы могут исключить его страницы из индекса вплоть до полной деиндексации ресурса.

Есть несколько способов проверить сайт на вирусы:

  • Проверить раздел с оповещениями о проблемах безопасности в Google Search Console и Яндекс.Вебмастер.
  • Довериться хостерам, которые используют специализированное ПО для анализа сайтов клиентов. В случае обнаружения вредоносного кода они уведомят об этом владельца.
  • Использовать специальные плагины для защиты сайта и проверки безопасности. Свои плагины разработаны для различных CMS. Так, например, для сайтов на CMS WordPress применяют iThemes Security и MalCare.
  • Воспользоваться специализированными онлайн-сканерами, такими как Sucuri SiteCheck и VirusTotal.

Ручную проверку специалистом по безопасности также никто не отменял. Иногда злоумышленники могут быть очень изобретательными, и обнаружить их деятельность непросто.

4. Переоптимизация страниц

Фильтр за переоптимизацию поисковики применяют чаще других. Грань между страницей, хорошо проработанной в интересах SEO, и переоптимизированной страницей довольно тонкая. Ее легко переступить. Фильтр проявляется в виде резкого проседания в выдаче группы запросов, по которым продвигается страница. Наблюдается аналогичная потеря трафика.

Для снятия фильтра за переоптимизацию предпринимают следующие действия:

  • уменьшают объем оптимизированного текста в содержимом страницы и метатегах;
  • удаляют из текста избыточные вхождения ключей, часть вхождений изменяют;
  • переформатируют контент на странице, текст разбавляют изображениями, списками, таблицами и т. д. 

5. Недостаточное ценные страницы

Страницы с малым количеством контента или вовсе без него, а также с контентом, дублирующим содержание другого URL, поисковые роботы могут принять за дорвеи. Реакция алгоритмов будет соответствующая.

Фильтры, нацеленные на зачистку поисковой выдачи от подобных страниц предусмотрены  в Яндексе (фильтр МПК — «малополезный контент») и в Google (фильтр Thin Content — «худой или слабый контент»).

Проблемой является не просто объем контента на странице, а комплекс причин, сочетание которых снижает ценность страницы. Речь идет о страницах с малым количеством уникального контента, почти дублях, «мусорных» страницах, битых ссылках и т. п.

На дубли страниц стоит обратить особенное внимание, тем более что такая проблема легко лечиться путем настройки атрибута rel=»canonical», а также рядом технических правок.

6. Несоответствие интенту

Поисковики стремятся давать пользователям лучшие результаты в ответ на поисковые запросы. Но даже при вводе одной и той же ключевой фразы люди могут искать разный тип информации. Поэтому поисковой системе важно согласовать результаты выдачи с тем, что хотят видеть пользователи, а владельцу сайта учитывать это при оптимизации посадочных страниц. 

Намерение, которое движет пользователем при вводе ключевого слова в поисковой системе, называется интентом. Это важное понятие в современном SEO. 

Так, например, при поиске по одному и тому же запросу часть пользователей хочет видеть обзоры продукта и рейтинги, другие — сайты, где продукт можно заказать, третьих интересуют новости относительно новой версии продукта. 

7. Резкие изменения на сайте

Любые изменения на сайте, которые затрагивают большое количество страниц, могут отразится на его ранжировании в поиске. Такой же эффект вероятен при существенном изменении содержимого или внешнего вида посадочной страницы.

В процессе редизайна сайта или его миграции на другую CMS даже крошечные ошибки могут привести к серьезным негативным последствиям:

  • изменению или удалению значительной части контента на посадочных страницах;
  • изменению структуры сайта и шаблона формирования URL;
  • появлению технических ошибок, которые сказываются на работоспособности сайта. 

Бывает, что новую версию сайта переносят с тестового домена, прихватив при этом тестовый же robots.txt, где прописан запрет на индексацию, и никто этого и не замечает. Случиться может всякое.

После исправления ошибок — запрос индексации и переобход

Недавно бывший сотрудник Google, ныне SEO-консультант Педро Диас (Pedro Dias) поделился ценной мыслью. Он заявил, что хорошее SEO — это не о том, чтобы знать, что делает Google. Важно знать, почему Google это делает.

Плохая индексация — фатальный итог работы с сайтом. Понимание причин плохой индексации позволяет оперативно устранить ошибки. 

У поисковиков есть полезные инструменты, которые позволяют быстро уведомить их о том, что изменения внесены и проблемы исправлены. В Google Search Console этот инструмент называется «Проверка URL», в Яндекс.Вебмастере он доступен под названием «Переобход страниц»:

Эти инструменты можно использовать для ускорения индексации или добавления в индекс страниц, которые по каким-то причинам туда не попали или были исключены. 

Остались вопросы или знаете другие причины плохой индексации? Напишите в комментариях!

0 ответы

Ответить

Хотите присоединиться к обсуждению?
Не стесняйтесь вносить свой вклад!

Добавить комментарий