1. Главная
  2. Блог
  3. Новости
  4. Google объяснили, почему позиции сайтов могут сильно ухудшаться после обновления основного алгоритма

Google объяснили, почему позиции сайтов могут сильно ухудшаться после обновления основного алгоритма

14 ноября 2021
14

SEO-оптимизатор рассказал о том, что он управляет сайтами трёх онлайн-аптек в Швейцарии. В какой-то момент у одного из сайтов появилось довольно много спамерских бэклинков, к которым компания не имела никакого отношения. Тем не менее, после июльского обновления основного алгоритма Google ранжирование этого сайта сильно ухудшилось, в то время как у двух других удвоились посещения и трафик. 

Пользователь убеждён в том, что причиной такого отрицательного эффекта является именно наличие спамерских URL у одного из ресурсов. 

Обновления основных алгоритмов касаются релевантности

Джон Мюллер начал свой ответ с того, что он не может назвать конкретную причину проблем с ранжированием вышеупомянутого сайта, так как зритель трансляции не оставил на него ссылку. Несмотря на это, он понимает, почему так могло произойти, так как все обновления основного алгоритма Google нацелены на решение одной и той же задачи:


“Если вы посмотрите на то, как работают обновления нашего основного алгоритма, то заметите, что все они связаны с определением общей релевантности сайтов и не касаются спама.
Именно поэтому я бы не стал связывать ситуацию со спамерскими бэклинками с основным алгоритмом Google”.

Общее качество сайта

В одной из последних трансляций SEO Office-hours Джон Мюллер подробно останавливался на теме общего качества сайта и его роли в ранжировании. На последнем стриме он снова коснулся этого вопроса:


“Эффект от основных алгоритмов не проявляется резко. Более того, изменения, которые нужно внести в соответствии с ними, делаются порционно и влияют, в первую очередь, на общее качество сайта”.

Отклонение ссылок не исправляет последствия обновлений основного алгоритма

Джон Мюллер твёрдо заявил о том, что отправка документа со списком отклонённых ссылок не поможет исправить проблемы, возникшие после обновления основного алгоритма Google:

“В связи с тем, что я исключаю влияние спамерских бэклинков на эту ситуацию, я считаю, что их отклонение ничего не изменит. С помощью нашего основного алгоритма мы стараемся определить, насколько релевантным является тот или иной сайт, и больше ничего. А релевантность, в свою очередь, напрямую зависит от общего качества ресурса”.

Важно узнать, почему сайт нерелевантен

После этого Мюллер подробно высказался о важности общей релевантности сайта:

“Я понимаю, как легко запутаться, если у вас три практически одинаковых магазина. Но, возможно, стоит попросить своих пользователей оставить обратную связь о работе с вашими сайтами? Это позволит вам найти едва уловимую разницу между тремя онлайн-аптеками и понять, почему просела релевантность сайта с резко ухудшившимся ранжированием”.

Технические проблемы сайта не влияют на работу основного алгоритма 

Пользователь, задавший вопрос, упомянул о том, что после того, как его сайт потерял свои позиции в поиске, его команда попыталась разрешить ряд технических проблем на нём — в том числе тех, что связаны с ошибкой 404. Мюллер сообщил, что технические проблемы с сайтами не играют никакой роли в работе основного алгоритма:

“Ни страницы с ошибками 404, ни любые другие технические проблемы на сайтах не связаны с обновлениями основного алгоритма. Повторюсь, они нацелены на то, чтобы определять релевантность и уровень качества ресурсов, а не штрафовать их за спам и технические проблемы”.
Полную версию ответа Джона Мюллера можно посмотреть в видео ниже, начиная с отметки 00:45:
По всем вопросам