Penguin 2.1: западные специалисты уже проводят анализ

Penguin 2.1Как известно, обновленная версия алгоритма Penguin 2 , запущенная Google 4 октября 2013 года,  уже начала свое «черное дело». Пока SEO-сервисы рунета чухают ****** ,  готовятся к анализу  действияPenguin 2.1 , западные специалисты незамедлительно к этому приступили. Единственный отечественный  сервис, который быстрее всех подключился к этой работе —  seolib.ru. Он взял да и … перевел на своем блоге статью западного «cеошника», посвященной этой теме. Не густо, но хоть что-то… Давайте же и мы пройдемся по этой статье и кое-что обсудим.

Здесь я буду приводить цитаты из вышеназванной статьи, окропляя их своими комметариями. Насколько они будут удачными и конструктивными, судите сами.

Вообще, для совершения анализа действия Penguin 2.1 на сайты, в качестве подопытных, он использовал 11 вебресурсов, которые пострадали от запуска нового алгоритма. Важно и то, что эти сайты ни коим образом не пострадали от Penguin 2 и «операция» производилась с «чистого листа».

Разобравшись с анализом, автор пришел у выводу:

суть изменений представляемых в Penguin 2.1 – в обновлении данных 

Иначе говоря, обновленный пингвин ничего в алгоритм не добавил, а лишь обновил данные по сайтам. Сделал он это для того, чтобы сайты, которые подверглись пессимизации, но исправили ошибки, на которые указывал прошлый алгоритм, могли занять более высокие позиции в выдаче.  И наоборот — тех кто усиленно их стал  ими пренебрегать, понизить или установить фильтры. В общем — обычная текущая, рутинная работа, которая возникла не на голом месте: сайты, попавшие в прошлом под фильтры и исправившие положение своих дел, наверняка стали требовать (или просить), чтобы Google провел очередную ревизию. Это мое мнение.

Какими же фактами апеллировал блоггер, связывая их с этими злополучными 11-ю сайтами? Из анализа выяснилось, что «У большинства сайтов, пострадавших от алгоритма Penguin 2.1, неестественные ссылки появились в конце весны 2013 года или в течение лета».

Что представляют собой эти ссылки? Автор предполагает, что сайты использовали несколько видов входящих ссылок, которые в статье он выделил как

Категории целевых неестественных ссылок

и привел примеры:

  • Спам на форуме. Предыдущая версия алгоритма «просеивала» спам на форумах, но новая версия делает это с особым «рвением». Отныне комментарии в темах форумов с использованием ключевых слов в качестве анкоров просто «кричат» Google о том, что сайт хочет обмануть систему.  Также я заметил, что много спама на форуме смешано с биоспамом на форумах (о котором говорится ниже).

  • Биоспам на форуме. Ссылки из пользовательских профилей, где в качестве анкора используется ключевик, также могли стать причиной пессимизации.
  • Do-Follow блоги. Я видел ссылки с различных ресурсов, которые можно отнести к do-follow блогам –блогам, которые не добавляют атрибут «nofollow» к размещенным ссылкам (иногда даже к ссылкам в подписях комментариев). По сути, быть упомянутым на одном из ресурсов do-follow – это все равно, что сообщить фильтрам Google, что вы «химичите» со ссылками. Если вы этим занимаетесь и позиции вашего сайта упали из-за Penguin 2.1 – как можно скорее удалите подобные ссылки.

Что ж, друзья, ничего особенного в первых двух пунктах я не вижу, но третий пункт меня поразил и удивил. Если это действительно так, то прощайте Do-Follow блоги со своими взаимо-выгодными условиями — вы напрасно старались привлечь посетителей-комментаторов таким способом. Ох, не зря я, чувствуя интуитивно такой ход предстоящих событий, не стал свои сайты делать открытыми для индексации ссылок в комментариях! А может быть, ерунда это все?…

Далее еще интересней:

  • Blogroll спам (ссылки на другие блоги). Как и после запуска Penguin 1.0 и 2.0, в выдаче снова упали сайты, использующие спам-ссылки на другие блоги. Необходимо раз и навсегда усвоить, что такие ссылки вряд ли несут пользу, когда используются на сомнительных сайтах. Я верю словам Джона Мюллера (глава команды помощи вебмастерам Google), который официально заявил, что в целом использовать blogroll неплохо, но очень важно, где и как они используются. При неправильном подходе они могут нанести вред. Если у вашего сайта множество ссылок с сомнительных источников, я вам настоятельно рекомендую удалить их. Если вы не можете определить, какие ссылки лучше удалить, а какие – оставить, обратитесь к опытному SEO-специалисту.

  • Спам-каталоги.
  • Если у вас есть ссылки на подобных спам-каталогах – откажитесь от них. Исследуя работу алгоритма Penguin, я неоднократно сталкивался с этим видом ссылок.

  • Спам. Подписи в комментариях к блогу. Если вы использовали в своей подписи ссылку с  точным совпадением ключевика  или спамным анкором в виде текста, будьте готовы, что  она привлечет внимание Пингвина. При этом я заметил, что атрибут «nofollow» не мешает алгоритму понижать сайты в выдаче.

 

Тоже интересный вывод: спамерам не повезет даже если комментарии будут закрыты тегом «nofollow». Это замечательно!

Как и в Penguin 2.0, в новом алгоритме уделяется  внимание не только сыылкам на главной, но и внутренних страницах (2-й, 3-й и т.д. уровней).

Не ново, но важно и об этом нужно всегда помнить: «плохие» ссылки Penguin 2.1 заметит даже в самом отдаленном «уголке» сайта.

Как восстановиться, если сайт попал в «опалу»

В советах блоггера ничего мудреного, но к ним стоит прислушаться.

Если сайт упал в выдаче из-за него, вам необходимо предпринять целый ряд мер:

  • Соберите список своих бэклинков – загрузите все свои ссылки с различных ресурсов, включая Google Webmaster Tools, Majestic, Open Site Explorer и т.д.

  • Проанализируйте их – определите, какие из них являются неестественными, пометьте их в таблице и удалите.  

  • Отказывайтесь от ссылок  – разработайте план по удалению неестественных ссылок. Рекомендую рассмотреть как можно большее количество ссылок вручную.

  • В удалении страниц нет ничего страшного –  страницы с большим количеством спам-ссылок на вашем сайте вы также можете удалить. 

Возможно, представленные факты, а так же предупреждения  покажутся ложными, а методы устранения «недостатков» неэффективными. Но по моему мнению, общий взгляд этого западного специалиста иллюстрирует верные факты и предлагает нужные пути решений, если ваши сайты  захламлены заспамлены. Не менее интересны и выводы по поводу сбору внешних ссылок: все эти неправильные форумные ссылки, ссылки с дофоллоу-блогов, трастовых сайтов и прочих ресурсов, могут сыграть отрицательную роль. Особенно, если ресурсы некачественные. Ссылки должны быть естественными — это самое главное!

Ваше мнение, дорогие читатели?

LikesRock

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *