А так ли важна уникальность статей для поисковых систем?

Копипаст статей с сайтов - а разве это плохо?
Копипаст статей с сайтов — а разве это плохо?

Кто из вебмастеров не сталкивался с проблемой дублирования своего контента на других сайтов? Наверное многие и особенно те, кто с особым старанием их создает, подбирая и создавая картинки в фотошопе, составляя SЕO-оптимизированную  статью, форматируя ее с особым старанием и вдохновением. И что тут удивляться, если такую статью сопрут скопируют и разместят на своем ресурсе?  Ведь хорошая статья действует как искусный  провокатор на любителя  стащить, что плохо лежит. А как на это реагируют поисковые системы? Известное дело: они всячески предупреждают, что копированный контент на сайте сослужит автору плохую службу, грозят всяческими фильтрами и даже банами в поисковой выдаче.  Что же происходит в действительности и

Насколько важна  уникальность статей для поисковых систем?

Проблема уникальности, как ни жаль, для ПС не так важна, какой они ее представляют для  вебмастеров. Да, им важно, что бы автор писал статьи сам (зачем в интернете уйма одинаковых статей, сиди разбирайся поисковик —  а оно ему надо?  🙂 Но это пожелания, а в действительности, они( ПС) ведь ничего не могут сделать — копипаста ОЧЕНЬ много, а поисковики «одни» :).  Не зря же Гугл недавно убрал опцию основного индекса.

Что такое основной индекс Google?

Для непосвященных, объясняю:  в  этой поисковой системе существует  основной и дополнительный индекс. Основной индекс — это те страницы, которые попадают в индекс поисковика, исключая «сопли» (пошло от названия дополнительного индекса — Google Supplemental Index) и что очень важно, только страницы, попавшие в основной индекс Google,  приносят трафик на сайт. Все, что попадают в дополнительный («сопли») — нет.

Куда делся основной индекс Google?

Те, кто пользуется RDS- баром (расширение для браузеров), знают что его сервис позволяет определять мгновенно количество проиндексированных страниц в важнейших ПС. Вот как выглядит эта картинка:    Стрелкой я указал на цифру, указывающую на то, какой процент страниц исследуемого сайта попал в основной индекс. Как видите, на нем уютно расположился ноль. И такая «иллюстрация» представлена с недавних пор для всех сайтов.

Дело только в RDS? Давайте проверим проверим другой ресурс. Например setlinks.ru. . При проверке позиций сайта на этом сервисе, выберем строчку «Эффективные страницы сайта» ( в «переводе» — основной индекс) и перейдем по ней Найдем неизменное «По запросу site:domen.ru/* ничего не найдено». А раньше, месяца полтора назад, такие страницы были. Редко у кого на сто процентов, но по ним можно было определять насколько продуктивен сайт в создании уникального и тематического контента. На основании собственного опыта смею утверждать, что около 90% обвалов позиций сайтов и попадания под самый строгий фильтр Гугла связан с этим показателем. Достигший всего 10% страниц, попавших в основной индекс, а остальное в сопли или вообще выпавших из индексации, рисковал попасть в бан ПС.

Теперь этого индекса нет!

Это настораживает и наводит на мысли о том, что высказывания администрации поисковиков о борьбе с копипастом — чистой воды декларативный фарс. Интересно и то, что я так и не нашел ответа на этот вопрос ни в сообщениях на сайтах, ни на форумах, ни в вопросах-ответах. Тишина — мертвая…

Но суть дела  в том (из опыта), что на снижение процента страниц, попадавших в основной индекс, более всего влияло наличие страниц с неуникальным текстом. Не понимая этого, я на заре своего блоговедения, довольно часто делал копирование чужих статей (с размещением ссылок на источник, а иногда и без них) и лишь позже, разобравшись в премудростях индексирования, понял, что это вредит моим ресурсам и ресурсам, у которых украл контент.

Вредит, но до определенной степени: спустя время, если статья была хорошей (опустим описание этой характеристики  — и так все понятно), она попадала в мой основной индекс! Так ли уж важен фактор уникальности статей для ПС?..

 А не лгут ли поисковые системы?

Я встречал уйму статей — полный копипаст со ссылкой на  ее источник, но они были  в первых строках по высокочастотному запросу. Особенно, если установлена на блоге с возрастом и давно. Хорошо оптимизированная статья (впрочем и это не обязательно), продвинутая закупками внешних ссылок на нее ( и даже без этого) может оказаться в ТОПе на ресурсе, авторство мануала которого не принадлежит админу сайта.

Уличить во лжи поисковые системы, наверное, нельзя — поисковики  действительно прилагают усилия в борьбе за уникальность контента на сайтах. Вопрос в другом: насколько эффективна эта борьба и насколько она им нужна?

Можно заметить, что поисковая система Google, на сегодняшний день, с этой проблемой справляется лучше, чем другие ПС. Но можно так же  наблюдать, что эффективность действий поисковых роботов в рамках разрабатывающихся поисковых алгоритмов оказывается не настолько сильна и Яндекс, например, здесь занимает далеко не ведущие позиции.

Вот так. А писать или не писать уникальные статьи, или «перенимать опыт» у других — дело самого автора.

Обсуждаем?

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *