Яндекс теперь индесирует JavaScripts и CSS-файлы

Шесть этапов в создании Веб-дизайнаВслед за Google российская поисковая ситема — Яндекс решила начать индексировать JavaScripts и CSS-файлы на сайтах. Для любого более-менее продвинутого мастера эта новость расценивается так: «Ребята, теперь наш поисковик будет ранжировать сайты не только по содержанию и качеству контента на сайтах, но и учитывать их внешний вид и интерфейс. Говоря «по научному» — теперь Яндекс индесирует JavaScripts и CSS-файлы. То есть уже начал, совсем недавно.

«Если эти данные позволят предоставить пользователям нашего поиска лучший ответ по какому-либо запросу, то в ранжировании мы будем использовать именно версию, полученную с использованием JavaScripts и CSS», — сообщается в официальном сообщении.

Не понятно мне только то, почему и ранее Google предлагал вебмастерам настраивать файл robots.txt. на сайтах, запрещающих индексировать JavaScripts и CSS-файлы — но с осени 2014 года с тал рекомендовать обратное. Теперь Яндекс пошел по стопам Гугла…  Теперь дизайны сайтов тоже стали важны для Яндекса…

Нет, я совсем не против того, что поисковики будут, при оценке сайтов, учитывать их внешний вид.  Это хорошая новость. Вопрос в том — почему только сейчас?

Ну, как бы там ни было, а нам придется уже сейчас открыть файлы с JavaScripts и CSS в robots.txt.  Это рекомендация для тех, кто закрывал. Делайте это, пока администрации этих сервисов снова не передумали 🙂

Впрочем, я как-то упустил ранние рекомендации Google и никогда не закрывал в роботсе вышеупомянутые файлы. А вы?

8 Comments

  1. Теперь придется опять переделывать файл robots. Плохо то, что у Яндекса нет инструмента проверки, как у Гугла. Там все видно, что робот видит, а что еще нет. А у Яндекса придется делать наугад.

  2. У меня для обоих поисковиков в роботс все одинаково.

  3. Я еще полгода назад открыл полностью файл robots.txt и для гугла и для Яндекса. Помню прочитал об этой рекомендации на одном уважаемом мной блоге.

  4. Впервые слышу, что лучше отткрыть для индексации почти все. Впрочем, иногда и сам думал: а почему не сделать все Allow. Но для этого нужно найти другой спсосб для устранения дублей и т.п. Нет, не рискну я делать такой роботс:
    User-agent: *
    Disallow: /wp-admin
    Host: igorchernomoretz.com
    Sitemap: _http://igorchernomoretz.com/sitemap.xml

    User-agent: Googlebot-Image
    Allow: /wp-content/uploads/

    User-agent: YandexImages
    Allow: /wp-content/uploads/ 🙂

  5. Ха-ха-ха 🙂 С дублями я борюсь благодаря редиректам и…это помогло! Дублей у меня нет!
    У меня такой вопрос:
    Так сейчас уже ссылки, которые закрыты с помощью js и span теперь видны поисковым системам?

  6. Ну… Яндекс утверждает, что уже видны.

  7. Помню, когда год назад все начали закрывать ссылки через span. Каждый второй блогер утверждал, что это единственный и самый надежный способ спрятать ссылки от ПС. Я еще тогда почти во всех комментариях написал, что ПС очень быстро индексировать подобные ссылки. И…вот оно — случилось! 🙂
    Я остался со старыми nofollow 🙂

  8. Ссылки вообще, как мне кажется, невозможно спрятать. Под любым соусом их подавай и как угодно вуалируй — без толку. Их могут поисковики только не индексировать или индексировать ( в зависимости от настроек вебмастером сайта). И фсе 🙂

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *