| Последние новости из мира SEO
0 новых постов за сегодня

Эксперимент: влияет ли на ранжирование скрытие контента от индексации через JS

+1

15 марта 2016 — 12:13

В последние пару недель я разбираюсь в своих старых проектах: решаю, какие нужно  безжалостно прибить, а каким дать новую жизнь. Среди этого зоопарка есть несколько ресурсов, на которых ставил эксперименты по SEO. Поскольку сайты скоро будут выселены с сервера, а их домены — оставлены без оплаты, имеет смысл записать результаты и сформулировать выводы. 

Вокруг вопроса «а не стоит ли закрыть меню от индексации?» по-прежнему ломается много копий.
Эксперимент: влияет ли на ранжирование скрытие контента от индексации через JS


Аргументы «за» достаточно очевидны: сохраняем вес для других ссылок на странице, увеличиваем уникальность текста на странице и так далее. Аргументы «против» тоже вполне закономерны: незачем путать поисковики, усложнять реализацию, мешать естественному распределению веса; да и вообще какие ваши доказательства, что будет эффект?

 

Суть эксперимента

На сайте legalfoto.ru я создал 2 страницы, слегка оптимизированные под запрос «фото для свободного использования»:

  • http://legalfoto.ru/dlya-svobodnogo-ispolzovaniya-sovety/
  • http://legalfoto.ru/dlya-svobodnogo-ispolzovaniya-obzor/

На странице «Обзор законов» боковая колонка и футер (что составляет 4 ссылки и довольно значительный текстовый фрагмент), загружаются из подключаемых через jQuery файлов. Их содержимое не попадает в исходный код (чтобы разобраться в технических деталях, см. файл vv.js, подключаемый в header страницы).

Текст на обеих страницах уникален, но написан и оптимизирован по одному шаблону, примерно одного размера. Обе были выложены одновременно. Страницы не участвуют во внутренней перелинковке, добавлены в индекс напрямую через addurl (как я показал на прошлой неделе, это весьма эффективный способ).

Все это было сделано, чтобы снизить влияние посторонних факторов, поставить страницы в равные условия, но при этом не дать поисковикам считать их дублями.

Поясню: например, в случае размещения внутренних ссылок добавились бы определенные поведенческие метрики; да и просто есть вероятность, что внутренние ссылки передают разный вес в зависимости от положения в документе. С передачей анкорного веса все еще серьезнее. В общем, сделать 2 одинаковые внутренние ссылки невозможно, так что чистота эксперимента неминуемо бы пострадала.

Что наблюдалось?

Прежде всего, скрытие контента оказалось вполне действенным: ни Яндекс, ни Google «не видят» на странице текст из сайтбара.

Яндекс:

Эксперимент: влияет ли на ранжирование скрытие контента от индексации через JS

Google:

Эксперимент: влияет ли на ранжирование скрытие контента от индексации через JS

Страницы достаточно быстро вошли в индекс поисковых систем. В первые 3 месяца они периодически менялись местами по запросу, явного лидерства установить не удавалось.

Затем выдача устоялась.

Страница «Важные советы» — та, на которой не применялось никаких тактик по скрытию контента стабильно опережает страницу «Обзор законов» в Яндекса и Google c ограничением по домену (оператор site:). Что более важно, страница «Советы» постоянно показывается в ТОП-10 Яндекса и Google, а в Mail даже ТОП-1. Это весьма удачно, так как результаты поиска с ограничением по конкретному домену вряд ли можно свободно экстраполировать на основную выдачу.

Выводы

  • Закрытие меню от индексации не дает серьезных преимуществ при ранжировании, а возможно, и вредит продвижению страницы.
  • Текстовая релевантность — по-прежнему крайне важный фактор ранжирования (факт устойчивого нахождения страницы в ТОП, невзирая на скромные хостовые и нулевые ссылочные факторы)
  • По всей видимости, текстовая релевантность имеет для Mail.ru большее значение, чем для других поисковых систем.
  • «Единодушие» поисковых систем — свидетельство в пользу того, что выводы являются относительно заслуживающими доверия, несмотря на отсутствие статистической достоверности.

Необходимые замечания

Буду откровенен. Хотя этот эксперимент на фоне большинства обобщений по SEO выглядит образцом следования идеалам Фрэнсиса Бэкона, я сам отношусь к нему довольно скептически. Дело даже не в том, что для адекватного результата нужна куда более серьезная выборка (делать выводы по одной паре страниц конечно же не комильфо).

Просто сам подход «а давайте найдем однозначный ответ, который внесем в чек-лист и будем везде применять» сейчас кажется мне глубоко ущербным. В практике оптимизации нужно учитывать особенности сайта и принимать конкретное решение по конкретному проекту. А исследования нужно проводить для проверки куда более сложных и точно сформулированных гипотез. Впрочем, это уже совсем другая история…
Источник:  Alextrudov

 

 

 

+1
Мне не нравитсяМне нравится (+1 баллов, 1 оценок)
Источник:

0 Комментариев

Комментарии (0)


Выскажи свое мнение

* поля обязательны для заполнения


ТОП 5 за месяц

  • Неизвестно

Полезные ресурсы