17 факторов, учитываемых поисковыми системами при расчете веса ссылки

Стратегия продвижения сайта во многом зависит от факторов, которые так или иначе учитываются поисковиками. Сегодня привожу перевод статьи 17 Ways Search Engines Judge the Value of a Link. (Иллюстрации оригинала)

Рассмотрим самые основные факторы, которые стоит учитывать при продвижении сайта. Вопрос о способах использования этих факторов поисковыми системами является отдельной темой для обсуждения, однако все они влияют на алгоритмы ранжирования и позиции в выдаче.

В самом начале хочется также напомнить об еще одной немаловажной вещи: избегайте покупать сразу большое количество ссылок. Для поисковика подобное действие может вызвать подозрения, а это не сулит ничего хорошего позициям вашего сайта.

Любой наш новый клиент интересуется массой вещей: а как поисковые системы ранжируют страницы? Почему то, что вы предлагаете, будет эффективно? Откуда вы вообще столько знаете про SEO? А покажите ваши предыдущие работы?

В процессе объяснения всех нюансов работы над проектом рано или поздно настает момент, когда приходится вплотную подойти к вопросу увеличения ссылочной массы. Чтобы доходчиво объяснить суть процесса клиенту, вам приходится рисовать таблицу факторов, которые влияют на ранжирование страниц поисковыми инструментами, и на самом верху этой таблицы оказываются именно ссылки. Разумеется, со стороны клиента тут же следует вопрос – почему же ссылки так сильно влияют на ранжирование? И самый важный вопрос, который многих может поставить в тупик:

Насколько важно влияние отдельной ссылки на позиции сайта в выдаче поисковой системы?

Попробую дать ответ в этой статье и подробно рассказать об основных факторах, влияющих на расчет веса ссылки в поисковых системах.

Вам наверняка известно, что самое большое значение поисковики придают не отдельным страницам, а показателям домена.
А вы не задумывались над тем, почему при поисковой выдаче верхние позиции занимают новые страницы, на которых количество ссылок очень невелико?
17 факторов ссылочного ранжирования
На самом деле объяснение этого очень простое – данные страницы размещаются под доменами, имеющими больший авторитет, которые обладают высокими внутренними показателями и оперируют большим числом обратных ссылок.
Согласно данным опроса, практикующие SEO специалисты в основной своей массе считают самым главным фактором, учитывающимся при ранжировании страницы, фактор «Домен Ранк». В алгоритме ранжирования Google этот фактор является одним из ключевых.
Общая ссылочная масса «Домен Ранка», из которой он и рассчитывается, отличается от ссылочной массы отдельных страниц конкретного сайта (из этой массы рассчитывается «Пейдж Ранк»). О факторах, которые влияют на эти показатели, будет рассказано ниже.

1. Внутренние и внешние ссылки.
Когда ссылки только начали использоваться поисковыми системами при оценке релевантности, популярности и важности ресурса по данному запросу, их предпочтения основывались на известном житейском принципе – мнение других более правильно и стоит большего доверия, чем ваше собственное мнение о себе.
Иными словами, внутренние ссылки (т.е. ссылки с одной страницы сайта на другую страницу того же сайта) весят гораздо меньше, чем внешние ссылки (т. е. ссылки с других сайтов).

Разумеется, этот фактор не повод пренебрегать хорошей перелинковкой внутренних страниц сайта (т.е. правильно создавать структуру URL-адресов) и качеством внутренних ссылок (необходимо позаботиться хорошем тексте ссылки, избавиться от ненужных ссылок и пр.). Этот фактор просто дает понять, что SEO показатели конкретной страницы во многом зависят от цитируемости на внешних ресурсах.

2. Текст (анкор) ссылки.
SEOшники прекрасно знают, что текст ссылки имеет очень большое значение при ранжировании поисковыми системами, поэтому к анкорам ссылок относятся с особым вниманием и разрабатывают их самым тщательным образом.
ссылочное ранжирование - фактор текст анкора
Проведение различных SEO экспериментов, а также огромный практический опыт показали, что текст ссылки, точно соответствующий поисковому запросу, превосходит по всем показателям банальный набор ключевых слов в анкоре.
Впрочем, для поисковиков разница в текстах ссылок, тем более для обычных ключевых фраз, не так уж и велика. Подобный ход часто используют некоторые продвиженцы с целью получения лучших позиций в выдаче.

3. Пейдж Ранк.
Показатели измерения веса страниц различны для каждой поисковой системы. Самыми распространенными являются WebRank (Yahoo!), тИЦ (Яндекс), PageRank (Google) и т.п. Практически все они основаны на цепочном алгоритме Маркова. Можно провести аналогию с голосованием: в зависимости от того, сколько голосов (ссылок) получила страница, настолько возрастает ее влияние.
Чтобы получить представление об основных принципах Пейдж Ранка, необходимо понять следующее:
— количество Пейдж Ранка, получаемое каждым URL, сравнительно невелико;
— наличие определенного количества ссылок на странице означает, что каждая из них имеет Пейдж Ранк, разделенный на количество ссылок (т. е. Пейдж Ранк отдельно взятой ссылки обратно пропорционален числу ссылок на странице);
— необходимо учитывать показатели, например такие, как панель Google, которая содержит счетчик Пейдж Ранк.
Пейдж Ранк рассчитывается для общей массы ссылок на уровне страниц, давая свои показатели URL. При расчете на уровне доменов данный показатель принимает во внимание всю ссылочную массу сайта, и тогда он приобретает название Домен Ранк.

4. Траст Ранк, или «уровень доверия».
Основная идея этой системы заключается в том, что страницы с высоким уровнем «доверия» имеют большее значение, чем страницы, которые содержат спам.
Фактически, измерители типа Пейдж Ранк измеряют только ссылочный вес, а благодаря Траст Ранку поисковые системы фильтруют спам и пропускают качественные ресурсы.

Разумеется, поисковики не афишируют показатели Траст Ранк, однако тот факт, что значимость ссылки относительно «центра доверия» используется в ранжировании, вполне очевиден. Кроме того, существует еще и обратный Траст Ранк, т. е. «Траст Ранк наоборот», который отслеживает ссылки на спам. Этот параметр также является одним из алгоритмов ранжирования.
При измерении Траст Ранка (а также Обратного Траст Ранка) учитывается уровень ссылочной массы как страничной, так и доменной.
Из всего вышенаписанного можно сделать следующий вывод: гораздо более эффективным считается получение ссылок с трастовых сайтов, чем с ресурсов, потенциально содержащих спам.

5. Домен Ранк.
Домен Ранк еще называют «уровнем авторитетности домена». Этот показатель является одним из наиболее обсуждаемых среди SEO специалистов, тем не менее универсальное определение этого понятия еще не придумано.
В большинстве своем оптимизаторы подразумевают под этим термином ряд характеризующих домен факторов, таких как уровень доверия, важность и известность. При расчете показателя Домен Ранк для каждого отдельно взятого ресурса учитывается ссылочная информация. По мнению некоторых экспертов, при расчете принимается во внимание также и возраст сайта.
Планирование ссылочного продвижения обязательно учитывает показатель «авторитетности». Для продвижения сайта доменные показатели имеют гораздо больший вес, чем показатели отдельных страниц, на которых присутствует ссылка на сайт.

6. Виды ссылочных источников.
Анализ всех известных ссылочных показателей показал, что самым высоким позициям в выдаче поисковых систем соответствует показатель, который характеризует разнообразие ссылающихся доменов.
Одно из главных предположений, оправдывающих использование этого показателя – то, что манипуляция с ним представляется весьма сложным делом, так что поисковые ресурсы используют его в качестве надежного способа борьбы против спама.
Опыт многих специалистов SEO показал, что достижение наибольшего позитивного эффекта при ранжировании сайта поисковыми системами достигается в случае разнообразия источников ссылок. Проще говоря, чем больше количество источников ссылок, тем лучше оптимизирован сайт. Существование ссылок на определенном количестве ресурсов всегда проигрывает такому же количеству ссылок на большем количестве ресурсов.
Отсюда следует, что ссылки, размещенные на сайтах, имеющих большое ссылочное разнообразие (т. е. на тех, на которые ссылается множество различных сайтов) имеют гораздо больший вес, чем ссылки с сайтов, на которые ссылается меньшее число ресурсов.

7. Принадлежность и независимость.
Возможности поисковых систем позволяют определить владельца сайта. Таким образом, можно установить принадлежность разных ресурсов одной и той же компании (или частному лицу). Используя разные методы, можно также определить взаимосвязь между этими сайтами. К этим методам относятся:
— перелинковка сайта;
— данные владельца, используемые при регистрации домена;
— IP шаред хостинга, а также IP С-класса;
— одинаковая контактная информация на разных сайтах;
— наличие выложенных на сайте документов общего содержания (договоров, контрактов и т.п.).
Обнаружение подобной связи в сети сайтов побуждает поисковые ресурсы к тому, что они снижают ссылочный вес сети этих сайтов, либо вообще ликвидируют его.

8. Позиция на странице.
Первым поисковиком, публично провозгласившим намерение анализировать блоковую структуру страниц, стал Microsoft.
фактор месторасполажения ссылки
Это заявление побудило SEO специалистов к исследованию подобных явлений в других ресурсах, в том числе в Yahoo и Google. Было замечено, что вес «подвальных» ссылок имеют не меньший вес, чем «шапочные» ссылки или ссылки из боковых панелей сайта.
Ряд экспертов предполагают, что этот способ является методом борьбы поисковиков с продажными внешними ссылками, а именно – учитывается аспект «непривлекательных» мест, ведь подобные ссылки веб-мастера стремятся разместить в «подвал» и на боковые панели.
Мнение SEO специалистов сходится в одном – наиболее ценными являются ссылки из «контентной части» страницы. Именно с таких ссылок передается наибольший вес.

9. Определение тематической близости.
Для определения тематической близости двух разных сайтов или страниц поисковики используют огромное количество методов.
До недавнего времени в Google Labs использовались алгоритмы, автоматически классифицирующие разные сайты по принципу тематики (спортивные, медицинские, образовательные, коммерческие и пр.) путем анализа заголовков и URL имен.
Вероятность использования похожих инструментов, чтобы определить «родство» сайтов по тематике очень велика и в настоящее время. Принцип тематической близости влияет на ссылки, которые в зависимости от этого передают больший или меньший вес.
Большинство специалистов не отдают слишком много внимания тематической близости сайтов. Возможности получения ссылок с авторитетного общетематического ресурса вполне достаточно. Также хороший бонус дает ссылка с какого-либо узкоспециализированного блога.
Однако стоит учесть, что в поисковых системах этот фактор используется в борьбе со спамом. В случае, если на сайтах с хорошей репутацией вдруг начинают появляться ссылки на подозрительные ресурсы, отдаленные по тематике от ссылающегося сайта (адалт, фарма, онлайн-казино), поисковики могут признать это спамом.

10. Оценка контента.
Благодаря тематической близости поисковые ресурсы способны распознавать взаимосвязь между ссылками на страницах. Значительная роль при передаче веса ссылки с одной на другую страницу отводится контенту и контексту этой ссылки.
Анализ контента и контекста позволяет поисковым системам определить степень возможности сделать это машинным путем, почему есть ссылки на данной странице.
В случае, если ссылки являются естественными, есть несколько вариантов объяснений. Естественные ссылки могут быть вставлены в контент, вести на страницы, близкие по тематике, использовать слова, фразы, стандартные нормы HTML и т.д.
При анализе этих показателей поисковик с довольно высокой степенью точности способен отличить ссылки естественные от других, которые могут присутствовать на странице по разным причинам: «тайные» ссылки (хакинг), ссылки авторского права (вес, который передают такие ссылки, очень невелик), платные ссылки.

11. Географические данные.
Географические координаты конкретной ссылки связаны с сайтом, на котором она размещена. Однако поисковые роботы, в особенности Google, уделяют все больше внимания связи географического положения ссылок с тем сайтом, на который они ссылаются (этот фактор имеет название «географической релевантности»). Географическая локация сайтов устанавливается поисковиками с помощью разных определяющих факторов, к числу которых относятся:
— IP адрес хостинга;
— параметр национальной доменной зоны (.ru, .uk, .de и т.д.);
— язык, на котором написан контент сайта;
— регистрационные данные сайта в региональных поисковых системах, каталогах, досках;
— фактор соответствия реального адреса тому адресу, который указан на сайте или в данных whois;
— географические данные сайтов, ссылающихся на ваш сайт.
Плюсы этого механизма в том, что если вы получаете ссылки с сайтов конкретного региона, у вас появляется возможность получить хорошие позиции при локальном поиске по этому региону.
Минусы – в том, что если все сайты, ссылающиеся на ваш сайт, расположены только в одном определенном регионе, то продвижение в поисковых системах других регионов окажется для вас очень сложной задачей даже в том случае, если у вашего сайта в порядке все необходимые географические факторы (язык контента, национальное имя домена и т.д.).

12. Тег rel=”nofollow”.
Новый HTML тег начал использоваться в январе 2005 года, когда об этом объявил Google.
Механизм использования тега очень прост: если вы закрываете ссылку в тег rel=”nofollow”, она перестает передавать какой-либо вес на другие страницы. Согласно данным индекса Linkscape, в настоящее время в сети этим тегом скрыто около 3% всех ссылок, к тому же большая часть из них скрывается внутренними ссылками.

Периодически любой SEO специалист задается вопросом – всегда ли данное правило актуально для поисковых ресурсов. Тот факт, что Google способен передавать ряд показателей ссылок через внешние ссылки Википедии, хотя они и скрыты в теге nofollow, общеизвестен.

13. Типы ссылок.
Форматы ссылок могут быть разными. Наиболее распространенными являются три типа:
— прямая текстовая ссылка HTML;
— ссылка графическая;
— ссылка Java скрипт.
Одна из новостей последнего времени – объявление Google о том, что с этого ресурса появилась возможность не только переходить по ссылкам в коде Java скрипт, но и передавать по ним ссылочный вес. Многие вебмастера не обрадовались, узнав об этом, так как с помощью Java кода можно было «спрятать» на сайте платные (рекламные) ссылки.
Уже довольно долго в поисковых системах активно используется атрибут «alt» для графических ссылок. Механизм использования напоминает использование анкорного текста в обычных ссылках.
Тем не менее, стоит отметить, что для ссылок разного типа вес, определяемый поисковой системой, также будет разный. Опытным путем удалось установить, что наибольший вес имеют обычные прямые ссылки формата HTML, включающие в себя стандартный анкорный текст. Немного меньшим весом обладают ссылки графические, в которые вписаны ключевые слова и атрибуты «alt», а наименьший вес – у ссылок формата Java скрипт. Таким образом, несмотря на заявления Google, можно утверждать, что стратегия работы с ссылками этого типа у них еще не доведена до конца.
SEO специалисты, желающие нарастить ссылочную массу на своем сайте, обязаны обратить внимание на то, что «нестандартные» ссылки пока еще плохо обрабатываются поисковыми системами, а значит, для достижения большей эффективности следует в первую очередь использовать прямые текстовые HTML ссылки.

14. Различные типы ссылающихся страниц.
При наличии на странице внешних ссылок расчет общего веса, передаваемого по ссылкам, складывается не только из общего числа ссылок, но и из общего числа сайтов, на которые они ссылаются.
Выше (в пункте 3) было сказано, что в любом поисковом ресурсе работа Пейдж Ранка заключается в делении всего ссылочного веса страницы на число исходящих ссылок на данной странице.
Помимо этого, поисковые системы отслеживают также и количество доменов, на которые идут все ссылки. К примеру, если ссылки, входящие в контент страницы, идут на определенное количество доменов, имеющих качественный релевантный контент, то общий передаваемый ими вес будет больше, чем вес, передаваемый таким же числом ссылок с разных блоков страницы на домены с худшей репутацией и отдаленные по тематике.
В компетенцию поисковиков входит также отслеживание, на кого, помимо вас, ссылается конкретная страница. Таким образом, лучше получать ссылки с тех страниц, которые ссылаются также на другой авторитетный и качественный ресурс, чем с тех, которые ссылаются еще и на сайты с «плохой» репутацией.

15. Санкции поисковых ресурсов.
Для опытных специалистов SEO санкции, накладываемые поисковиками, являются самым страшным кошмаром. В результате этих санкций можно как минимум потерять возможность передачи ссылочного веса и как максимум – получить полный бан сайта или страницы в поисковике.
В случае, если у страницы или сайта отсутствует возможность передачи ссылочного веса, то продажа ссылок на нем становится бессмысленной.
Следует помнить, что поисковиками используются несколько приемов при накладывании санкций – возможно понижение показателей Пейдж Ранка, уменьшение возможности продвижения по ряду определенных запросов, и многое другое. Разумеется, в числе первых в этом случае окажутся те, кто регулярно манипулирует результатами поисковой выдачи. Однако механизм санкционирования до конца еще не отработан, а значит, подобная неприятность может произойти практически с любой страницей.

16. Интегрированные данные (контент).
В настоящее время в сети широко распространено использование интегрированного контента со всевозможных хостинг-серверов. Это могут быть графические файлы, видео, документы и пр. Такой контент подразумевает наличие обратных ссылок на домашний сайт.
Вряд ли можно рассчитывать на то, что поисковики не будут учитывать такие ссылки при расчете общего ссылочного веса, однако они несомненно попытаются ограничить их значимость и вес, даже в том случае, если эти сайты имеют хорошую репутацию и не являются спамом.
Существует мнение о том, что поисковики способны сопоставлять контент страницы с размещенными на ней ссылками, и таким образом определять общее количество ссылок и уровень их разнообразия.
В случае обнаружения одинакового контента с одинаковыми ссылками на огромном количестве разнообразных сайтов, поисковые машины делают вывод о снижении уровня ссылочного разнообразия. Впрочем, четкого ответа на этот вопрос пока что нет, однако известно, что подобные ссылки поисковики стремятся найти и отфильтровать, с целью избежать манипуляции.

17. Хронология ссылок.
Фактор времени и даты появления ссылки также является достаточно значимым элементом для поисковых роботов.
При сборе информации в сети поисковые машины постоянно сравнивают то, как появляются ссылки на новых и старых сайтах. Благодаря этой информации упрощается борьба со спамом. Кроме того, учитывается частота получения новых ссылок на конкретный сайт, и это оказывает влияние на уровень его качества и авторитетности. Исходя из этого можно сказать, что недавно появившиеся сайты, на которые быстро появляется очень много ссылок, выглядят подозрительно.

Вот это самые основные факторы, которые стоит учитывать при продвижении сайта.

В закладки: постоянная ссылка.

Комментарии:

8 Comments

  1. Pingback: 7 тендеций 2012 года относительно продвижения в Яндексе

  2. Pingback: Внешние ссылки на сайт из Интернета | seobrat2.ru

  3. Статья хорошая. Осилил. Но всё таки все расчёты по ПР, оптимизаторами ведутся по большей части в слепую.

    • Роман Орлов

      Пейдж ранк для многих вообще темный лес, что уж говорить про расчеты. Спроси в чем смысл PR для сайта — 8 человек вообще неответят.

  4. А я осилил но не совсем 🙂

  5. Я не спец, поэтому статью ниасилил.

    Но как понял, речь идёт не о конкретном поисковике, а об алгоритмах поисковых машин вообще.

    К тому же, статья переводная. Значит, речь в ней ведется об алгоритмах буржуйских поисковых машин. Отсюда вопрос:

    а для оптимизации под Яндекс это актуально?

    • Роман Орлов

      Как Вы сами думаете? Конечно часть факторов актуально и для Яндекс

      • Я же говорю, я не специалист. Моё знание seo ограничивается количеством точных и неточных вхождений ключевой фразы. Остальное – для расширения кругозора и общего развития.

        Думаю, все поисковики имеют более-менее общие алгоритмы, но реализуют их каждый по своему

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *