Внутренняя перелинковка


Здесь я хочу затронуть тему общей внутренней перелинковки, в частности “низкочастотку”, то есть разговор будет идти о том, как правильно организовать перелинковку для поднятия низкочатотных запросов (НЧ), кто интересуется “высокочастоткой”, то есть высокочастотными запросами, здесь данная тема тоже будет немного затронута. Главное во всем этом это разобраться с алгоритмом, как правильно нужно делать перелинковку страниц.

 

Прежде всего, рассмотрим входные данные, для чего они собственно нужны. Кроме того, что сайт уже должен находиться в сети, необходимы входные данные по самой структуре сайта. Соответственно, необходимо выполнить перелинковку так, чтобы вес был перенесен на те страницы сайта, которые нужно продвинуть или с которых нужно продать товары на Интернет-ресурсах.

 

Методов перелинковки существует предостаточное множество. Сразу нужно отметить, что нет такой золотой середины, поскольку все приходится тестировать, если сайт небольшой, то здесь действуют одни правила, если сайт огромной, к примеру, интернет-магазин, где насчитываются десятки тысяч товаров и еще сотни тысяч страниц, являющихся дублями этих товаров, то здесь соответственно рассматриваются совершенно другие схемы перелинковки.

 

Что понимается под входными данными? Прежде всего, необходимо проанализировать сайт на наличие технических ошибок. Эта стандартная работа, которая практически никогда не проводится большинством вебмастерами и в последствие эти технические ошибки встают боком при непосредственно продвижении сайта. Поэтому лучше в самом начале все сделать правильно, дабы потом не исправлять.

 

На данный момент существуют некоторые инструменты, позволяющие проводить некоторый аудит сайтов, однако никто этим всерьез не занимается. Есть несколько программ, одна из которых это Page Weight, которая рассчитывает, хотя и довольно по старому алгоритму, условные веса каждой страницы.

 

Xenu Links это небольшая утилита, которая может стать отличным помощником для веб-мастеров, определяет “битые” ссылки, а также снабжена несколькими другими функциями по определению технических ошибок.

 

Рекомендую присмотреться к третьей программе, лягушке, Screaming Frog Seo Spider, эта программа работает как Googlebot. Данная утилита выдает информацию по картинкам, по тегам, по тайтлам. Эта программа очень полезная, но не стоит также забывать и о предыдущей программе.

 

Еще одна программа Key Collector работает по ключевым словам, распределение по страницам. И, наконец, еще, что связано с входными данными это умение работать с кодом и со скриптами. Работа здесь заключается в том, чтобы ненужные элементы выбрасывать, выбрасывать ненужные ссылки, потому что в конечном итоге все это влияет на распределение веса.

 

Таким образом, на начальном этапе я бы советовал прогнать сайт на наличие технических ошибок с помощью программ Xenu Links и лягушки. Только после того, как все ошибки будут найдены и убраны, можно приступать к работе с весом страниц сайта, то есть с условным весом с помощью того же Page Weight или других инструментов.