Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
seo-a-z-medium.pdf
Скачиваний:
52
Добавлен:
10.06.2015
Размер:
16.47 Mб
Скачать

«SEO: Поисковая Оптимизация от А до Я» - Средний уровень => Глава III. Продвижение ссылками

Часть III/40. Покупка ссылок: классификация параметров для отсева

Автор: Александр Люстик (MyOST)

Работа по покупке ссылок должна быть максимально автоматизирована, но для этого нужно провести большую подготовительную работу. Любой робот будет следовать вашим указаниям, но можно совершить ряд ошибок и испортить казалось бы конечную, отличную, идею.

Только кажется, что на бирже ссылок много ресурсов, на самом деле их нужно расходовать достаточно аккуратно. Поэтому вопрос о правильной классификации параметров для отсева ссылок встает довольно остро.

На самом деле, все фильтры, которые вы создаете – имеют довольно малую корреляцию с эффективностью, а если сказать точнее – то не выбор фильтра определяет его эффективность.

У меня в аккаунтах присутствует более 50 разных фильтров (если брать все аккаунты в сапе), включая клиентские, но при этом ни они определяют стратегию выбора донора.

Сайт с нулевыми показателями может сработать не хуже чем «с пузомерками», сайт не тематичный может сработать лучше, чем 100% верная тематика.

Скачать последнее издание этого учебника - http://www.seobuilding.ru/seo-a-z.php

стр. 278 из 578

21.03.2013

«SEO: Поисковая Оптимизация от А до Я» - Средний уровень => Глава III. Продвижение ссылками

Если у вас нет большой выборки сайтов, по которой можно составить белые списки, то придется действовать немного иначе (кстати белые сайты часто становятся серыми и черными , их нужно проверять постоянно).

Основной упор – на формирование черных списков, для этого нужна четкая классификация параметров.

Я знаю достаточно людей, у которых за год-два работы черный список перевалил за 70 тысяч сайтов, при этом многие из них считают это абсолютно нормальным и они не заморачиваются с классификацией параметров.

Достаточно всего одного параметра для занесения площадки в черный список – это не правильный и не рациональный подход.

Чтобы собрать параметры для классификации – придется поработать руками и глазами, частично мозгом. А дальше все полученные результаты должны пойти в обработку автоматом, ведь автоматизация позволяет экономить кучу времени.

Методика отсева по плагину винка такова: LF, H, Cn, TF, ВС, УВ, YAP, YAC.

Первый барьер, который проходят сайты – это фильтр по URL (LF), которым мы пытаемся выявить заранее те сайты, которые имеют довольно большую вероятность к выпадению, а также не желательные страницы.

Как мы видим – у нас уже 2 классификатора:

Вероятность бана/фильтра.

Вероятность выпадения страницы.

Вероятность бана или фильтра могут иметь достаточное количество сайтов, например это может быть сайт-галерея, специально созданный под сапу, мы ввели параметры:

Displayimage (галерея изображений)

Thumbnails (галерея изображений)

dn=photos (галерея изображений)

.php?vac_id= (распарсенная база вакансий)

Отмечаем эти сайты и можем смело заносить их в глобальный черный список или черный список проекта.

Следующие параметры – не имеют четкой привязанности к характеристикам сайта, они имеют определенные характеристики страницы:

User

Tag

Archive

Скачать последнее издание этого учебника - http://www.seobuilding.ru/seo-a-z.php

стр. 279 из 578

21.03.2013

«SEO: Поисковая Оптимизация от А до Я» - Средний уровень => Глава III. Продвижение ссылками

Этими параметрами мы можем отсеивать системные страницы, которые могут быть в индексе, но будут рано или поздно выпадать, как содержащие дублированный контент, если это страницы тегов или архивов, либо системные страницы профилей юзеров, регистраций и прочего.

Этот классификатор не дает нам права метить площадку черным списком, ведь это не характеристики целого сайта, поэтому мы отменяем эти страницы, не добавляя их в черные списки, в следующий раз нам придут другие страниц этого сайта.

Надеюсь я доступно объяснил, что есть признаки сайта и страницы, их нужно четко различать, иначе будете "расходовать доноров" не правильно.

Второй барьер – количество страниц в индексе, здесь нужно быть аккуратным. Основная его цель – отсеять сайты попавшие под АГС, по количеству проиндексированных страниц.

Я бы советовал не ориентироваться на показатели SAPE и перед кнопкой Cn (по количеству страниц) нажать H (проверка количества проиндексированных страниц), что позволить получить реальные данные на нынешний момент. В результате мы получим именно сегодняшние данные и сможем нажать заветную кнопку Cn, которая отметит сайты достойные черного списка (допустим содержащие менее 15 страниц в индексе Яндекса).

Третий барьер – контент фильтр или TF. Частично методику я уже описывал, мы можем фильтровать достаточно доноров по разным параметрам. Допустим на сайте есть "porno" и мы его заметили. Если не углубляться в детали – этот параметр достоин черного списка.

Но не каждый сайт содержащий параметры, перечисленные ниже, достоин черного списка:

Keygen

IFolde

RapidShare

Megaupload

Здесь мы можем либо отменить и нам предложат новые страницы, либо добавить в черный список конкретного проекта (BL), т.к. глобального он может быть и не достоин. TF я касался уже, поэтому не будем затрагивать его детально, отвечу на вопросы в комментариях, если будут.

Четвертый барьер – это количество внешних ссылок, количество внутренних, а также количество контента на странице (ВС).

Скачать последнее издание этого учебника - http://www.seobuilding.ru/seo-a-z.php

стр. 280 из 578

21.03.2013

«SEO: Поисковая Оптимизация от А до Я» - Средний уровень => Глава III. Продвижение ссылками

Здесь все просто – нужно четко понимать, что это характеристика страницы, а значит не подходит под глобальный черный список, лучше всего отменять и нам будет предложена новая страница.

При этом, если мы четко видим 500 внутренних ссылок на странице или больше, то здесь можно и в черный список добавить, перед этим просмотрев донора (часто мы можем встретить плагины пиксельной карты сайта и т.п. – их можно фильтровать TF фильтром), эту часть мы можем смело вносить в черный список, а значит у нас уже 2 классификатора. Но все-таки, я настаиваю на том, что нужно различать параметры страницы и параметры сайта.

Последний этап, который мы проходим – это уровень вложенности (УВ), а также наличие страницы в индексе (YAP) и в КЭШе (YAC) яндекса. Это тоже характеристики страницы, мы не имеем права добавлять такие сайты в черные списки, т.к. делаем выводы лишь по одной странице.

На сегодня мне пришло 5 тысяч 413 ссылок на подтверждение, результаты таковы:

LF для черного списка – 35 сайтов, LF для отмены – 1766 сайтов. H, Cn для отсева АГСных сайтов – 81.

TF для черного списка – 320 сайтов, TF для отмены – 840 сайтов. ВС для черного списка – 15 сайтов, ВС для отмены – 2140 сайтов. YAP и YAC для отмены – 230 сайтов.

В результате при сбалансированной работе у нас в черный список попал 361 сайт, а на отмену ушло

4076 сайтов. Значит из 5 тысяч 413 ссылок мы отсеяли 4976, оставив себе на рассмотрение более детальное 437 ссылок.

Если бы мы по-идиотски расходовали ссылочную массу и добавляли все в черные списки, без классификации факторов, то у нас получилось бы 4976 сайтов в черном списке только за 1 день.

По-моему – это не разумно, а я знаю многих людей, которые так делают, не разграничивая и не классифицируя параметры.

На сегодняшний день, в моем личном аккаунте, за несколько лет, накопилось всего 41 тысяча сайтов, которые отсеивались по очень жестким параметрам, если бы я огульно слал все в черный список, то было бы уже в раза 3-4 больше сайтов.

На аккаунтах заказчиков – меньше черные списки, но и работают они пока что меньше.

Скачать последнее издание этого учебника - http://www.seobuilding.ru/seo-a-z.php

стр. 281 из 578

21.03.2013

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]