Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
120
Добавлен:
24.05.2014
Размер:
16.25 Mб
Скачать

SEO: Поисковая Оптимизация от А до Я => Продвижение ссылками

Вы также получите ссылку с главной страницы сайта, так как там показываются последние записи в Твиттере. Учитывая частотность добавления записей в их Твиттер аккаунт, можно предположить, что ссылка на главной будет находиться несколько дней.

Примечательно, что PR по тулбару у этого домена 0, мне показалось это странным. Это все потому, что они недавно сменили домен, а на старом www.dcsf.gov.uk стоит 302 редирект. Если бы я хотел сохранить хоть часть прежнего веса, я бы использовал 301 редирект.

Источник: How to Get Links in Tough Industries

Перевод: SEOM.info

Разбавляем ссылки при продвижении сайта

Автор: Виктор Карпенко (SeoProfy)

Те, кто продвигают клиентские сайты или свои по высоко конкурентным запросам в особенности под Яндекс, в большинстве случаев используют покупные ссылки через sape.

На практике я сталкивался с тем что у многих это единственный источник ссылок. Сегодняшней пост о том, как я разбавляю ссылки и что про это думаю.

Если правильная оптимизация сайта сделана, дальше нужны ссылки, и вот как я их разбиваю при продвижении проекта.

Процентное распределение

-постовые 25%

-контекстные ссылки 15%

-Sape 50%

http://www.seobuilding.ru/seo-forum/index.php стр. 296 из 536 30.11.2010 http://www.seobuilding.ru/

SEO: Поисковая Оптимизация от А до Я => Продвижение ссылками

- статьи навсегда 10%

1.Постовые

При начале продвижения сайта нужно прикупать постовые, проверенно, работает вообще отлично. Чем постовые хороши так это тем, что сразу попадает в индекс и дает вес. Но тут есть большое НО:

Постовые должны размещаться сразу в новом посте, а не после того как пост проиндексируется.

Если сразу не разместить, то возможно он учтется через пару недель и то не факт.

Как вам такой пример:

И это за 3 дня продвижения. Постовые дают ощутимый траст, а про то где их можно прикупать читайте этот пост.

2.Контекстные ссылки

Отлично работают, отлично учитываются, нужно просто хорошо выбирать ресурс. Контекстные ссылки сейчас есть возможность покупать в авторитетных СМИ, через новый сервис сапы pr.sape.ru.

В случае с вариантом нового сервиса сапы, то можно размещать ссылки в новых статьях, которые так же влетают моментально в индекс. И на начальном этапе продвижения получить вес с авторитетных сайтов будет только на руку, плюс ссылки размещаются навсегда.

3.Sape ссылки

Тут понятное дело. Создание проекта, создания описаний, и закупка по определенным фильтрам. Сапа как рулила, так и будет рулить пока, в плане эффективности и цены. Так как если продвигаться только ссылками навсегда, то придется потратить в разы больше, и результат будет делаться дольше. Я давненько делал видео урок о том как покупать ссылки в sape, его можно посмотреть, лишним не будет. Кстати за все время видео просмотрели больше 7000 раз, что не так мало по тематике SEO.

4.Статьи навсегда

И на последок не забываем про биржи статей, так как там есть очень много толковых тематических сайтов. Хоть на многие цена и завышена, но иногда все равно стоит прикупить для перспективы. Статьи отлично работают, только по деньгам получаются гораздо дороже арендованных ссылок и постовых, так как нужно еще и статья, а контент так же стоит денег.

Вывод: нужно иметь множественные источники ссылок для продвигаемого сайта, и тогда все всегда будет хорошо. И не нужно зацикливаться на одной сапе и после очередной смене алгоритма Яндекса кричать почему сайт клиента в полной ж…

И еще, лучше иметь качественные ссылки (ссылки с качественных доноров), чем тысячи гавноссылок с гавносайтов, хоть ссылки с гавносайтов пока отлично работают.

http://www.seobuilding.ru/seo-forum/index.php стр. 297 из 536 30.11.2010 http://www.seobuilding.ru/

SEO: Поисковая Оптимизация от А до Я => Продвижение ссылками

Покупка ссылок: классификация параметров для отсева

Автор: Александр Люстик (MyOST)

Работа по покупке ссылок должна быть максимально автоматизирована, но для этого нужно провести большую подготовительную работу. Любой робот будет следовать вашим указаниям, но можно совершить ряд ошибок и испортить казалось бы конечную, отличную, идею.

Только кажется, что на бирже ссылок много ресурсов, на самом деле их нужно расходовать достаточно аккуратно. Поэтому вопрос о правильной классификации параметров для отсева ссылок встает довольно остро.

На самом деле, все фильтры, которые вы создаете – имеют довольно малую корреляцию с эффективностью, а если сказать точнее – то не выбор фильтра определяет его эффективность.

У меня в аккаунтах присутствует более 50 разных фильтров (если брать все аккаунты в сапе), включая клиентские, но при этом ни они определяют стратегию выбора донора.

Сайт с нулевыми показателями может сработать не хуже чем «с пузомерками», сайт не тематичный может сработать лучше, чем 100% верная тематика.

http://www.seobuilding.ru/seo-forum/index.php стр. 298 из 536 30.11.2010 http://www.seobuilding.ru/

SEO: Поисковая Оптимизация от А до Я => Продвижение ссылками

Если у вас нет большой выборки сайтов, по которой можно составить белые списки, то придется действовать немного иначе (кстати белые сайты часто становятся серыми и черными , их нужно проверять постоянно).

Основной упор – на формирование черных списков, для этого нужна четкая классификация параметров.

Я знаю достаточно людей, у которых за год-два работы черный список перевалил за 70 тысяч сайтов, при этом многие из них считают это абсолютно нормальным и они не заморачиваются с классификацией параметров.

Достаточно всего одного параметра для занесения площадки в черный список – это не правильный и не рациональный подход.

Чтобы собрать параметры для классификации – придется поработать руками и глазами, частично мозгом. А дальше все полученные результаты должны пойти в обработку автоматом, ведь автоматизация позволяет экономить кучу времени.

Методика отсева по плагину винка такова: LF, H, Cn, TF, ВС, УВ, YAP, YAC.

Первый барьер, который проходят сайты – это фильтр по URL (LF), которым мы пытаемся выявить заранее те сайты, которые имеют довольно большую вероятность к выпадению, а также не желательные страницы.

Как мы видим – у нас уже 2 классификатора:

Вероятность бана/фильтра.

Вероятность выпадения страницы.

Вероятность бана или фильтра могут иметь достаточное количество сайтов, например это может быть сайт-галерея, специально созданный под сапу, мы ввели параметры:

Displayimage (галерея изображений)

Thumbnails (галерея изображений)

dn=photos (галерея изображений)

.php?vac_id= (распарсенная база вакансий)

Отмечаем эти сайты и можем смело заносить их в глобальный черный список или черный список проекта.

Следующие параметры – не имеют четкой привязанности к характеристикам сайта, они имеют определенные характеристики страницы:

User

http://www.seobuilding.ru/seo-forum/index.php стр. 299 из 536 30.11.2010 http://www.seobuilding.ru/

SEO: Поисковая Оптимизация от А до Я => Продвижение ссылками

Tag

Archive

Этими параметрами мы можем отсеивать системные страницы, которые могут быть в индексе, но будут рано или поздно выпадать, как содержащие дублированный контент, если это страницы тегов или архивов, либо системные страницы профилей юзеров, регистраций и прочего.

Этот классификатор не дает нам права метить площадку черным списком, ведь это не характеристики целого сайта, поэтому мы отменяем эти страницы, не добавляя их в черные списки, в следующий раз нам придут другие страниц этого сайта.

Надеюсь я доступно объяснил, что есть признаки сайта и страницы, их нужно четко различать, иначе будете "расходовать доноров" не правильно.

Второй барьер – количество страниц в индексе, здесь нужно быть аккуратным. Основная его цель – отсеять сайты попавшие под АГС, по количеству проиндексированных страниц.

Я бы советовал не ориентироваться на показатели SAPE и перед кнопкой Cn (по количеству страниц) нажать H (проверка количества проиндексированных страниц), что позволить получить реальные данные на нынешний момент. В результате мы получим именно сегодняшние данные и сможем нажать заветную кнопку Cn, которая отметит сайты достойные черного списка (допустим содержащие менее 15 страниц в индексе Яндекса).

Третий барьер – контент фильтр или TF. Частично методику я уже описывал, мы можем фильтровать достаточно доноров по разным параметрам. Допустим на сайте есть "porno" и мы его заметили. Если не углубляться в детали – этот параметр достоин черного списка.

Но не каждый сайт содержащий параметры, перечисленные ниже, достоин черного списка:

Keygen

IFolde

RapidShare

Megaupload

Здесь мы можем либо отменить и нам предложат новые страницы, либо добавить в черный список конкретного проекта (BL), т.к. глобального он может быть и не достоин. TF я касался уже, поэтому не будем затрагивать его детально, отвечу на вопросы в комментариях, если будут.

http://www.seobuilding.ru/seo-forum/index.php стр. 300 из 536 30.11.2010 http://www.seobuilding.ru/

Соседние файлы в папке SEO Поисковая Оптимизация от А до Я