
- •Внутренние факторы
- •Внешние факторы
- •Поведенческие факторы
- •Новые факторы
- •Слагаемые бюджета на seo
- •Внутренняя оптимизация
- •Покупка ссылок
- •Заказ контента
- •Работа специалистов
- •Работа над уникальностью контента на сайте
- •Защита уникальности контента
- •Проверка контента на уникальность
- •Где брать уникальный контент
- •Оптимизация в стратосфере Рунета
- •Икроножное seo: оптимизаторские финты для интернет – изданий
- •SeoPult: приборы, карты, фигуры пилотажа
- •Трастовость сайта
- •Что такое rustRank
- •Способы увеличения траста
- •Работа с сайтом
- •Приобретение ссылочной массы
- •Агс, горе от ума и парадоксы современного seo
- •Особенности продвижения интернет‑магазина
- •Место не для каждого
- •Ставка на низкочастотные запросы
- •Подбор ключевых запросов для семантического ядра
- •Стратегия продвижения
- •Подготовительные работы
- •Получение траста
- •Внутренняя оптимизация
- •Настройка cms
- •Контент для карточек товара
- •Наблюдение за действиями посетителей
- •Поведенческие факторы ранжирования
- •Источники данных
- •Основные поведенческие факторы
- •Кластер страниц по дополняющим запросам
- •Как повлиять на поведенческие факторы
- •Оптимизация сниппетов
- •Роль сниппета в ранжировании
- •Работа над качеством сниппета
- •Продвижение в «Яндекс. Картинках»
- •Руководство к действию
- •Продвижение через поисковые подсказки
- •Формирование поисковых подсказок
- •Как попасть в поисковые подсказки
- •Быть или не быть
- •Выбор домена и хостинга
- •Регистрация домена
- •Выбор хостинга
- •Правила переноса сайта на другой хостинг
- •Проверка уникальности контента методом шинглов
- •Метод шинглов
- •Алгоритм поиска дубликатов
- •Семантическая разметка страниц
- •Микроформаты и микроданные
- •Cms с поддержкой микроформатов
- •Трафиковое продвижение
- •Что это такое
- •Принцип работы трафикового модуля
- •Зеркала и склейка
- •Что такое зеркало в seo
- •Подробнее о склейке
- •Особенности продвижения молодого сайта
- •Работа над техническими ошибками
- •Требования к контенту
- •Ссылочное продвижение
- •Стратегия продвижения
- •Региональное продвижение: места силы
- •Аффилиаты: сидя на двух стульях
- •Продвижение аффилированных интернет‑магазинов
- •Аффилиат‑фильтр
- •Как «Яндекс» вычисляет аффилиаты
- •Решение для продвижения нескольких сайтов
- •Создание эффективной посадочной страницы
- •Правила создания хорошей посадочной страницы
- •Акцент на дизайне
- •Возможности html5 при оптимизации
- •Эволюция html
- •Структура страниц и seo
- •Атрибуты для описания ссылок
- •Описание медиафайлов
- •Особенности мобильных версий сайтов
- •Отличительные черты
- •Сервисы для создания мобильных версий сайтов
- •Кросс – браузерность
- •Мобильное приложение
- •Сервисы для тестирования мобильных версий сайтов
- •Seo для специалиста
- •Университет воды, огня и медных труб
- •Работа не волк. Работа – вервольф
- •Seo и алгоритмы поисковых систем: ключи, отмычки, кувалды
- •Сгинь, нечистая! История и эволюция нечестных методов поисковой оптимизации
- •2008 Год был переломным для оптимизации?
- •Недобросовестные веб – мастера, или как попасть в черный список
- •Волшебство сеомантики, или Семантика в seo
- •Погода в доме. О внутренней оптимизации
- •Письменное задание по seo
- •SeoPult: математика под капотом
- •Естественная постановка вопроса
- •Программируя термитник, или Собери свою seo – армию
- •Догнать и удержать: жизненный цикл клиента в seo – агентстве
- •Seo как бизнес
- •Взгляд Optimism.Ru на seo: насколько полон стакан?
- •Открывая seo – агентство: между шестеренок индустрии
- •SeoPult: атомная электростанция ради «одной кнопки »
- •Собирая пазл знаний о seo
- •Seo для клиента: счастия ключи, гайки знания
- •Возьми мое seo
- •Уловки seo – агентств: двойное дно, тройной прайс
- •«Придворный » оптимизатор: как найти верного seo – исполнителя
- •Оптимизатор на стороне клиента с печеньками
- •Будущее seo. Легким движением seo превращается…
Сгинь, нечистая! История и эволюция нечестных методов поисковой оптимизации
В беседе с авторами книги Сергей Цыплаков, создатель и руководитель биржи MainLink (h p://www.mainlink.ru), и Алексей Жуков, известный как burunduk, руководитель аналитического отдела UnMedia (h p://www.unmedia.ru), накопившие большой опыт в SEO с первых лет его существования в российском Интернете, углубились в историю «пограничных» методов поискового продвижения – историю безответственных авантюр и тонкой аналитики единовременно. Вместе с ними мы постарались понять, что заставляло и заставляет веб – мастеров либо нарушать гласные и негласные требования поисковых систем, либо искать не до конца регламентированные способы SEO, прежде всего с точки зрения ссылочного продвижения.
Что, условно говоря, легитимно, с точки зрения поисковиков, где пролегает эта граница сегодня и как она менялась?
Сергей Цыплаков: До того как возникло ссылочное ранжирование, в продвижении преобладали ключи. Как только владельцы сайтов принялись поголовно употреблять ключи, и к тому же помногу, «Яндекс» принял меры. Позднее, в 2002 – 2003 годах, актуальными оказались SEO – методы, связанные с текстами.
В 2004 году «Яндекс» заявил, что для того, чтобы нормально ранжировать сайты, он станет учитывать ссылки. Вначале были обменные сети, которые плодились как грибы после дождя. Один веб – мастер обменивался с другим ссылками, и выигрывали оба. Чуть позже расцвели автоматические системы обмена с разными схемами: использовались перекрестные ссылки, задействовалось огромное количество страниц на тьме – тьмущей сайтов. Тогда «Яндекс» за это не банил, метод был действенным. В BDBD (h p://www.bdbd.ru/) даже создали систему автопродвижения: в нее вводился сайт и на него мигом автоматически ставилось множество ссылок, и эта механика какое – то время оправдывала себя.
Постепенно обмен перестал быть обменом в классическом понимании. Возобладала коммерческая составляющая: люди стали платить за ссылку. Это было выгодно как вебмастеру, так и оптимизатору. Веб – мастер зарабатывал деньги, оптимизатор добивался желаемого эффекта. Как раз в ту пору создавалась биржа MainLink, поначалу не имевшая никакого интерфейса: одна страничка, где фиксировалось, кто кому и сколько должен заплатить.
В 2005 – 2006 годах работало ссылочное продвижение через главные страницы. Ссылки размещались на титульной странице, обычно внизу. «Яндекс» на это никакого внимания не обращал год – два. Клиенты были счастливы. Но и гигантского трафика с «Яндекса» на площадки не шло.
Так, сайт VIP – eatr.ru продвигался 30 ссылками с главных страниц по запросам «билеты в театр», «билеты в ленком», «билеты в большой театр». Он по всем ключевым словам был первым в топе около полутора лет. Затем открылся Sape, приобрели значение внутренние страницы. Хватало $80 – 200 на раскрутку. Тогда внутренние страницы стали работать еще лучше, они были дешевле. Первая ссылка на внутренней странице у Sape стоила 3 руб. Действовал такой неписаный закон: ссылка должна стоить 3 руб. И тысяча таких ссылок в 2006 – 2007 годах вытягивала вверх любой запрос. В конце концов завелись ушлые веб – мастера, которые облапошивали рекламодателей, зарабатывая деньги, но не показывая ссылки. Обычно такое проворачивали на чужих ресурсах: сидит админ сайта, и ему надо подзаработать. Чтобы клиент не увидел, он изгалялся, придумывая, как закамуфлировать ссылку под цвет фона, сдвинуть вправо – влево, задействовать невидимый слой. Таких способов насчитывалось множество. Создавались даже мини – агентства – фирмы – посредники, которые выкупали сайт или доступ к нему, ставили на него свой скрипт и размещали на нем ссылки.
Поисковики не реагировали на эти ухищрения?
С. Ц.: Поисковая система, особенно «Яндекс», крайне инертна и неповоротлива в своих решениях. Если Google на заре своего становления продекларировал: «За ссылки я вас буду банить, вы нарушаете наши законы» (Google американский, с российским иначе), то у нас, вместо того чтобы соблюдать рекомендации «Яндекса», пытались обжулить его с удвоенными усилиями. «Яндекс» упустил время. Ему нужно было ссылки разбомбить в 2006 году, когда Sape открылся. Возможно, в ту пору его действия увенчались бы успехом.
Алексей Жуков: Впоследствии, когда поисковики начали наказывать за массовую продажу ссылок, веб – мастера пытались прятать эти ссылки. Доходы никто терять не хотел. Было придумано много вариантов клоакинга. Сначала пробовали не показывать эти ссылки только «Яндексу». Были, да и сегодня встречаются индивидуумы, которые обманывают клоакингом саму биржу: ей показывается, будто ссылка есть, а остальным – что ее нет. Очень жесткая форма обмана, но, к счастью, она хотя бы выявляется, пусть даже с наибольшей надежностью лишь ручными методами. Только с наступлением эпохи агрегаторов – SeoPult, Rookee и пр. – ссылки начали автоматизированно проверять на всевозможные виды клоакинга.
Маленькое отступление: в 2006 – 2007 годах я нашел забавный способ объегорить биржу – ставить ссылку в стандартном HMTL – комментарии. Робот биржи понимал, что ссылка стоит, но она же закомментирована. На странице не отображалась, и поисковая система ее не видела. Достаточно долго биржа на это никак не реагировала.
(! –(a href="h p://www/site.ru")анкор ссылки(/a)–)
С. Ц.: В 2006 – 2007 годы, когда ссылки стали «клоачить», по Интернету даже гуляли базы IP «Яндекса» и Google, которые подставлялись, притом обновляясь, чтобы все (рекламодатель, веб – мастер, оптимизатор) видели ссылки, а «Яндекс» в упор не замечал.
А. Ж.: «Яндекс» потом сам открыл, как проверять его IP, – обратным запросом. Не так давно, когда проблемы с клоакингом приобрели нешуточный масштаб, в «Яндексе» была найдена уязвимость. Можно было посмотреть, зайдя с IP «Яндекса», как отображается ресурс. На данный момент она доступна только из браузера. Но хитрые веб – мастера нашли выход. В общем, если стоит запрет на отображение донора в данном сервисе, то, скорее всего, что – то нечисто.
Много ли сейчас таких сайтов? Как менялась обстановка после 2007 года?
С. Ц.: Около 5 % всех ссылок имеют так или иначе выраженные нарушения, либо осознанные, либо неосознанные. На сегодняшний день все способы сокрытия известны. Раньше что – то еще было в диковинку: noindex, nofollow, robots.txt. Очень много ошибок в robots.tx веб – мастера делают из – за неправильного составления написания, не придерживаются формата. Зачастую не учитывают, что robots. xt нужно создавать отдельно под «Яндекс» и под Google. А они делают один: мол, под «Яндекс» – значит «под все».
На 5 % впору рукой махнуть – отклонения в пределах допустимого. Но это сдерживающая сила: если хоть биржа, хоть оптимизатор, хоть агрегатор, хоть конечный клиент опустит руки и не будет выявлять нарушения, все будет куда хуже.
А. Ж.: Что до 2007 года, как раз тогда, по – моему, был популярен запрет индексации ссылок через sitemap. Указывалось, что страница важная, но переиндексировать ее не надо. Тогда много площадок с Sape улетело.
С. Ц.: Следуем дальше. 2008 год. АГС. Что это означает? Был сайт с хорошим, да пусть даже с не очень хорошим контентом, включавший множество страниц. И «Яндекс» издал указ, по которому все такие сайты автоматически понижались в рейтинге. Не очень правильное решение. Если раньше у сайта было в индексе около 1000 страниц, то осталось 10 – 15. Но ссылки, которые ранее были куплены на тех тысячах страниц, остались. Ведь оптимизаторы не имеют возможности проверять каждую ссылку ежедневно. Ссылка остается висеть, страницы в индексе «Яндекса» нет, но работает ссылка или нет, большой вопрос.
А. Ж.: У меня сайт одним из первых попал под АГС, причем не под тот, что до десяти страниц индекс сайта сворачивал, а под другой, который был намного раньше включен. Страницы на том ресурсе были следующими: одна большая фотография, несколько маленьких да одна подпись. Плюс ссылки на другие страницы с фотографиями. Никакого контента. Картинки в индексе были, картиночный трафик был, а сами страницы – удалены из индекса. Причем у сайта оставалось на тот момент около 300 – 400 страниц в индексе. Потом, когда АГС включили, их количество еще подсократилось, хотя реально на сайте было около 2000 страниц. И с них внутренние ссылки работали, перелинковка работала. С НПС и внешними тоже порядок был.
Слегка отойду от заданной темы: сейчас у «Яндекса» с индексом тоже проблемы, когда под новую дату кэша выставляется старая страница, причем может быть выведена несуществующая, которой нет добрых полгода. Несмотря на обилие дата – центров в «Яндексе», все равно база грязная и не так часто обновляется, как хотелось бы. Хотя, насколько я понимаю, они хранят вообще всю информацию по сайту, которая когда – либо появлялась.
С. Ц.: Вернемся в 2008 год. Тогда Константин Каширин сделал сервис проверки на непот. Это была золотая жила – якобы проверка работоспособности ссылок с донора посредством языка запросов. Чтобы понять, участвует ли в поиске данная страница по тому или иному анкору с некоего донора, может ли она попасть в поиск.
Потом отключили операторы #link и ancor. Это был болезненный удар по оптимизаторам. Да что там – одна из ядерных бомб на SEO. Дальше операторы начали отключать один за другим. Были какие – то недокументированные. Порой до сих пор оператор существует, но показывает белиберду. Одно время в BDBD хотели запустить биржу Indexoid. Они фиксировали дату индексации ссылки с помощью языка запросов «Яндекса». Завязались на один запрос. Но это их не спасло.
Ссылочные базы бирж все приохотились парсить, стали свои белые списки формировать. Но эта волна быстро спала.
Поисковики начали закручивать гайки. То, что работало для одного, могло не работать для другого. Одно время ходила хохма: мол, если ссылка с точкой на конце, значит, она работает. А без точки – нет. Был еще экзотический способ: в конце ссылки ставили /n, перевод на следующую строку. Мне один клиент прислал ссылку со словами: «А если взять простую ссылку, без этой каретки, то донор находится под непотом. А когда ее добавляешь, донор работает». Ссылки стали разнообразиться. Их начали делать с разными ухищрениями (абракадабра, текстовые простановки и пр.), чтобы узнать, работают ли они. Это вошло в моду. Перед тем как закупаться, большой оптимизатор ставил несколько ссылок на сайт, смотрел, работают они или нет, анализировал обстановку.