
Образовательный центр "SHIPALEX
Конспект курса "seo продвижение сайтов"
Автор и тьютор Анатолий Микишов
Тема 6
Спамдексинг и ошибки оптимизатора Виды спама. Санкции поисковых систем — виды, причины наложения и пути выведения сайта из-под фильтра. Практика.
I. Спамдексинг.
Спамдексинг или Поисковый спам - это использование приемов черного СЕО с целью манипулирования результатами поиска и повышения рейтинга сайта в выдаче. Спамдексинг направлен на обман поисковых роботов и строго наказывается баном.
Применяя спамдексинг, вебмастер в короткие сроки может вывести сайт в ТОП поисковой выдачи, но при этом интересы пользователей остаются на последнем месте. Чаще всего прибегание к поисковому спаму не оправдывает себя, так как это краткосрочные меры и велик риск нанести серьезный урон продвигаемому ресурсу.
Виды спамдексинга
Спамдексинг реализуется в различных приемах, например:
Занесение в Метатеги популярных поисковых запросов, которые не являются ключевыми и не соответствуют тематике сайта;
Перенасыщение контента ключевыми словами и фразами;
Использование тегов маркировки HTML (b, em, i и др.) с целью искусственного завышения веса ключевиков;
Наполнение страниц наряду с контентом для пользователей также скрытым текстом, предназначенным только для индексации поисковым роботом;
Дорвеи - перенаправляющие (редирект, ссылки) страницы, переоптимизированные по основным запросам и занимающие высокие позиции в выдаче;
Клоакинг - подменные страницы, показывающие различное содержимое пользователям и роботам;
Свопинг - замена контента на странице после того, как сайт достиг высоких позиций в ТОПе;
Ссылочный спам - искусственная накрутка параметров ТИЦ и PR сайта при помощи ссылок, размещенных на сайте-доноре, с целью увеличения авторитетности исходного ресурса;
Спамдексинг и поисковики
Поисковый спам сказывается негативно на работе поисковых систем и качестве выдачи, которая засоряется мусорными сайтами и предоставляет пользователям необъективную и некачественную информацию.
В результате поисковые машины вынуждены настраивать различные фильтры для борьбы с поисковым спамом, все более усложняя и перестраивая свои алгоритмы.
II. Фильтры.
Фильтр - алгоритм поисковой системы, применяющий санкции к сайтам, которые искусственными методами повлияли на повышение позиций в поисковой выдаче. Как правило, фильтр отсеивает такие сайты и исключает их из выдачи.
Поисковый робот при индексации сайтов проверяет их на характер присутствия черных методов оптимизации, так как целью поисковых систем является предоставление пользователю только качественных и полезных ресурсов. При наложении фильтра поисковая система об этом не сообщает. Сигнализируют о попадании сайта под фильтр только внешние признаки:
Страницы сайта не индексируются поисковой машиной
Сайт не поднимается в поисковой выдаче
Трафик падает
Сайт отсутствует в выдаче по ключевым запросам
Факторы риска
Фильтр может налагаться поисковой системой в связи со следующими факторами:
Наполнение сайта неуникальным контентом, скопированным с другого ресурса
Чрезмерное употребление в текстах на сайте ключей
Резкие изменения ссылочной массы (уменьшение или увеличение бэклинков)
Приобретение ссылок с некачественных ресурсов
Слишком активная продажа ссылок со страниц сайта (превращение сайта в "помойку" за счет большого количества ссылок)