Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
тема6.doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
72.19 Кб
Скачать

Образовательный центр "SHIPALEX

Конспект курса "seo продвижение сайтов"

Автор и тьютор Анатолий Микишов

Тема 6

Спамдексинг и ошибки оптимизатора Виды спама. Санкции поисковых систем  — виды, причины наложения и пути выведения сайта из-под фильтра. Практика.

I. Спамдексинг.

Спамдексинг или Поисковый спам - это использование приемов черного СЕО с целью манипулирования результатами поиска и повышения рейтинга сайта в выдаче. Спамдексинг направлен на обман поисковых роботов и строго наказывается баном.

Применяя спамдексинг, вебмастер в короткие сроки может вывести сайт в ТОП поисковой выдачи, но при этом интересы пользователей остаются на последнем месте. Чаще всего прибегание к поисковому спаму не оправдывает себя, так как это краткосрочные меры и велик риск нанести серьезный урон продвигаемому ресурсу.

Виды спамдексинга

  • Спамдексинг реализуется в различных приемах, например:

  • Занесение в Метатеги популярных поисковых запросов, которые не являются ключевыми и не соответствуют тематике сайта;

  • Перенасыщение контента ключевыми словами и фразами;

  • Использование тегов маркировки HTML (b, em, i и др.) с целью искусственного завышения веса ключевиков;

  • Наполнение страниц наряду с контентом для пользователей также скрытым текстом, предназначенным только для индексации поисковым роботом;

  • Дорвеи - перенаправляющие (редирект, ссылки) страницы, переоптимизированные по основным запросам и занимающие высокие позиции в выдаче;

  • Клоакинг - подменные страницы, показывающие различное содержимое пользователям и роботам;

  • Свопинг - замена контента на странице после того, как сайт достиг высоких позиций в ТОПе;

  • Ссылочный спам - искусственная накрутка параметров ТИЦ и PR сайта при помощи ссылок, размещенных на сайте-доноре, с целью увеличения авторитетности исходного ресурса;

Спамдексинг и поисковики

Поисковый спам сказывается негативно на работе поисковых систем и качестве выдачи, которая засоряется мусорными сайтами и предоставляет пользователям необъективную и некачественную информацию.

В результате поисковые машины вынуждены настраивать различные фильтры для борьбы с поисковым спамом, все более усложняя и перестраивая свои алгоритмы.

II. Фильтры.

Фильтр - алгоритм поисковой системы, применяющий санкции к сайтам, которые искусственными методами повлияли на повышение позиций в поисковой выдаче. Как правило, фильтр отсеивает такие сайты и исключает их из выдачи.

Поисковый робот при индексации сайтов проверяет их на характер присутствия черных методов оптимизации, так как целью поисковых систем является предоставление пользователю только качественных и полезных ресурсов. При наложении фильтра поисковая система об этом не сообщает. Сигнализируют о попадании сайта под фильтр только внешние признаки:

  • Страницы сайта не индексируются поисковой машиной

  • Сайт не поднимается в поисковой выдаче

  • Трафик падает

  • Сайт отсутствует в выдаче по ключевым запросам

Факторы риска

Фильтр может налагаться поисковой системой в связи со следующими факторами:

  • Наполнение сайта неуникальным контентом, скопированным с другого ресурса

  • Чрезмерное употребление в текстах на сайте ключей

  • Резкие изменения ссылочной массы (уменьшение или увеличение бэклинков)

  • Приобретение ссылок с некачественных ресурсов

  • Слишком активная продажа ссылок со страниц сайта (превращение сайта в "помойку" за счет большого количества ссылок)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]