Фильтр Гугл Пингвин, Панда и фильтры Яндекса (АГС, переоптимизация и др.)
Чтобы правильно продвигать свои сайты, оптимизатор должен знать принципы ранжирования и фильтры поисковых систем, которые могут быть наложены на некачественные страницы.
Давайте рассмотрим основные фильтры Гугл - Пингвин и Панда, а также Яндекса - АГС, переоптимизация и др.
Google Пингвин
Впервые имя этого фильтра (Гугл Пингвин) прозвучало в апреле 2012 года, а в начале мая пришел и первый апдейт, и, как итог: позиции большинства сайтов упали. Алгоритм выполняет те же задачи, что и другие алгоритмы и фильтры. Задача же проста - очистка поисковой системы от некачественных ресурсов.
Получить наказание от Google Penguin можно за следующее:
- Чрезмерная насыщенность ключами для внутренних и внешних ссылок;
- Использование копированного материала (касается даже тех, у кого украли);
- Спам в каталогах и блоках некачественными статьями;
- Использование доменов, которые точно совпадают с продвигаемыми ключами;
- Переоптимизация страниц на сайте (большое количество ключей при создании текста и мега-тегов).
В общем, новый алгоритм теперь глубже сканировать и намного лучше разбираться в качестве ресурса. Необходимо учесть и еще один момент - это реклама на ресурсе. Перенасыщенность рекламой главной страницы, ведет к потере позиции в выдаче, Пингвин в этом преуспел.
Google Панда
Для тех, кто еще не слышал о таком фильтре, сделаем небольшой экскурс в историю. Он появился весной 2011 года и моментально по Сети понесся шум.
Фильтр Гугл Панда преобразил результаты поиска: многие сайты получили повышение, а довольно много - упало. Буквально за несколько апдейтов выдача была сильно изменена. Что происходит, многим было не понятно, но вскоре на блоге SEOmoz были освещены некоторые аспекты.
Вероятные причины попадания под Панду:
- Копипаст;
- Маленькое количество контента на странице;
- Бесполезный материал;
- Переоптимизированный контент;
- Слишком большое количество рекламы на странице.
Фильтр непредсказуем, Google Панда постоянно обучается и как он поведет себя в будущем предсказать сложно. Единственное можно добавить по переоптимизированному контенту. Плотность ключевых слов не должна составлять больше 5 - 6%.
Если на сайте присутствуют страницы с плотностью более 10%, то они могут тянуть на дно весь ресурс. Главное создавайте сайт не для поисковых ботов, а для людей и проблем с Пандой не возникнет.
Другие фильтры GoogleGoogle Domain name Age Filter - молодой домен, на котором располагается ресурс заслуживает маленького доверия у поисковиков, поэтому сайт низко располагается в поисковой выдаче.
Google Sandbox - это фильтр для новых ресурсов. К новым сайтам доверие отсутствует, что касается конкурентных запросов, то такие ресурсы находятся далеко в поисковой выдаче.
Over Optimization Filter - большая насыщенность сайта заголовками (тег Н), повторений ключевых фраз и жирного текста (теги b, strong).
Google's Omitted Results Filter - пропущенные результаты. Дублирующийся материал, мало входящих ссылок, маленькая внутренняя перелинковка страниц.
Page Load Time Filter - долгое время загрузки, большой объем страницы, насыщенность рекламой и скриптами, страница не индексируется и как итог - понижение в поисковой выдаче.
Google Bombing - данный фильтр накладывается, если на ресурс ведет большое количество ссылок с одним и тем же описанием.
Too many pages at once Filter - накладывается на сайты на которых число новых страниц увеличивается не по дням, а по часам. Полезного материала сразу много не бывает.
Google -30 - применяется к ресурсам, на которых используются редиректы и дорвеи при помощи javascript. Ресурс опускается на 30-позиций в поисковой выдаче.
Фильтры Яндекс: АГС
Тяжелое орудие Яндекса - фильтр АГС направлен на борьбу с сателлитами, поскольку в последнее время они буквально заполонили Сеть и не приносят пользы посетителям. Выстрел по сайту, это еще не бан, но довольно серьезный удар по ресурсу.
Вылетают почти все страницы, в большинстве случаев остается одна морда сайта. Первопричиной попадания под выстрел считается отвратительный контент: плохой рерайт, синонимайз, машинный перевод и т.д. Сателлит то пропадает из выдачи практически весь и надолго, то вновь возвращается на кроткое время. Стоит АГС привязаться к ресурсу один раз, он от него не отвяжется.
Переоптимизация - работа данного фильтра направлена против злостных оптимизаторов. Начинает он работать, если находит частое использование ключевых фраз. В настоящее время для оптимального продвижения достаточно в статье упоминать ключевую фразу пару раз.
Аффилированные - для попадания в бан, достаточно пары сайтов расположенных на одном хосте и их продвижении по одинаковым ключевым запросам.
Непот фильтр - применяется к сайтам, использующим большое количество ссылочного спама, да еще неестественного: перестают учитываться внешние ссылки, и их продажа бессмысленна.
Потеря позиций - фильтр говорит сам за себя. Сайты наказываются за чрезмерное размещение ссылок на другие ресурсы.
Ты последний - применяется к сайтам, дублирующим сторонний контент. наказание ужасное - опускание сайта на "тысячные" позиции в выдаче.
Пессимизация - сайт попадает под этот фильтр, если обменивается ссылками с ресурсами, содержащими другую тематику.
Редирект фильтр - применяется к тем ресурсам, на которых используется редирект javascript.
Links Text - наиболее гуманный, просто сайты не индексируются если не содержат ключевых фраз.
Совсем недавно у Яндекса появился фильтр напоминающий "Песочницу" от Google. Только что созданные сайты некоторое время просто не допускаются на верхние места выдачи, пока не войдут в доверие к поисковой системе. Им придется немного подождать перед тем, как выйти в свет.
Как не попасть под фильтры поисковых систем
Чтобы избежать фильтров поисковых систем придерживайтесь следующих правил:
- Пишите и публикуйте только качественный контент;
- Старайтесь заливать на сайт новый материал чаще (оптимальным считается - 4 новых статьи в неделю);
- Наращивайте только качественную ссылочную массу. Получайте бэклинки с тематических и трастовых ресурсов;
- Необходимо позаботиться о работоспособности и правильной настройке служебных файлов (robots.txt, sitemap.xml и др.);
- Вовремя исправляйте на сайте "битые" ссылки.
Если будете писать качественные тексты для людей, заботиться о посетителях и юзабилити сайта, не спешить с наращиванием ссылочной массы, то о фильтрах, представленных в этой статье, можете забыть навсегда.