Фильтры Google могут создать много проблем как молодому сайту, так и устоявшемуся крупному порталу. Причины попадания под фильтр могут быть разнообразны, но эффект будет ощутим: трафик сайта существенно просядет.
Как не попасть под фильтр?
Продвигая и оптимизируя свой сайт в сети, необходимо знать принципы ранжирования в поисковых системах. Несоблюдение правил установленных поисковиками может повлечь ряд санкций, итогом которых чаще всего является блокировка сайта. Блокировка сайта заключается в том, что он будет запрещен к показу в выдаче той или иной поисковой системы, что несомненно повлечет за собой потери посетителей сайта.
Механизмом накладывания санкций является фильтр поисковой системы, который проверяет сайт на наличие грубых нарушений. Под грубыми нарушениями подразумевается искусственное продвижение различными способами, следствием чего является искажение поисковой выдачи. Данная проблема является самой распространенной у всех поисковых систем, но, как можно заметить, с появлением новых фильтров — интернет стал гораздо чище.
На данный момент существует около сотни различных фильтров у одного только Гугла — не все знают о них, так как лишь малая часть может коснуться веб-мастеров. Совсем недавно я рассказывал об относительно новом фильтре Яндекс Минусинск, о котором я также советую прочитать.
Фильтр Google Пингвин
Особенности Penguin
Фильтр вышел в свет в 2012 году и своим появлением навел много шума. После первого апдейта многочисленные сайты потеряли свои позиции, после чего встал острый вопрос: как выйти из под фильтра?
Характерность Google Пингвин:
- аномальная потеря позиций в выдаче
- исходя из первого — большие потери в посещаемости
Попадание под фильтр трудно не заметить, но трудно понять какой именно это фильтр и каовы причины попадания под него. Пингвин относился с вниманием к внешним ссылкам и мог распознавать такие проблемы как:
- изобилие ключевых слов
- дефицит вхождений в виде адреса сайта
- отсутствие или дефицит именно тематических доноров
- обмен ссылками
- некачественные или заспамленные доноры
- неравномерность распределения ссылочной массы по страницам
- дубли контента
Таким образом, основной задачей фильтра стала именно блокировка некачественных ресурсов, на которые ссылались некачественные сайты. Более того, эти ссылки должны быть естественными: сайт должен иметь не только влиятельные ссылки, но и те, которые не несут в себе никакого веса.
Помимо внешних ссылок, требования затронули и исходящие. При указании таковой ссылки, следует убедится в качестве сайта, в ином случае можно залететь под Пингвина. Особенно это касается коммерческих проектов, на которые уделяется особое внимание. Самое простое решение проблемы — для большинства ссылок указывать nofollow.
Как я уже упоминал, важным критерием фильтра является — естественность ссылок. Нельзя допускать резкого повышения ссылок — только по мере развития проекта. Даже если ссылки будут высокого качества, резкое их появление в большом количестве непременно приведет к одному — попадание под фильтр, а то и не один.
Ещё один критерий стоит учесть, дабы избежать неприятностей с Пингвином: дублированный контент. Пингвин анализирует ваш сайт в поиске и при наличии дублей — так же может наложить санкции. Стоит заметить, что Пингвин занимается лишь поверхностным анализом контента, в отличие от следующего фильтра, который мы рассмотрим.
Как выйти из под фильтра Google Penguin
Если всё-таки вы попали под фильтр — не стоит отчаиваться. Выйти можно и нужно, это лишь вопрос времени — главное понять под какой фильтр вы попали. Специально для этого существует удобный сервис — Barracuda, которому придётся предоставить данные из Google Analitics. С помощью него можно сопоставить спад посещаемости и апдейт определенного фильтра.
При попадании под фильтр — в Google Webmaster будет соответствующее уведомление. Если это Пингвин, то я бы начал с отсеивания некачественных входящих ссылок: именно в этом и заключается смысл фильтра — бороться с покупными ссылками. После выявления мусорных ссылок — необходимо от них избавиться. Специально для этого случая Google предоставил сервис для удаления ссылок.
Для того, чтобы выявить заспамленные ссылки, необходимо выгрузить список всех ссылок из Google Webmasters в формате Excel (CSV):
Далее всё зависит от вас и от объёмов ссылочной массы: если ссылок небольшое количество или у вас много времени — всегда можно самостоятельно провести аудит и отсеять заспамленные ссылки. В ином случае — можно воспользоваться специальном сервисом Checktrust, который выполнит всю работу за вас.
После перехода на сайт, открываем в меню «BackLinks Cheker» и загружаем ранее полученный файл в формате CSV:
Следующим этапом будет выбор типа очистки:
- Легкая чистка — удалятся только бэклинки с самых некачественных сайтов;
- Умеренная чистка — удалятся все сайты по качеству ниже среднего;
- Отличная чистка — полная очистка от всех подозрительных ссылок;
- Жесткая чистка — останутся только самые качественные ссылки;
- Нужны все варианты — получить несколько вариантов очистки.
После проделанной операции будет предложен файл для сохранения в текстовом формате, в котором будут 2 файла:
- список качественных ссылок
- список некачественных ссылок
После этого можно смело отправляться в сервис удаления ссылок Google, который я упоминал выше и просто добавить файл с некачественными ссылками. Самое интересное то, что для операций в Google Webmasters всё уже подготовлено — некачественные ссылки приведены в правильный формат в сервисе BackLinks.
После этого остаётся лишь ожидать очередного апдейта и снятия санкций.
Если у вас нет желания проверять качество каждого сайта, на который вы устанавливали исходящую ссылку — достаточно запретить по ней следовать с помощью nofollow. О запрете к индексации я уже говорил в данной статье.
Фильтр Google Панда
Особенности Panda
Фильтр начал своё существование в 2011 году и вызвал большой ажиотаж во всей сети. Пожалуй, основной интерес веб-мастеров вызвал тот факт, что Панда действовала не совсем однозначно: одни сайты понижались в позициях, а другие наоборот быстро поднимались. Долгое время Панда вносила диссонанс в понимание веб-мастеров — это стало действительно серьёзной проблемой.
Спустя какое-то время, начали появляться первые обзоры и догадки касательно алгоритма фильтра и его возможных критериев. Как ни странно, на этот раз Google преподнёс сюрприз в виде детальной проверки контента сайтов и выявление таких критериев, как:
- наличие копипаста
- объём информации в статьях
- полезность материала
- переоптимизация контента
- изобилие рекламы на сайте
Уникальность контента, как никогда, стала ценится после появления Панды. И это здорово — теперь трудно найти в ТОПе выдачи некачественный скопированный материал. То же самое касается и объёма статьи — короткие или сверхбольшие статьи могут стать причиной попадания под фильтр (чаще всего это лишь дополнительный фактор).
Полезность материала определяется расчётом вышеописанных критериев, а также показателя отказов и времени, проведенного на сайте. Напомню, что показатель отказов является одним из важных поведенческих факторов, по которому учитывается качество сайта.
К переоптимизации контента стоит отнести злоупотребление ключевыми словами в статье, которые также называются академической тошнотой. Частое употребление ключевых слов расценивается как спам и однозначно будет внесено под фильтр. Напомню, что не стоит использовать ключевые слова с плотностью выше 2,5%.
Именно Панда стала основным оружием в искоренении рекламы на сайтах веб-мастеров, которые были вынуждены существенно ограничить её количество. С появлением данного фильтра было выбито из ТОПа большое количество сайтов, среди которых остались лишь действительно качественные, либо те, кто смог исправить и адаптировать свой проект под новые условия.
Как выйти из под фильтра Panda
Если вы столкнулись с таким фильтром, как Panda — это совсем неутешительные новости. Выбраться из-под данного фильтра достаточно сложно, но вполне возможно. Основной проблемой является то, что санкции Панды касаются в основном контента, которого может быть большое количество, что затрудняет процесс «реабилитации».
Чтобы выбраться из фильтра Панды придётся провести серьёзную работу с контентом, его качеством и характеристиками сайта в целом. Необходимо найти возможные проблемы поведенческого характера, либо наличие назойливой рекламы (если таковая есть). Если проблема всё-таки кроется в самом контенте — предстоит долгий процесс анализа и правок.
Чаще всего вся проблема кроется в переоптимизации текста, что расценивается как спам. Кстати, даже если таких страниц будет 2-3 — они потянут за собой весь сайт: поэтому стоит проверить каждую страницу сайта на предмет наличия спама.
Именно поэтому я советую не стараться влиять всеми силами на поисковую систему, а писать текст для людей, используя ключевые слова в достаточном количестве.