Фильтрами называются определенные алгоритмы, благодаря которым поисковые системы отсеивают нежелательные результаты, когда пользователь что-то ищет. В первую очередь поисковые роботы отсеивают те страницы, которые на их взгляд яв-ляются низкокачественными.
Рассмотрим на примере Google, какими бывают фильтры и как под них не попасть.
Фильтр под названием «дубли контента»
По статистике компании Net Craft от 2012 года, во всем мире насчитывалось порядка 677 миллионов сайтов. Конечно же, такое большое количество ресурсов означает огромный объем данных. В большинстве случаев сайты копируют информацию друг у друга и просто ее распространяют, это затрудняет работу поисковых систем Яндекс и Google. Чтобы этого не происходило, был создан фильтр, отсеивающий одинаковый контент. Иначе говоря, программа проверяет, является ли информация на сайте уникальной или она уже была кем-то ранее где-то размещена. Если информация не уникальная, то сайт попадет под фильтр.
Чтобы не стать жертвой фильтр дублей, каждую статью перед публикацией нужно проверять на уникальность. Если она не уникальная, в статье можно заменить не уни-кальные фрагменты синонимами. Для проверки уникальности существует масса про-грамм и сервисов, к примеру, text.ru. Лучше всего наполнять сайт своими статьями, а не копировать или переделывать чужие.
Что же касается музыки, видео и картинок, то такую информацию на уникальность поисковый робот проверить пока не может.
Фильтр Sandbox (песочница)
Такой фильтр предназначен для молодых сайтов. Основной его целью является удерживание позиций «юных» сайтов ниже, чем старших и продвинутых сайтов. Иначе говоря, если на сайте изложен качественный контент и сайт хорошо оптимизирован, в общем, сделан лучше более старшего сайта, то поисковая машина все равно отдаст предпочтение более «старому» сайту.
Под этот фильтр попадают все сайты, а чтобы из под него выйти, должно пройти не менее 4-ех месяцев. При продвижении молодого сайта нужно избегать быстрого на-ращивания ссылочной массы.
«Ложная» ссылочная масса
На данный момент поисковые роботы стали умнее и научились безо всякого труда определять, каким методом создавалась ссылочная масса для сайта. Если робот фиксирует искусственное наращивание ссылочной массы, он понижает проект в результатах поиска, включая фильтр.
Избежать такой проблемы можно, так как она возникает в основном при слишком быстрой раскрутке, когда ссылочная масса растет очень быстро. Делать это нужно плавно и постепенно. Однако здесь есть нюанс, а что если такую ссылочную массу нарастил специально конкурент, дабы подтолкнуть сайт под фильтр? Ведь Google этого не объяснишь.
Битые ссылки
Если сайт имеет большое количество ссылок, которые в итоге выдают ошибку 404, то Google может активировать данный фильтр. Все дело в том, что поисковые роботы заточены на то, чтобы определять полезность для посетителей того или иного ресур-са. Так, если на сайте имеется много пустых ссылок, которые никуда не приводят, робот считает этот сайт неинтересным для пользователей и включает фильтр, понижая позицию сайта в поисковой системе.
Чтобы исправить эту проблему, нужно найти все битые ссылки на сайте и заменить их рабочими. Или же можно установить 301 редирект с битых страниц на основной сайт. Конечно, первый метод наиболее перспективный. Когда проблема будет решена, фильтр будет снят, на это может уйти от нескольких недель до нескольких месяцев.
Линкопомойка
Такого рода фильтры применяются Google, когда сайт имеет массу исходящих ссы-лок на иные ресурсы. В большинстве случаев такой фильтр включается, когда сайт имеет более чем 20 внешних ссылок. Фильтр может быть включен как для какой-то конкретной страницы, так и для всего сайта, здесь все зависит от общей заспамленности ресурса. Чтобы выйти из под такого фильтра, нужно убрать лишние внешние ссылки, всего их должно остаться не более семи. Или же можно просто отключить индексацию таких ссылок, это делается при помощи атрибута rel=”nofollow”.
Как правило, после исправления проблемы фильтры отключаются через две неде-ли, максимум через два месяца.
Фильр «черепаха»
Данный тип фильтра относится к тем сайтам, которые долго загружаются. Все дело в том, что чем быстрее загружается сайт, тем лучше. Порой пользователи просто за-крывают окно в браузере, так и не дождавшись, когда же сайт загрузится. Конечно же, все это пагубно влияет на ресурс. Огромную роль скорость загрузки имеет для тех, кто пользуется мобильными устройствами, а таких пользователей сейчас основная масса.
Чтобы не попасть под такой сайт, нужно максимально сильно оптимизировать свой сайт в плане загрузки. Чтобы определить главные проблемы, почему сайт загружается медленно, можно воспользоваться сервисом Page Speed.
На сайте лучше не размещать много тяжелой анимации, больших картинок, огром-ные JS. Также можно сжать HTML код.