Фильтры Яндекса и Google. Фильтры гугла

Фильтры Яндекса и Google. Фильтры гугла

15.05.2019

Крупнейшая поисковая система мира давно использует ряд алгоритмов, направленных на улучшения поисковой выдачи. У Google существует большее количество фильтров, нежели у ПС «Яндекс». Но не смотря на то, что Google является безоговорочным лидером в Украине и вторым по объемам поиска в России, часть ее фильтров не применима для русскоязычного сегмента. Тем не менее, Google уже не первый год планирует масштабный выход на рынок СНГ и, возможно, многие недействующие сейчас у нас фильтры будут введены в течении определенного времени.

« Дублирующийся Контент»

С каждым днем количество документов в сети Интернет растет быстрыми темпами. Поисковым системам сложно обрабатывать и хранить такие объемы информации, тем более, что многие ресурсы дублируют друг-друга. В основном из-за этого был введен данный фильтр на дублированный контент. К сожалению, он до сих пор работает не идеально, ведь часто первоисточник текстов ранжируется по ним ниже, чем сайт, укравший его.

Что происходит с сайтом:

Ресурс понижается в выдаче по запросам. Можете ввести часть текста из страниц (порядка 10 слов), количество заходов из которых упало, в поисковую систему и просмотреть результаты выдачи. Если Ваш сайт окажется не на первом месте – это значить, что Google не считает его первоисточником.

Как не попасть под фильтр:

Использовать контент, который не встречается в сети интернет. Если такой метод для Вас дорог и трудоемок, ввиду большого количества страниц, тогда:
– Можно уникализирровать контент, добавив в него оригинальные комментарии и части текстов
– Добавить динамический скрипт, который выводил бы на Ваших страницах какую-либо меняющуюся информации, не повторяющуюся в сети, например – окошко чата пользователей. При этот текст с окна должен индексироваться.

Заменить (в крайнем случае – уникализирровать) контент на сайте

Фильтр « – 30 »

Применим к сайтам, использующие скрытые редиректы и дорвеи. Он предназначен для борьбы с откровенным поисковым спамом в выдаче.

Что происходит с сайтом:

Страницы в результатах поиска понижаются на 30 пунктов по запросам, таким образом это ограничивает количество переходов на такие сайты (подавляющее большинство пользователей не доходит в поиске за 3-ю страницу)

Как не попасть под фильтр:

Не использовать «черные» методы - редиректы и дорвеи.

Варианты вывода сайта из-под фильтра:

Вам необходимо исключить уже приведенные методы, за которые сайт попал под фильтр.

«Слишком быстрый прирост ссылок»

Поисковая система может заподозрить Вас в попытках повлиять на поисковую выдачу путем увеличения внешней ссылочной массы на сайт. Чаще всего ему подвержены молодые сайты.

Что происходит с сайтом:

Сайт может сильно упасть в выдаче, либо это даже может привести к его “бану”.

Как не попасть под фильтр:

Варианты вывода сайта из-под фильтра:

Постепенно снимите ссылочную массу, попробуйте купить или поставить несколько ссылок на авторитетных ресурсах.

«Bombing»

Фильтр накладывается на сайт за большое количество ссылок с одинаковым текстом ссылки. Такое поведение Google считает поисковым спамом и видит в этом желание владельца сайта повысить его позиции в выдаче по определенному запросу.

Что происходит с сайтом:

В большей части случаев сайт “вылетает” из выдачи – накладывается БАН.

Как не попасть под фильтр:

При продвижении сайта не размещать большое количество ссылок с одинаковым текстом.

Варианты вывода сайта из-под фильтра:

Изначально попробуйте разбавить тексты ссылок, которые идут на Вас с других сайтов (либо купите новых, либо измените часть уже имеющихся, если это возможно). Потом добавьте Ваш сайт в заявку на индексацию.

«Sandbox» – песочница

Гугл с осторожностью относиться к сайтам, недавно появившемся в сети. Это обусловнено желанием поисковой системы бороться со спамом. Данный фильтр противодействует молодым сайтам попасть на первые позиции с популярными запросами (особенно – коммерческими).

Что происходит с сайтом:

Не смотря на проделанную работу по продвижению, ресурс не выходит в ТОП по популярным запросам, хотя, при этом есть трафик по низкочастотным поисковым фразам.

Как не попасть под фильтр:

Купить домен “с возрастом” и историей. При этом нужно проверить, что было размещено на нем до Вас, так как не исключено, что новое доменное имя может быть под действием какого-либо фильтра.

Варианты вывода сайта из-под фильтра:

Сразу выбраться из “песочницы” нельзя. Согласно наблюдениям, данный фильтр снимается не с каждого сайта по отдельности, а с групп сайтов сразу(по тематикам). Можно лишь ускорить процесс выхода из-под данного фильтра путем размещения нескольких ссылок на качественных ресурсах с историей, имеющих высокие показатели.

Раньше эффективным способом продвижения было использование обмена ссылками. При этом на сайтах создавались специальные страницы с большим количеством “линков” на другие сайты. Позже Гугл начал бороться с такими способами, предназначенными для влияния на результаты выдачи.

Что происходит с сайтом:

Понижение в поисковых результатах

Как не попасть под фильтр:

Не использовать “линкопомойки” (страницы, которые ссылаются на очень большое количество сайтов). Не используйте в названии страницы на сайте links.html

Варианты вывода сайта из-под фильтра:

Убрать или запретить к индексации страницу с большим количеством ссылок.

«Социтирование»

Для поисковой системы логичным является ранжировать сайты, на которые ссылаются авторитетные ресурсы с его же ниши(тематики). Если на Ваш ресурс ссылается много сайтов с “нежелательными” тематиками (часто это казино, порнография) или рядом со ссылкой на вас в блоке стоят “линки” на такие сайты, тогда Гугл считает, что Вы также имеете схожее наполнение, как и эти сайты. Это вредит тематичности Вашего сайта.

Что происходит с сайтом:

Ресурс по “своим” запросам теряет позиции в поисковой выдаче.

Как не попасть под фильтр:

Варианты вывода сайта из-под фильтра:

Пересмотр ссылочной масы. Попытайтесь снять нежелательные “линки” на Ваш ресурс(имеющие уже описанные параметры), ведущие с других сайтов.

«Степень доверия к сайту»

Этот фильтр можно назвать сборным, да и фильтром назвать сложно, скорее – это параметр для ранжирования. В нем учитываются такие основные факторы, как:
– Какие сайты на Вас ссылаются (их авторитет и насколько сложно получить ссылку от них)
– На какие ресурсы ссылаетесь Вы (нежелательно ставить у себя линки на некачественные и сомнительные сайты).
– Возраст и история доменного имени (сайта). Чем старше – тем лучше.
– Качество страниц сайта, его “перелинковка”.
– Количество ссылок (как в ходящих, так и исходящих, на ряду с упомянутыми их качественными показателями).
А также многое другое…

Как получить большую степень доверия к сайту:

Стараться, чтобы сайт соответствовал уже перечисленным факторам.

«Переоптимизация»

Для того, чтобы поставить владельцев сайтов в равные условия и свести к минимуму возможность существенно влиять на выдачу с помощью методов внутренней оптимизации был введен данный фильтр. Он учитывает количество ключевых фраз на страницах сайта в тексте, заголовках и мета-тегах. Фильтр начинает действовать в случае, если страница перенасыщена ключевыми словами.

Что происходит с сайтом:

Падают позиции страниц сайта по ключевым словам, под которые он оптимизирован.

Как не попасть под фильтр:

Не пытаться чрезмерно насытить текты, заголовки и мета-теги ключевыми словами.

Варианты вывода сайта из-под фильтра:

Подкорректировать информацию на страницах сайта, которые Вы подозреваете в попадании под фильтр. Уменьшить количество ключевых слов.

«Время загрузки»

“Гугл” старается ранжировать выше именно качественные сайты, которые были бы не только полезны и интересны пользователю, но и не вызывали неудобств в работе с ними. Исходя из этого поисковая система стала учитывать время загрузки веб-страниц

Что происходит с сайтом

Ваш веб-ресурс хуже ранжируется в поисковой системе.

Как не попасть под фильтр

Использовать качественный хостинг. В случае увеличение нагрузки на сайт (рост посетителей, установка дополнительных “тяжелых” модулей и другое…) – изменить хостинг-план на более подходящий под эти цели.

Варианты вывода сайта из-под фильтра:

При подозрении попадания Вашего сайта под этот фильтр – смените хостинг или хостинг-план для ресурса.

«Supplementary Results»

Данный фильтр накладывается на некоторые страницы Вашего сайта, которые поисковая система Гугл считает менее значимыми и полезными для пользователей. Часто ему подвержены те документы, которые содержат дублирующийся контент, отсутствуют входящие ссылки на страницы, также, повторяются мета-теги.

Что происходит с сайтом:

Страницы не полностью выпадают из поиска, но их можно найти лишь кликнув по ссылке “показать дополнительные результаты”. Также, они ранжируются очень плохо.

Как не попасть под фильтр:

Разместить несколько входящих ссылок на такие страницы, не публиковать большой процент дублирующихся материалов, писать оригинальные заголовки для веб-документов.

Варианты вывода сайта из-под фильтра:

Устранить все негативные факторы, перечисленные в разделе, за которые накладывается данный фильтр.

Поисковая система Google имеет в своем арсенале множество фильтров, которые влияют на продвижение и позиции сайта. В данной статье мы подробно рассмотрим основные и актуальные фильтры Гугл, которые не стоит игнорировать в процессе SEO-продвижения.

Часто можно столкнуться с ситуацией, когда сайт оптимизируешь всеми силами, продвигаешь его трудоемким и времязатратным написанием полезного контента, а в результате показатели Google остаются безутешными, проект находится далеко не на лидирующих местах, или еще хуже, выпадает из-под индекса. При этом в Яндексе наоборот, большинство статей попадают в топовую десятку.

В чем причина? Ответ на данный вопрос простой – сайт под фильтром Гугл. Эта буржунетовская поисковая система находится в постоянном движении, не стоя на месте, придумывает какие-то новинки – так называемые фильтры. Google высокоразвит, в его арсенале мощные алгоритмы, способные с абсолютной точностью определить на самом ли деле качественный ресурс или его следует отправить под фильтр.

Проблема в том, что упомянутый поисковик является полностью автоматизированным, система сама вводит и выводит из-под фильтров, так что обращаться в техподдержку здесь бессмысленно. Рекомендуется ни при каких обстоятельствах не попадать под фильтр, так как есть вероятность остаться в нем навсегда. Поэтому к этой теме нужно подойти со всей серьезностью, изучить распространенные их виды, и что самое главное, разобраться, как с ними бороться. Но для начала, заподозрив что-то неладное со своим веб-проектом (снизился трафик, скачок позиций), нужно проверить фильтр Гугла.

Как проверить сайт на фильтры Гугла

Изучая теорию по SЕО, для будущей подготовки, или при работе уже с собственным проектом, всегда возникает вопрос: «Как узнать что сайт под фильтром Google?». Увы, для этого не существует универсального способа. Однако есть комплекс некоторых методов, комбинируя которые можно получить более достоверный результат. Среди их числа:

- Проверка наличия в поиске главной страницы - является самым простым способом. Для этого название домена вписывают в поисковую строку и нажимают «Поиск». Отсутствие в результате выдачи вашей главной страницы указывает, что сайт попал под фильтр Гугла.

- Search Console сервис (абсолютно бесплатный), позволяющий узнать позиции сайта в Google. Зайдя в него в левой части экрана можно увидеть меню, в котором следует отыскать пункт «Меры, принятые вручную» и кликнуть по нему мышкой.

Это меню отображает информацию о ручном применении санкций по отношению веб-страницы. Однако это не является 100 % гарантией отсутствия фильтров.

- Анализ посещаемости веб-ресурса . На то, что сайт под фильтром Google указывает и резкое падение численности посетителей.

Проверить фильтр Google можно и, выполнив проверку внешних ссылок, которые зачастую образуют ссылочный спам. Иногда по результатам проверок оказывается, что только некоторые страницы выпали из индекса. Этому содействует наличие ссылочного спама на указанные страницы, поэтому к ним и применяются соответственные фильтры.

Может быть, что вы сами того не зная, пополнили плохими ссылками внешний ссылочный профиль продвигаемого проекта. В таком случае необходимо от них избавляться.

Если вы ничего не предпринимали, а проверка указывает на ссылочный спам, значит это действия неких доброжелателей, которые хотят таким методом, избавится от конкурента. Также нужно избавляться от дублированных страниц.

Фильтры Google

Поисковик Google имеет следующие распространенные фильтры:

- Фильтр Панда оккупировал просторы интернета в 2011 году. Применяется он к сайтам, с неуникальным контентом, избыточной рекламой, ссылками некачественных сайтов-доноров, большим количеством ключевиков и др.

Чтобы из под него выйти следует потрудиться над уникальностью текста, избавится от некачественных ссылок, убрать ненужную рекламу (навязчивую, агрессивную или запрещенную) и лишние ключевые фразы.

На помощь предыдущему в 2012 году был создан фильтр Пингвин , наказывающий сайты за черные методы продвижения (внешние линки). Накладывается зачастую через быстрый прирост закупленных ссылок, большую плотность (выше 7%) ключевиков с прямым анкорным вхождением, дублированные страницы и скрытые ссылки.

Для выхода из-под него плотность ключевиков должна составлять не более 4 процентов, ссылки заменяются на безанкорные. Также следует избавиться от скрытых линков и сделать перенаправление дубликатов. Рекомендуется иметь ссылки естественные.

- Песочница(Sandbox). Накладывается на молодые сайты (до 3 месяцев). Предназначение данного фильтра заключается в борьбе с сомнительными сайтами (сайты однодневки) и спамом. Данный фильтр не обходит даже самые качественные проекты в начале их долгого пути.

Sandbox не распространяется на запросы с низкой или средней частотностью. Поэтому молодым ресурсам рекомендуется изначально какое-то время для продвижения использовать низкочастотные запросы.

Чтобы не попасть (выйти) под этот фильтр, необходимо следовать действиям:

Первое время ничего не предпринимать, просто ждать;

Затем обновить контент, добавить новый материал;

Найти (купить) старый домен с подходящей тематикой и делать на нем сайт или же склеить новый домен со старым.

- Дублированный контент . Применяется к сайтам, любителям красть (копировать) чужую информацию. Такие ресурсы попадают под фильтры Гугл и выпадают из индекса.

Чтобы подобные санкции предупредить для продвижения проекта всегда нужно использовать уникальный контент. Если же информация берется с других источников, делать ее качественный рерайт.

- Быстрый рост ссылок . Если за достаточно короткое время на сайте появилось внушительное количество ссылок, их влияние на ранжирование просто исчезает, так как Google воспринимает это манипуляцией по отношению к нему. В итоге ресурс теряет позиции и трафик.

Чтобы не попасть под фильтр, стоит максимально естественным путем (постепенно) пополнять ссылочную массу.

- Бомбинг . Действует при наличии обильного количества внешних ссылок с аналогичными анкорами. В итоге Гугл игнорирует их, сайт не индексируется и не продвигается в поисковике.

Минус 30 (-30). Его предназначение заключается в борьбе с реальным спамом в выдаче, сюда относятся сайты дорвеи или, имеющие скрытые редиректы.

Попав под фильтр, сайт понижается в выдаче и не показывается выше 30 позиции. Для его предотвращения просто не применяйте черные способы продвижения.

- Trust Rank (уровень доверия к ресурсу) .

Зависит от следующих показателей:

Ссылок на сайт и их качества;

Качества контента;

Внутренней перелинковки;

Возраста доменного имени.

- Социтирование . Продвигая свой ресурс, в обязательном порядке нужно позаботиться о том, чтобы на него ссылались сайты с похожей тематикой, в противном случае в силу приступает фильтр Социтирование.

Поисковик способен анализировать обратные линки на ваш ресурс, при большом проценте несоответствия их тематике или еще хуже нежелательной тематики (азартные игры и др.) накладывается данный фильтр. За указанным процессом можно проследить через сервис Google Webmaster Tools.

Чтобы под него не попасть, нужно избегать подобных ссылок и залучать наиболее тематические.

- Скорость загрузки сайта . От нее также зависит продвижение сайтов. При постоянной медленной загрузке из поисковика на сайт, Гугл понижает его позиции.

Чтобы этого избежать, нужно использовать качественные серверы и надежные провайдеры для размещения ресурса. А для своевременной помощи, рекомендуется периодически наблюдать за скоростью и доступностью проекта.

Во избежания всех неурядиц просто не используйте страницы со ссылками на иные сайты.

- Переоптимизация . Этот Гугл фильтр предназначен для понижения сайтов, имеющих чрезмерную внутреннюю переоптимизацию.

Ключевые запросы на странице (оптимизация) должны быть нормальными (умеренными).

Чтобы оградить себя от ненужных последствий, контент следует оптимизировать осторожно, не перенасыщать его ключевиками, чтобы текст был человекочитабельным.

Итог

Как уже говорилось, Google имеет огромное количество разнообразных фильтров, что даже профессионалам (оптимизаторам) бывает нелегко вычислить, под каким из них пребывает сайт.

В продвижении проекта достаточно будет учитывать основные вышерассмотренные фильтры Google, для предотвращения попадания своего проекта в бан или под фильтр.

Спасибо за внимание и до скорого на страницах Stimylrosta.

Обнаружили в тексте грамматическую ошибку? Пожалуйста, сообщите об этом администратору: выделите текст и нажмите сочетание горячих клавиш Ctrl+Enter

Google.com – очень развитая поисковая система с мощным самообучающимся алгоритмом и автоматизированными фильтрами. Выйти из-под фильтра Google намного сложнее, чем у Яндекса. Во-первых, самих фильтров здесь намного больше и распознать, под какой именно попал сайт, гораздо труднее. Во-вторых, здесь нет Платона, от которого можно в трехдневный срок получить хоть какой-то ответ на свой запрос по поводу проблем с сайтом. Письмо послать, конечно, можно, но на ответ надежды мало. Google стремится полностью автоматизировать все процессы, связанные с ранжированием, на глобальном уровне, и случаи ручного рассмотрения проблем с отдельными сайтами случаются крайне редко. Поэтому гораздо лучше профилактика, чем лечение, потому что болезнь может оказаться трудно диагностируемой или, в худшем случае, неизлечимой.

Фильтры Google за возраст сайта

Domain Name Age – фильтр на молодые домены
Накладывается на недавно зарегистрированные домены. Для того, что б сайт на молодом домене смог подняться в выдаче, он должен завоевать доверие поисковой системы.
Профилактика – приклеить к новому домену трастовый старый домен.
Лечение: а) просто ждать; б) тот же прием, что и для профилактики.

SandBox – песочница
Причина – «молодость» сайта в целом, низкий уровень трастовости (доверия поисковика к сайту). В отличие от DomainNameAge, под SandBox могут попасть также сайты на старых доменах, если эти сайты практически не обновляются, не обрастают ссылками и не посещаются.
Профилактика и лечение : работать над развитием сайта, стимулировать появление естественных ссылок.

Фильтры Google за манипуляции с внутренними факторами

Google Florida – фильтр за чрезмерную оптимизацию сайтов
Google Florida – один из самых старых фильтров, прошедших долгий путь совершенствования. Причина наложения – чрезмерная оптимизация сайта (чрезмерное употребление ключевых слов в title, тексте, чрезмерное выделение ключевых слов и т.д.).
Симптомы – резкое падение сайта по всем запросам в выдаче.
Профилактика – пишите тексты, составляйте мета-теги для людей, а не для роботов.
Лечение – заменить всю оптимизированную текстовую составляющую на удобочитаемую (сократить плотность вхождений ключевых слов).

Google Supplemental Results – перенесение сайта в дополнительные результаты поиска.
Этот фильтр, получивший среди российских сеошников название «сопли», накладывается на отдельные кластеры и страницы, если их содержимое не уникально или если они очень похожи друг на друга (например, страницы галлереи).
Симптомы – перемещение страниц из основных результатов выдачи в дополнительные (“supplemental” означает «дополнительный»).
Профилактика: избегать шаблонных движков, дублированных страниц (с одним и тем же содержанием, но разным URL, делать уникальные title, теги и тексты для каждой страницы.
Лечение: удаление дублированных страниц, уникализация каждой страницы в отдельности, замена шаблонного дизайна на свой.

Google Omitted Results – перенесение сайта в опущенные результаты поиска
Накладывается на страницы, по структуре и содержанию очень схожие со страницами с других сайтов (например, страницы технических характеристик товаров Интернет-магазинов). Может накладываться одновременно с Supplemental.
Симптомы – сайта нет в выдаче, но он находится, если нажать на ссылку «повторить поиск, включив опущенные результаты».
Профилактика: делать уникальные по структуре и содержанию страницы
Лечение: оптимизация структуры страниц, уникализация контента.

Googe Duplicate Content – фильтр за неуникальный контент
Накладывается на сайты, не содержащие уникального контента и «взаимствующие» содержание с других сайтов. Также может быть наложен на сайты, содержание которого растащили другие ресурсы.
Симптомы – проседание сайта в выдаче, длительное застрявание на одних и тех же позициях.
Профилактика – не копипастить контент с других сайтов и защищать свой сайт от воровства контекнта (например, с помощь Copyspace , или ).
Лечение – замена существующего дублированного контента на уникальный, добавление нового контента.

Brocken Links Filter – фильтр сайтов с битыми ссылками
Если на сайте много неработающих ссылок, Google может сделать общий вывод о низком качестве сайта и опустить его в выдаче.
Лечение и профилактика – избегайте битых ссылок.

Page Load Time Filter – фильтр долго загружающихся сайтов
Если робот Google не сможет без труда скачать страницу сайта, значит, и пользователи не смогут, а ведь поисковик заботится в первую очередь о пользователях.
Лечение и профилактика – не перегружайте страницы графикой, следите за их весом.

Фильтры Google за манипуляции с ссылками

Google Bombing – фильтр за одинаковый текст ссылок
Накладывается в случае, если на сайт ссылается много ссылок с одним и тем же анкором.
Симптомы: проседание позиций или застрявание сайта на одних и тех же позициях длительное время, безрезультатное увеличение числа ссылок.
Профилактика: старайтесь ставить ссылки с разными анкорами.
Лечение: разбавить тексты существующих ссылок, или нарастить еще ссылок с другими текстами.

Google -30 – понижающий фильтр
Накладывается за использование методов черной оптимизации – клоакинга, дорвеев, редиректов.
Симптомы: резкое понижение сайта в выдаче на около тридцати позиций.
Профилактика – не балуйтесь черными методами.
Лечение – практически невозможно. Фильтр «-30» – это предбанник Google, и обычно дальнейшая перспектива сайта – это бан.

Понижающие фильтры за искусственное наращивание ссылок: LinkFarming Filter, ReciprocalLinksFilter и Link.html Page Filter. Накладываются за участие в ссылочнообменных сетях, покупку ссылок и наличие линкопомоек на сайте. Симптомы : в лучшем случае – понижение сайта в выдаче, в худшем – бан.
Профилактика: быть осторожным при работе с ссылочным.
Лечение: избавиться от причины фильтра (удалить страницу с ссылками, убрать код линкопомойки и т.д.) и попробовать написать запрос на повторное добавление сайта.

Co-Citation Filter – “плохое соседство”.
Фильтр за ссылки с сайтов, ссылающихся на “плохих” акцепторов. Если сайт, который ссылается на ваш ресурс, ссылается также на плохой с точки зрения Google сайт (к примеру, на порносайт, варезник или фарму) – Google может посчитать, что ваш сайт тоже плохой и понизить его в выдаче.
Профилактика и лечение: старайтесь получать ссылки только с хороших сайтов.

To Many Links at Once Filter – фильтр за быстрый прирост ссылок.
Если на ваш сайт за короткий период времени появится большое количество ссылок, Google может показаться это противоестественным – скорее всего, эти ссылки добыты неестественным путем.
Симптомы: резкое падение позиций за пределы первой сотни по всем словам.
Профилактика: набирайте ссылочную массу постепенно.
Лечение: это тот случай, когда лечит время. Только не надо резко убирать полученные ссылки – это будет еще один резкий скачок, который может усугубить ситуацию.

Все эти фильтры уже давно действуют в глобальном поиске Google, но многие из уже начинают работать и в региональном поиске, в особенности в российском и украинском. Как же предохраниться от всей этой нечисти? Русская народная мудрость гласит: тише едешь – дальше будешь…

Сайт или нет, я подготовил эту статью, которая посвящена фильтрам Google.

Буржуйский поисковик более привередливый, он отлично развит, имеет мощные алгоритмы, которые с высокой точностью определяют качество сайтов и принимают решение, отправлять ли ресурс под фильтр. Фильтров здесь очень много, гораздо больше, чем в яндексе, но мы все рассматривать не будем – только самые распространенные.

Проблема работы с гуглом заключается в том, что тут писать в тех. поддержку нет смысла, т.к. гугл – система автоматизированная, самостоятельно вводящая и выводящая из-под фильтра, и рассматривать каждый отдельный случай вручную вряд ли кто будет. Именно поэтому старайтесь ни при каких ситуациях не попадать в фильтр Гугла – от туда можно вообще никогда не выбраться.

Фильтр «песочница»

Очень знаменитый фильтр, существование которого представители гугла отрицают. Фильтр накладывается на практически все молодые сайты (сайты с малым возрастом) и со временем автоматически снимается, если сайт развивается. Причины попадания в него: малый возраст домена и самого сайта, малый возраст контента, редкая обновляемость контента, низкий траст сайта. В принципе бояться данного фильтра не стоит, нужно стараться выбраться из под него как можно быстрее.

Определяется данный фильтр очень просто: проверьте позиции вашего сайта. Если по запросам положение сайта в выдаче очень плохое, а по и сайт вообще не присутсвует в ТОП-100, высока вероятность, что сайт под фильтром (но при условиях, что у сайта есть причины попасть в песочницу).

Чтобы поскорее выйти оттуда, попробуйте : купите пару ссылок с трастовых сайтов, и через какое-то время доверие поисковика к вашему детищу возрастет. Также старайтесь добавлять как можно больше нового материала на сайт, работайте над повышением посещаемости с социальных сетей и других сайтов. Чем быстрее растут характеристики сайта, тем скорее гугл выведет его из под песочницы.

Фильтр «Supplemental Results»

По-другому этот фильтр еще называют «Сопли» (произошло от Supple). Данный фильтр может быть на ложен не на весь сайт в целом, а на его отдельные страницы.

У гугла существует два индекса: основной и дополнительный (Supplemental results). Основной доступен в выдаче, а вспомогательный в выдаче не показывается (может быть показан лишь при желании пользователя). Разумеется, если страницы попали в дополнительный индекс, то трафик с гугла резко упадет.

Причины попадания страниц под «Сопли» следующие:

  • шаблонный дизайн;
  • неуникальный текст;
  • дублирующийся контент.

Чаще всего, под фильтр попадают неважные страницы сайта (рубрик, меток, поиска и т.д.), поэтому сильно бояться его не стоит.

Определить, сколько страниц в , можно так:

  1. Введите в гугле запрос «site:http://сайт /&», заменив в нем домен на свой, и посмотрите, сколько страниц найдется. Эти страницы в основном индексе.
  2. Откройте карту сайта и посмотрите, сколько всего разрешенных к индексации страниц у сайта. Можно определить общее количество страниц любым другим известным способом.
  3. Вычтите из общего количества страниц те, что в основном индексе, и вы получите количество документов в дополнительном индексе.

Например, у блога сайт всего разрешено к индексации около 450 страниц, а в индексе 388. Значит под фильтром 62 страницы.

Фильтр «Флорида»

Сюда попадают сайты, владельцы которых занимаются черной и излишней оптимизацией своих ресурсов. Другими словами фильтр «Флорида» — наказание за переоптимизацию веб-сайта, куда можно отнести:

  • чрезмерное употребление поисковых запросов в мета-тегах;
  • высокая , большой процент вхождений ключей;
  • излишняя оптимизация картинок.

Проверить, попал ли ваш сайт под данный фильтр, очень сложно. Попробуйте сопоставить факты:

  • использовалась ли излишняя оптимизация, переоптимизация;
  • резко упал трафик с гугла;
  • сайт остался в индексе, но позиции выпали из ТОП-100.

Очевидно, что для исправления ситуации вам придется удалить все фрагменты переоптимизации. Через какое-то время позиции сайта восстановятся, но, скорее всего, они будут хуже, чем в первоначальном случае.

Фильтр «минус 30»

Получил название из-за того, что при попадании сайта под данный фильтр, его позиции падают на 20-40 пунктов. Как правило, причинами попадания под него становится использование злостных методов оптимизации, связанных к перенаправлению посетителей с одного сайта на другой: это клоакинг и дорвеинг.

Очевидно, что сайт будте под фильтром «-30», если:

  • использовались редиректы (клоакинг, дорвеинг);
  • позиции сайта упали в среднем на 30 пунктов.

Выбраться из под «-30» практически невозможно. Более того, в дальнейшем сайт вообще может быть забанен.

Фильтр за покупку ссылок

Можно попасть под него в тех случаях, когда вы покупаете слишком большое количество ссылок за короткое время. Т.е. в принципе покупать ссылки можно, но в разумном количестве. Если же прирост внешних ссылок будет слишком большим, то вы нарветесь на фильтр Гугла.

Определение попадания под фильтр сводится к следующему:

  • недавно было закуплено большое число ссылок;
  • позиции сайта вылетели за ТОП-100.

Если попали под фильтр, то ничего не делайте! Не пытайтесь резко убрать все купленные ссылки – это лишь подтверждение для гугла, что вы злоупотребили покупкой ссылок. Лучше всего в такой ситуации просто ждать – через несколько месяцев позиции сайта восстановятся.

Еще советую вам посмотреть интересное видео про анализ конкурентов на блоге SeoProfy.net Ведь, нужно следить не только за своим сайтом, но также анализировать методы продвижения конкурентов.

Хорошего настроения всем читателям — сайт!

Представляю Вашему вниманию основные фильтры Google вместе со способами их ликвидации.

У поисковой системы Google, так же как и у Яндекса, есть ряд фильтров, которые накладываются на Веб-ресурсы оптимизаторов. В целом, фильтры Google и Яндекса основаны на похожих принципах. Однако способы вывода сайта из-под того или иного фильтра все же отличаются.

Итак, приступим. Попробуем разобраться, какие есть фильтры у Гугла и что делать, когда сайт попадает под пессимизицию.

1. Самым распространенным фильтром поисковой машины Google является «Sandbox », так называемая «песочница». Этот фильтр автоматически накладывается на молодые сайты. При этом Веб-ресурс может быть вне индекса до 3 -х месяцев.

Способы вывода из-под фильтра «Sandbox». – нужно связать страницы сайта между собой. Можно осторожно закупать ссылки, но только очень осторожно, чтобы не попасть под другие санкции («Много ссылок сразу»).

При этом нужно очень тщательно выбирать площадки-доноры, обращая внимание на такой показатель, как Trust Rank (степень доверия Google к Интернет-ресурсам). Или же можно просто ждать, когда Гугл самостоятельно посчитает сайт «пригодным».

2. Следующий фильтр Google – это «Domain Name Age » (возраст доменного имени). Данный фильтр может быть наложен на сайты с доменными именами возрастом до 1 года, которые практически не имеют доверия от поисковиков. Гугл плохо начинает такие ресурсы, чем не позволяет искусственно завысить позиции сайта.

Способы вывода из-под фильтра «Domain Name Age». Можно попробовать закупаться ссылками со старых сайтов, трастовых ресурсов. Также можно попробовать сменить домен, на тот, которому уже более 1 года.

3. «Supplementary Results » (вспомогательные результаты). Этот фильтр накладывается, когда на сайте имеются страницы, которые дублируют друг друга. Google просто перемещает такие сайты в отдельную группу «Дополнительные результаты поиска», поэтому на эти страницы пользователи практически никогда и не попадают.

Способы вывода из-под фильтра «Supplementary Results». Нужно либо убрать дублированные страницы, либо размещать на каждой странице уникальный и полезный контент.

4. Фильтр «Bombing » (бомбежка). Как правило, данный фильтр накладывается на сайт из-за большого количества ссылок с других ресурсов с одинаковыми анкорами. Эти ссылки просто не учитываются поисковиком, поэтому позиции сайта не растут.

Способы вывода из-под фильтра «Bombing». Нужно просто убрать часть ссылок с одинаковыми анкорами. Вместо них лучше прикупить ссылки с уникальными анкорами, которые поисковик еще не учитывал ранее.

5. Фильтр «Bowling » (боулинг). Если к привлечению вышеописанных фильтров был причастен в основном сам оптимизатор, то к фильтру «Bowling» зачастую имеют отношение недобросовестные конкуренты, которые воруют контент (), пишут письма с жалобами, накручивают поведенческие факторы, размещают ссылки на забаненных сайтах и т.д. Этот фильтр очень опасен для молодых сайтов, к которым нет особого доверия со стороны поисковика (низкий показатель Trust Rank).

Способы вывода из-под фильтра «Bowling». Выход один – нужно обращаться к специалистам Google с объяснительным письмом, в котором нужно разъяснить всю ситуацию и попробовать доказать свою правоту.

6. Фильтр «Broken Links » (так называемые « »). Накладывается такой фильтр при большом количестве ссылок, которые выдают ошибку 404. При этом ресурс практически всегда теряет свои позиции в поисковой выдаче.

Способы вывода из-под фильтра «Broken Links». Нужно проверить все ссылки на сайте и найти эти самые ссылки с . Обнаружить их можно с помощью ПО Xenu Link Sleuth или же в панели Яндекс. Вебмастер.

7. Фильтр «Too Many Links at once » (фильтр еще называют «много ссылок сразу»). Если за которое время поисковая система обнаруживает очень много ссылок на определенный Веб-ресурс, то, скорее всего, на этот сайт будет наложен фильтр «Too Many Links at once». При этом Google может полностью проигнорировать все купленные ссылки.

Способы вывода из-под фильтра «Too Many Links at once». Нужно начинать постепенно, начиная с минимального числа, постепенно повышая его.

8. Фильтр «Links » (так называемые «линкопомойки»). Если на одной странице сайта очень много исходящих ссылок, то Google обязательно наложит данный фильтр. Кроме того, он просто будет игнорировать все ссылки. Таким образом, не только позиции партнеров не будут расти, сам сайт-донор также может очень сильно потерять свои позиции в поиске Гугла.

Способы вывода из-под фильтра «Links» очень просты. Если на странице более 25 исходящих ссылок, нужно такие страницы просто удалить или скрыть от индексации.

9. Фильтр «Page Load Time » (время загрузки сайта). Этот фильтр накладывается на страницы, очень долго загружающиеся при обращении к ним поискового робота. Сайт просто начинает терять позиции в выдаче.

Способы вывода из-под фильтра «Page Load Time». Нужно избавиться от «тяжелых» элементов сайта, которые перегружают исходный код страниц.

Также можно воспользоваться дополнительными модулями, которые предусмотрены для работы сайта.

10. Фильтр «CO-citation Linking Filter » (социтирование). Этот фильтр применяется, если на Интернет-ресурс ссылается много нетематических сайтов. Google просто снижает позиции таких сайтов.

Способы вывода из-под фильтра «CO-citation Linking Filter». Нужно отыскать такие ссылки, и попросить владельцев сайтов их удалить. При этом нужно только с тематических ресурсов.

11. Фильтр «Omitted Results » (опущенные результаты). Если на сайте неуникальный контент, встречаются дублированные страницы, малое количество исходящих ссылок и слабая перелинковка, то сайт с большой долей вероятности может попасть под данный фильтр. Такие страницы будут присутствовать только в выдаче расширенного поиска.

Способы вывода из-под фильтра «Omitted Results». Нужно удалить «дубли», осуществить , залить на сайт уникальный контент и купить ссылок с тематических ресурсов.

12. Фильтр «-30 ». Такие санкции накладываются на сайт при наличии скрытых редиректов, дорвеев (сайтов, направляющих на данный сайт) и клоакинга. Название фильтра о многом говорит: сайт понижается в поисковой выдаче на 30 позиций.

Способы вывода из-под фильтра «-30». Нужно попытаться устранить все эти сайты, которые предоставляют поисковой системе разную неправдивую информацию.

13. Фильтр «Duplicate Content » (дублированный контент). Естественно, этот фильтр накладывается за неуникальный контент. Такие страницы сайта пессимизируются Гуглом или же просто удаются из выдачи.

Способы вывода из-под фильтра «Duplicate Content». Размещать на сайте нужно только . С помощью различных скриптов можно попробовать защитить его от воровства, хотя и этот метод не всегда помогает.

14. Фильтр «Over Optimizzation » (чрезмерная оптимизация). Фильтр накладывается, когда сайт перенасыщен ключевыми словами. Такие страницы удаляются из выдачи или попадают под жесткую пессимизацию.

Способы вывода из-под фильтра «Over Optimizzation». Нужно сделать так, чтобы на страницах не превышала 5 -7 %.

15. Фильтр «Panda » (панда). Как правило, данный фильтр накладывается на Веб-ресурсы за некачественный контент: низкую уникальность текста, присутствие нерелевантной рекламы, большого количества ключевых слов, дублированных страниц и т.д.

Способы вывода из-под фильтра «Panda». Нужно удалить часть ненужных ссылок, добавить на сайт уникальный контент, удалить нерелевантную рекламу и «дубли».

16. Фильтр «Penguin » (пингвин). Если на сайте плотность ключевых слов превышает отметку в 7 %, имеется точное вхождение ключевых слов в анкорах ссылок, имеются скрытые ссылки и дублированные страницы, а также наблюдается высокий темп роста наращивания ссылочной массы, то такой фильтр просто неизбежен.

Способы вывода из-под фильтра «Penguin». Нужно убрать часть ключевых слов, разбавить анкоры синонимами, удалить скрытые ссылки и «дубли», и, в общем, поработать над «естественностью сайта».

Но не стоит забывать, что поисковые системы регулярно обновляют свои фильтры, а также добавляют новые. Нужно следить за обновлениями, хотя сами поисковые системы не так и активно о них сообщают.
На сегодня это всё.

Если Вам известны другие фильтры Google, обязательно сообщите, я дополню ими существующий список.

До новых статей…

С уважением, Денис Черников!



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows