Фильтры гугла. Фильтры Яндекса и Google. Виды фильтров у Google

Фильтры гугла. Фильтры Яндекса и Google. Виды фильтров у Google

Хочу сегодня обратить ваше внимание на фильтры от поисковой системы Google.

Когда я только создал свой блог, я понятия не имел, что алгоритмы поисковиков созданы настолько грамотно, что если им встречается некачественный сайт, тогда они могут на него наложить некоторые ограничения.

Конечно, если вернуть время назад, я развивал бы свой ресурс совсем другим образом и не стал бы делать тех ошибок, которые привели меня к плачевному результату.

Как говорится, если осведомлен — значит вооружен.

Виды фильтров у Google

1) «Песочница» или Sandbox . Этот фильтр накладывается на молодые сайты в момент их рождения в сети интернет.

Это своего рода испытание для сайтов, чтобы не попали на топовые места, мало живущие дорвеи, блоги однодневки и др.

Сами подумайте зачем, Гуглу ставить непроверенные сайты на верхние места выдачи, если через определенное время такой сайт может и вовсе перестать существовать.

Выход из-под фильтра

— ждать;
— наращивать естественную ссылочную массу;
— писать регулярно ;
— купить старый домен;

2) Google Florida . Этот фильтр накладывается на сайты, имеющие чрезмерную оптимизацию страниц.

Он отслеживает злоупотребление мета-тегов: strong, h1-h6, насыщенное количество ключевых слов и их плотность.

Выход из-под фильтра

— заменить seo оптимизацию на нормальную;

3) Google Bombing . Понижение конкретной страницы в выдаче, за счет ссылающихся одинаковых анкоров в большом количестве.

Если вы будете продвигать какую-нибудь страницу, используя внешние ссылки с одинаковым анкором, тогда результат получится полностью наоборот.

Выход из-под фильтра

4) «Минус 30» . Под данный фильтр google попадают сайт, которые используют для продвижения «черную» оптимизацию. Такие ресурсы Гугл понижает на 30 позиций.

Причины попадания под фильтр

— резкое увеличение ссылочной массы с некачественных площадок (каталогов, гостевых книг и комментариев);
— помойки ссылок;
— редирект при помощи java script, а также ;

Выход из-под фильтра

— не использовать вышеперечисленные пункты для продвижения сайта;
— убрать редирект;

5) «Дополнительные результаты» или Supplemental Results . Если страницы окажутся под таким фильтрам, тогда они будут выводиться в поиске, только если «качественных» сайтов будет недостаточно, кликнув по ссылке «дополнительные результаты».

Выход из-под фильтра

— уникализировать на странице мета-теги и title;
— закупить несколько трастовых ссылок на данную страницу;
— увеличить объем уникального контента страницы;

Выход из-под фильтра

— избавиться от нерабочих ссылок;

7) «Неуникальный контент» . Если сайт использует ворованный контент (копипаст), тогда этот фильтр будет понижать его в результатах выдачи.

Хотя бывают случаи, когда фильтр Google накладывается не на ворующего, а на того, у кого своровали. а играет очень важную роль.

Выход из-под фильтра

— не воровать чужой материал;
— ускорить индексацию страниц;
— удалить неуникальный материал;

8) «Время загрузки страниц сайта» . Когда робот заходит на сайт и не получает доступ к его содержимому (по причине некачественного хостинга или сервера), тогда он такие страницы пропустит и они не смогут попасть в индекс.

Выход из-под фильтра

— поменять хостинг на качественный, у которого 99,95%;

9) «Цитирование» или Co-citation Linking Filter . Суть его в том, что ссылаться стоит только на качественные сайты, которые в свою очередь тоже должны ссылаться на качественные площадки.

В основном под такой фильтр могут попасть только сайты .

Выход из-под фильтра

Выход из-под фильтра

— ссылаться на сайты по цепочке 1 на 2, 2 на 3, 3 на 1.

11) «Много ссылок сразу» . Этот фильтр Гугла понижает сайты в выдаче, а иногда даже накладывает бан, за участи площадки в линк помойках, больших закупок ссылок и др.

Выход из-под фильтра

12) «Много страниц сразу» . Если на блоге появляется огромное количество контента за маленький промежуток времени, тогда Google может посчитать, что это не естественно и наложить фильтр.

Выход из-под фильтра

— соблюдайте естественность;
— если используете , тогда поставьте ограничение на количество добавляемого материала;

13) «Степень доверия» или Trust Rank . Чем больше вы получите доверия от Google, тем выше будут ваши позиции в выдаче ТОП. Этот фильтр включает все, что было перечислено выше.

— возраст домена;
— качество входящих ссылок;
— количество исходящих ссылок;
— качество ;

14) Google Panda . Этот фильтр появился не так давно, но уже успел потрепать нервишки многим сеошникам.

Суть его заключается в том, что говносайты не должны попадать в индекс, подробно о нем я рассказал в статье « ».

Выход из-под фильтра

— делайте СДЛ сайт, используя все вышеприведенные рекомендации;

15) Google Пингвин . Самый последний из фильтров. Суть его заключается в том, чтобы понизить в выдаче сайты, которые для продвижения используют покупные ссылки.

В ходе его работы на многих блогах сократилась посещаемость, а на других наоборот выросла. Очень подробно о нем я рассказал в прошлой статье « ».

Выход из-под фильтра

Еще хочу добавить, что если вы делаете сайт для людей (СДЛ), часто обновляемый, содержащий уникальный контент и приносящий пользу, он никогда не попадет под фильтры Гугла, а показатели ТИЦ, PR и Траст будут расти сами собой.

Если все-таки вас фильтр не обошел стороной, тогда не отчаивайтесь и развивайте свой проект дальше.

1. Дублированный контент

Сайтов с каждым днем становится больше и больше, их количество страниц растет быстрыми темпами. Множество ресурсов дублируют один и тот же контент у себя на сайтах. На обработку данных необходимы ресурсы и они растут снежным комом.

Следствием этого был запущен фильтр, который накладывается на дублированный контент.

Как работает фильтр:

Если вы на сайте публикуете не уникальную информацию, взятую с других источников, то Google понижает эту статью или страницу в результатах выдачи по .

Варианты действий есть 2:

— ваш сайт попадает в supplemental результаты, то есть результаты не основного индекса

— страницы выпадает из индекса поисковой системы

Как не попасть под фильтр:

При продвижении любого сайта необходимо использовать уникальные текста, и если брать тексты с других ресурсов, то делать их рерайт.

Если же на сайте есть дублированные страницы, например одни и те же страницы описания услуги или товара, то нужно убрать дублирующие, или закрыть их от .

Любыми нормальными способами нужно уникализировать контент на сайте, что бы избежать следствий фильтра за дублированный контент.

2. Песочница или Sandbox

Задача данного фильтра удерживать попадание в топ по высокочастотным запросам, как коммерческим, так и информационным.

Запущен он так же для борьбы со спамом, и сомнительными сайтами. Поэтому срок вывода сайта по самым топовым запросам может быть более 5 месяцев.

Как работает фильтр:

Если молодой только созданный сайт начал продвигаться по конкурентным и высокочастотным запросам, то у него, скорее всего не получиться попасть в топ в первое время.

Фильтр Sandbox не действует на средне и низкочастотные запросы. Поэтому на первое время лучше применять продвижение низкочастотных запросов, и параллельно работать над высокочастотными.

Как не попасть под фильтр:

Для новых сайтов это сложно, но можно найти старый домен по вашей тематике, и тут 2 варианта действий:

— делать сайт на старом домене

— склеить старый домен с новым

Оба вариант нормальные и работают, все зависит от правильности склейки. Так же важно старый домен проверить на обратные ссылки, и посмотреть его историю.

Ко многим тематикам, особенно в Украине он не применим, и можно спокойно продвигать сайты и достигать довольно таки быстрых результатов.

3. Быстрый рост ссылок

Если на сайт происходит слишком быстрый рост ссылок, то поисковая система Гугл может предположить, что ею пытаются манипулировать.

Как работает фильтр:

Если Гугл обнаруживает очень быстрый рост ссылок на сайт, то он может его автоматически понизить в результатах поиска. Следствие такого падение позиций, трафика, и долгое не возвращение сайта в топ.

Как не попасть под фильтр:

Нужно медленно и постепенно наращивать ссылочную массу на сайт, что бы в глазах Google это выглядело максимально естественно.

4. Google Bombing

Когда слишком много прямых вхождений анкора ссылок, Гугл видит, что владелец сайта хочет находиться на первых местах, по словам в топе.

Пример такого анкор листа:

Как мы видим на фото, в анкор листе лишь те ключевые слова, которые владелец сайта хочет быть в топе — продвигаются.
Как работает фильтр:

В случае только с прямым вхождением анкора, рано или поздно Гугл может это заподозрить, следствие чего будет падение позиций. Обычно сначала это -10 – 15 позиций. Потом сайт уходит в -100. Если сильно этим пренебрегать, можно попасть так же и в бан Гугла, это когда все страницы выпадают из индекса поисковой системы.

Как не попасть под фильтр:

Чтобы не попасть под фильтр стоит размещать с сильно разбавленным анкор листом, а так же использовать множество брендовых ключевых слов. Если грамотно разбавлять ссылки, то можно избежать этого фильтра и успешно продвигаться в поиске.

5. – 30

Фильтр – 30 предназначен для борьбы с настоящим спамом в результатах выдачи. Это могут быть сайты со скрытыми редиректами, а так же .

Как работает фильтр:

Он понижает такого плана сайты на – 30. То есть сайт не отображается выше 30-ой позиции в выдаче Google.

Как не попасть под фильтр:

Самый простой способ – не использовать черные методы продвижения сайта, и все будет хорошо.

6. Социтирование

Если вы продвигаете сайт, то обязательно стоит делать так, что бы близкие по тематике ресурсы ссылались на вас. Если же сайт успешно поднимается на первые места, а на него ссылаются сайты не связанные с его тематикой, то в силу может приступить этот фильтр.

Как работает фильтр:

Больше всего он работает, в случае если на ваш сайт будет ссылаться много ссылок с нежелательных тематик, как порнография, азартные игры и прочее.

Как не попасть под фильтр:

7. Переоптимизация

Фильтр был создан для того чтобы понижать сайты, которые сильно переоптимизированы внутри.

Как работает фильтр:

Он учитывает количество ключевых запросов на странице. Если сайт сильно ими оптимизирован, то эти страницы могут выпасть или сильно понизится в результатах поиска. Оптимизация текста сайта должна быть нормальной, иначе есть шанс попасть под фильтр.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за переоптимизацию нужно аккуратно оптимизировать тексты и контент на сайте, не сильно перенасыщать все ключевыми словами, делать оптимизацию для людей в первую очередь, а не только для поисковых систем.

8. Скорость загрузки сайта

Уже давно не секрет, что скорость загрузки сайта влияет на продвижение и позиции.

Как работает фильтр:

Если сайт при переходе из поисковой системы сайт медленно загружается, и это повторяется часто, то Гугл может понизить сайт в результатах поиска.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за скорость загрузки, необходимо размещать сайт на качественных серверах, у надежных провайдеров. Если же проблема загрузки зависит от самой системы управления сайта, то нужно тщательно оптимизировать систему управления, что бы все скрипты быстро работали и загружались. А так же всегда мониторить скорость и доступность сайта.

9. Supplemental Results или дополнительные результаты

Фильтр накладывается на страницы сайта, которые она считает малозначимыми. Например, это могут быть страницы с дублирующимся контентом, а так же на страницы, на которые нет входящих ссылок.

Как работает фильтры:

Такие страницы плохо ранжируются Гуглом, а так же эти результаты можно посмотреть, нажав на посмотреть дополнительные результаты.

Как не попасть под фильтр:

Чтобы не попасть под фильтр, необходимо загнать эти страницы в дополнительный поиск, решения простые:

— убрать дубликаты страниц (или сделать страницы уникальными)

Дополнительные результаты поиска не так страшны, но нужно что бы приоритетные страницы и разделы находились в основных результатах поиска.

В старые времена очень популярным способом продвижения был – обмен ссылками. Создавались отдельные страницы, с которых шли ссылки на сторонние ресурсы. На сторонних ресурсах было так же. Следствие этому позиции сайтов росли.

Как работает фильтр:

Если поисковая система обнаруживает массовый обмен ссылками, то она понижает сайт в результатах поиска.

Как не попасть под фильтр:

Основное: не использовать страницы со ссылками на другие ресурсы. Такое в узких кругах называют линкопомойки.
Если вы уже попали под такой фильтр, то нужно убрать такие страницы, или закрыть их от индексации. Немного подождать и позиции вернуться.

Поисковая система Google имеет в своем арсенале множество фильтров, которые влияют на продвижение и позиции сайта. В данной статье мы подробно рассмотрим основные и актуальные фильтры Гугл, которые не стоит игнорировать в процессе SEO-продвижения.

Часто можно столкнуться с ситуацией, когда сайт оптимизируешь всеми силами, продвигаешь его трудоемким и времязатратным написанием полезного контента, а в результате показатели Google остаются безутешными, проект находится далеко не на лидирующих местах, или еще хуже, выпадает из-под индекса. При этом в Яндексе наоборот, большинство статей попадают в топовую десятку.

В чем причина? Ответ на данный вопрос простой – сайт под фильтром Гугл. Эта буржунетовская поисковая система находится в постоянном движении, не стоя на месте, придумывает какие-то новинки – так называемые фильтры. Google высокоразвит, в его арсенале мощные алгоритмы, способные с абсолютной точностью определить на самом ли деле качественный ресурс или его следует отправить под фильтр.

Проблема в том, что упомянутый поисковик является полностью автоматизированным, система сама вводит и выводит из-под фильтров, так что обращаться в техподдержку здесь бессмысленно. Рекомендуется ни при каких обстоятельствах не попадать под фильтр, так как есть вероятность остаться в нем навсегда. Поэтому к этой теме нужно подойти со всей серьезностью, изучить распространенные их виды, и что самое главное, разобраться, как с ними бороться. Но для начала, заподозрив что-то неладное со своим веб-проектом (снизился трафик, скачок позиций), нужно проверить фильтр Гугла.

Как проверить сайт на фильтры Гугла

Изучая теорию по SЕО, для будущей подготовки, или при работе уже с собственным проектом, всегда возникает вопрос: «Как узнать что сайт под фильтром Google?». Увы, для этого не существует универсального способа. Однако есть комплекс некоторых методов, комбинируя которые можно получить более достоверный результат. Среди их числа:

- Проверка наличия в поиске главной страницы - является самым простым способом. Для этого название домена вписывают в поисковую строку и нажимают «Поиск». Отсутствие в результате выдачи вашей главной страницы указывает, что сайт попал под фильтр Гугла.

- Search Console сервис (абсолютно бесплатный), позволяющий узнать позиции сайта в Google. Зайдя в него в левой части экрана можно увидеть меню, в котором следует отыскать пункт «Меры, принятые вручную» и кликнуть по нему мышкой.

Это меню отображает информацию о ручном применении санкций по отношению веб-страницы. Однако это не является 100 % гарантией отсутствия фильтров.

- Анализ посещаемости веб-ресурса . На то, что сайт под фильтром Google указывает и резкое падение численности посетителей.

Проверить фильтр Google можно и, выполнив проверку внешних ссылок, которые зачастую образуют ссылочный спам. Иногда по результатам проверок оказывается, что только некоторые страницы выпали из индекса. Этому содействует наличие ссылочного спама на указанные страницы, поэтому к ним и применяются соответственные фильтры.

Может быть, что вы сами того не зная, пополнили плохими ссылками внешний ссылочный профиль продвигаемого проекта. В таком случае необходимо от них избавляться.

Если вы ничего не предпринимали, а проверка указывает на ссылочный спам, значит это действия неких доброжелателей, которые хотят таким методом, избавится от конкурента. Также нужно избавляться от дублированных страниц.

Фильтры Google

Поисковик Google имеет следующие распространенные фильтры:

- Фильтр Панда оккупировал просторы интернета в 2011 году. Применяется он к сайтам, с неуникальным контентом, избыточной рекламой, ссылками некачественных сайтов-доноров, большим количеством ключевиков и др.

Чтобы из под него выйти следует потрудиться над уникальностью текста, избавится от некачественных ссылок, убрать ненужную рекламу (навязчивую, агрессивную или запрещенную) и лишние ключевые фразы.

На помощь предыдущему в 2012 году был создан фильтр Пингвин , наказывающий сайты за черные методы продвижения (внешние линки). Накладывается зачастую через быстрый прирост закупленных ссылок, большую плотность (выше 7%) ключевиков с прямым анкорным вхождением, дублированные страницы и скрытые ссылки.

Для выхода из-под него плотность ключевиков должна составлять не более 4 процентов, ссылки заменяются на безанкорные. Также следует избавиться от скрытых линков и сделать перенаправление дубликатов. Рекомендуется иметь ссылки естественные.

- Песочница(Sandbox). Накладывается на молодые сайты (до 3 месяцев). Предназначение данного фильтра заключается в борьбе с сомнительными сайтами (сайты однодневки) и спамом. Данный фильтр не обходит даже самые качественные проекты в начале их долгого пути.

Sandbox не распространяется на запросы с низкой или средней частотностью. Поэтому молодым ресурсам рекомендуется изначально какое-то время для продвижения использовать низкочастотные запросы.

Чтобы не попасть (выйти) под этот фильтр, необходимо следовать действиям:

Первое время ничего не предпринимать, просто ждать;

Затем обновить контент, добавить новый материал;

Найти (купить) старый домен с подходящей тематикой и делать на нем сайт или же склеить новый домен со старым.

- Дублированный контент . Применяется к сайтам, любителям красть (копировать) чужую информацию. Такие ресурсы попадают под фильтры Гугл и выпадают из индекса.

Чтобы подобные санкции предупредить для продвижения проекта всегда нужно использовать уникальный контент. Если же информация берется с других источников, делать ее качественный рерайт.

- Быстрый рост ссылок . Если за достаточно короткое время на сайте появилось внушительное количество ссылок, их влияние на ранжирование просто исчезает, так как Google воспринимает это манипуляцией по отношению к нему. В итоге ресурс теряет позиции и трафик.

Чтобы не попасть под фильтр, стоит максимально естественным путем (постепенно) пополнять ссылочную массу.

- Бомбинг . Действует при наличии обильного количества внешних ссылок с аналогичными анкорами. В итоге Гугл игнорирует их, сайт не индексируется и не продвигается в поисковике.

Минус 30 (-30). Его предназначение заключается в борьбе с реальным спамом в выдаче, сюда относятся сайты дорвеи или, имеющие скрытые редиректы.

Попав под фильтр, сайт понижается в выдаче и не показывается выше 30 позиции. Для его предотвращения просто не применяйте черные способы продвижения.

- Trust Rank (уровень доверия к ресурсу) .

Зависит от следующих показателей:

Ссылок на сайт и их качества;

Качества контента;

Внутренней перелинковки;

Возраста доменного имени.

- Социтирование . Продвигая свой ресурс, в обязательном порядке нужно позаботиться о том, чтобы на него ссылались сайты с похожей тематикой, в противном случае в силу приступает фильтр Социтирование.

Поисковик способен анализировать обратные линки на ваш ресурс, при большом проценте несоответствия их тематике или еще хуже нежелательной тематики (азартные игры и др.) накладывается данный фильтр. За указанным процессом можно проследить через сервис Google Webmaster Tools.

Чтобы под него не попасть, нужно избегать подобных ссылок и залучать наиболее тематические.

- Скорость загрузки сайта . От нее также зависит продвижение сайтов. При постоянной медленной загрузке из поисковика на сайт, Гугл понижает его позиции.

Чтобы этого избежать, нужно использовать качественные серверы и надежные провайдеры для размещения ресурса. А для своевременной помощи, рекомендуется периодически наблюдать за скоростью и доступностью проекта.

Во избежания всех неурядиц просто не используйте страницы со ссылками на иные сайты.

- Переоптимизация . Этот Гугл фильтр предназначен для понижения сайтов, имеющих чрезмерную внутреннюю переоптимизацию.

Ключевые запросы на странице (оптимизация) должны быть нормальными (умеренными).

Чтобы оградить себя от ненужных последствий, контент следует оптимизировать осторожно, не перенасыщать его ключевиками, чтобы текст был человекочитабельным.

Итог

Как уже говорилось, Google имеет огромное количество разнообразных фильтров, что даже профессионалам (оптимизаторам) бывает нелегко вычислить, под каким из них пребывает сайт.

В продвижении проекта достаточно будет учитывать основные вышерассмотренные фильтры Google, для предотвращения попадания своего проекта в бан или под фильтр.

Спасибо за внимание и до скорого на страницах Stimylrosta.

Обнаружили в тексте грамматическую ошибку? Пожалуйста, сообщите об этом администратору: выделите текст и нажмите сочетание горячих клавиш Ctrl+Enter

В прошлом мастер-классе я рассмотрел . Сегодня я расскажу, за что Google может пессимизировать ваш сайт в выдаче и какие фильтры используются этим поисковиком. Также я дам советы, как избежать этих фильтров и что делать, если вы все же под них попали.

В целом для сайтов, оптимизированных в первую очередь под ПС Яндекс, актуальны лишь несколько основных фильтров Google. Это объясняется тем, что большинство требований Яндекса к качеству сайта жестче, чем требования Google, и на практике чаще всего сайт пессимизируется именно в Яндексе. При этом в Google позиции могут стабильно расти по мере индексации доработок, текстов и внешних ссылок. Случаев, когда позиции сайтов в Google были бы хуже, чем в Яндексе, значительно меньше.

Поэтому при постоянном развитии ресурса и следовании требованиям Яндекса, большинство фильтров Google не будут страшны вашему сайту.

Прежде чем перейти к основным фильтрам, которые используются Google, я остановлю свое внимание на одном алгоритме, который был введен весной 2012 года и заставил понервничать многих владельцев сайтов и веб-мастеров — “ ”. Тогда именно из-за действий этого алгоритма сайты стали терять свои позиции и требовалось приложить большие усилия, чтобы вернуть их в ТОП.

Алгоритм “Пингвин”

Об алгоритме:

Новый алгоритм “Пингвин”, запущенный Google 25 апреля 2012 года, направлен на борьбу со спамом в различных его проявлениях и учитывает множество внешних и внутренних факторов ранжирования сайта. Вот анонс разработчиков Google за несколько дней до релиза “Пингвина”:

“В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые, как мы считаем, нарушают требования Google к качеству сайтов”.

Как не попасть под санкции “Пингвина”:

Чтобы избежать действий данного фильтра Google, вам необходимо:

Фильтры и стратегии в сервисе Rookee уже актуализированы для продвижения сайтов в ПС Google в условиях алгоритма “Пингвин”. Вам доступна функция подключения white-листа (в настройках стратегии продвижения). Подключив white-лист, вы сможете застраховать свой сайт от попадания под пессимизацию алгоритма “Пингвин”.

  • Проверить качество анкоров внешних ссылок. Если большинство из них — только точные вхождения, необходимо сменить такие анкоры на более естественные, разбавить их неточными вхождениями и . Такая возможность реализована в системе Rookee с помощью редактора текстов ссылок:

Помимо данного алгоритма, независимо друг от друга существуют и используются несколько фильтров Google, связанных с определенными характеристиками сайтов. Ниже я рассмотрю наиболее известные из них.

Фильтр Google “Песочница” (Sand Box)

Признаки наложения:

Молодой сайт, не достигший определенного возраста, не попадет в индекс от 3 месяцев до года. Подразумевается, что занимать высокие позиции по конкурентным запросам должны относительно старые качественные сайты.

Сайт только недавно создан.

О фильтре:

Так как новые сайты, скорее всего, не смогут ранжироваться лучше старых авторитетных сайтов по конкурентным запросам, они помещаются в так называемую “песочницу”. Цель ПС — понять, насколько сайт будет полезен пользователям в основной выдаче по конкурентным запросам: будет ли ресурс развиваться, наполняться контентом и т.п., и сможет ли в дальнейшем составить конкуренцию старым авторитетным сайтам.

Чтобы как можно скорее выйти из-под фильтра, рекомендуется постоянно развивать сайт — обновлять контент, добавлять новые материалы, создавать внутреннюю перелинковку. Ссылочную массу следует наращивать планомерно, без резких скачков. Необходимо также, чтобы качество площадок, с которых устанавливаются ссылки, удовлетворяло требованиям последних изменений алгоритмов Google.

Фильтр Google "Дополнительные результаты" (Supplementary Results)

Признаки наложения:

Страница не показывается в результатах поиска по запросу. Она будет показываться, только если будет недостаточно страниц, на которые не наложен фильтр. Обычно такое происходит только для низкочастотных запросов.

За что ваш сайт мог попасть под фильтр:

Ваш сайт мог попасть под этот фильтр, если на нем есть страницы, которые дублируют друг друга.

О фильтре:

Часто многие страницы сайтов, хоть и дают ответ на запрос, но или он неполный, или страница, на которой есть ответ, считается некачественной. Причинами, по которым страница считается некачественной, могут быть: некачественная или “спамная” внутренняя перелинковка, использование дублированного контента с других сайтов и т.д. Такие страницы не показываются в основных результатах поиска, а помещаются в “Дополнительные результаты”.

Как не попасть под фильтр:

Чтобы страницы сайта всегда показывались в основной выдаче, необходимо соблюдать все рекомендации поисковой системы, размещать уникальный и полезный для пользователей контент, ставить ссылки с авторитетных источников.

Как вывести сайт из-под фильтра:

Чтобы страница показывалась по всем запросам в основных результатах поиска, следует поставить на нее несколько ссылок с качественных площадок, уникализировать контент или добавить больше информации. Также следует обратить внимание на технические ошибки на сайте и все исправить.

Другие фильтры Google


Кроме вышеперечисленных, часто встречающихся, в кругах оптимизаторов можно услышать и о других фильтрах Google:

  • “Возраст домена” (Domain name Age). Этот фильтр Google накладывается на сайт, доменное имя которого зарегистрировано менее полугода назад. Так как такие сайты имеют меньший уровень доверия, чем старые, они медленнее индексируются. Чтобы сайт начал хорошо индексироваться, необходимо постоянно развивать его, тогда ПС увидит, что сайт создается для людей, и будет лучше его индексировать.
  • “Бомбежка” (Bombing). Этот фильтр Google накладывается за большое количество ссылок с одинаковыми анкорами. Действие таких ссылок не учитывается в ранжировании сайта, и, как следствие, не виден рост позиций. Чтобы ссылки начали приносить результат, необходимо разбавить ссылочную массу уникальными текстами.
  • “Битые ссылки” (Broken Links). Накладывается на сайт, имеющий большое количество внутренних ссылок, ведущих на несуществующие страницы (отдающие 404 ошибку). Такой сайт теряет позиции в выдаче. Чтобы выйти из-под фильтра, необходимо исправить все подобные ссылки на сайте таким образом, чтобы они вели на существующие страницы.
  • “Много ссылок сразу” (Too Many Links at once). Если за короткое время на сайт установлено слишком много ссылок, они перестают влиять на ранжирование сайта. Чтобы не попасть под этот фильтр Google, рекомендуется планомерная закупка ссылок в ограниченном количестве. Особенно это актуально для .
  • “Линкопомойка” (Links). Проверяются страницы сайта, имеющие большое количество исходящих нетематичных ссылок. Кроме этого, могут ухудшиться позиции самого сайта-донора и начать выпадать из индекса страницы. Рекомендуется удалить страницы, количество внешних ссылок на которых больше 5.
  • “Фильтр по времени загрузки” (Page Load Time). Страницы, которые загружаются очень долго, исключаются из результатов выдачи. Чтобы выйти из-под данного фильтра Google, необходимо проверить технические параметры страниц (это можно сделать с помощью сервиса ) и исправить возможные ошибки.
  • “Минус тридцать” (- 30). Этот фильтр понижает позиции сайта по большинству запросов примерно на 30 пунктов. Накладывается за использование “черных” методов продвижения — , редиректы через JavaScript, (предоставление пользователю и ПС разной информации) и т.п. Чтобы вернуть позиции, необходимо устранить причины наложения фильтра.
  • “Дублирующийся контент” (Dublicate Content). Позиции сайта с неуникальным контентом искусственно понижаются в результатах поиска. Чтобы избежать пессимизации, необходимо следить за уникальностью контента и переписывать его в случае ухудшения позиций.
  • “Чрезмерная оптимизация” (Over Optimization). Если текст на страницах сайта перенасыщен ключевыми словами, такие страницы значительно теряют позиции или полностью исключаются из выдачи. Чтобы не попасть под фильтр, рекомендуется придерживаться плотности каждого ключа в тексте (это отношение ключевого слова или ключевых фраз к общему количеству слов на странице) не более 5-7%.

Заключение

Чтобы избавиться от влияния большинства фильтров Google и обезопасить сайт от их наложения, достаточно следовать нескольким простым советам:

1. Постоянно наполнять сайт уникальным контентом.

2. Обновлять контент как можно чаще. Самый лучший вариант — добавлять информацию каждый день.

4. Следить за техническими аспектами работоспособности сайта.

5. Следовать по созданию и развитию сайтов.

Если после прочтения мастер-класса у вас возникли какие-либо вопросы, буду рад на них ответить!


Есть достаточное количество причин, по которым сайт может попасть под . Это, к примеру, агрессивная реклама на сайте, переоптимизация контента или низкое качество ресурса в целом. Но это еще не весь список. Как определить, что Ваш сайт находится под фильтрами, рассмотрим далее.

Появление новых алгоритмов поисковых систем в большинстве случаев просто пугает веб-мастеров. Так, например, Ваш сайт может агрессивно восприниматься поисковыми системами, если:

  • имеется контент замаскированный под гостевой спам;
  • большое количество сео-анкоров;
  • неуникальный контент;
  • есть спамные рассылки в блоках и комментариях;
  • есть скрытые от пользователей ссылки и другое.

В случае попадания ресурса под санкции поисковика, могут быть полностью утеряны позиции сайта в системе, а это означает, что вся работа, которая проводилась до этого попросту будет утрачена. Согласитесь, что такой судьбы для своего онлайн-проекта не желает ни один веб-мастер.

Как распознать, что Ваш сайт находится под фильтром поисковых систем?

О некоторых наложенных фильтрах поисковая система сообщает официально в разделе Google Webmaster Tools. Эти сообщения означают, что к Вашему сайту были приняты меры, из-за возможных нарушений:

  • наличие исскуственных ссылок на Ваш онлайн-проект;
  • присутствуют исскуственные ссылки на Вашем сайте;
  • Ваш ресурс взломан;
  • спам и спам от пользователей;
  • скрытая переадресация;
  • избыточное количество ключевиков или скрытый текст на сайте;
  • бесплатный хостинг, который распростаняет спам.

Но какие сайты “любит” Гугл? Подробнее рассмотрено ь .

Рассмотрим каждый из фильтров и то, как выйти из под его действия.

Фильтр “Песочница”.

Этот фильтр накладывается на молодые сайты до 1 года. В данный период поисковая система следит за тем, как ведет себя сайт. Проверить наличие фильтра легко – сайт отсутствует в индексе. Попадание “песочницу” может произойти из-за быстрого наращивания ссылочной масы, это кажется Google очень подозрительным и он налаживает санкции на молодой ресурс, ведь подобное поведение расценивается как спам.

Для того, чтобы не попасть под данный фильтр, закупать ссылки нужно очень осторожно, ни в коем случае не допускать “ссылочного взрыва” и наполнять сайт уникальным полезным контентом. Акуратно выбирайте доноров сайта, чтобы не допустить попадания в “песочницу”.

Фильтр Domain name age (возраст домена).

Этот фильтр также налаживается на молодые сайты, которым меньше года. Но ограничения снимаются, когда домен сайта достигает определенного уровня траста. Чтобы избежать фильтра, можно купить старый домен с положительной историей или же закупать трастовые ссылки, но очень акуратно.

Фильтр “Too many links at once” (много ссылок сразу).

Когда налаживается данный фильтр, веб-мастер замечает резкое падения трафика с Гугл, а внешние ссылки на ресурс уже не имеют никакого веса. Это случается из-за резкого ссылочного взрыва, поисковая система считает это неестественным и применяет санкции к сайту.

Если Ваш сайт попал под данный фильтр, то Вам следует значительно снизить наращивание ссылок, а те, что уже есть, не нужно трогать. Через 1-3 месяца фильтр будет снят.

Фильтр “Бомбежка”.

Наказанию подвергается не весь сайт, а отдельные его страницы, которые поисковик воспринял как спамные. Причина: фильтр наказывает сайт, на который ведут много внешних ссылок с одинаковым анкором или текстом. Поисковая система считает это не натуральным. Для того, чтобы избавиться от этого, необходимо или удалить все ссылки или поменять анкоры, а далее просто ждать результата.

Этот фильтр накладывается на сайты, которые имеют много страниц с 404 ошибкой. Эти ссылки раздражают не только посетителей сайта, но и поисковую систему, которая не может проиндексировать данную страницу. Поэтому удаляйте битые ссылки, чтобы не попасть под фильтр.

Фильтр “Links”.

Ранее между веб-мастерами было популярно обмениваться ссылками, но сегодня Гугл наказывает за такие обмены. Поэтому ставьте не более 4 ссылок на сайты-партнеров, а если все-таки попали под фильтров, то подобные ссылки необходимо убрать с сайта немедленно.

Фильтр “Page load time” (время загрузки страницы).

Google не любит сайты, которые имеют низкую скорость загрузки сайта. Поэтому он может понизить ресурс в выдаче именно по этой причине. Рекомендовано, чтобы скорость загрузки сайта не превышала 7 секунд, чем быстрее – тем лучше. Это параметр можно проверить с помощью специального сервиса – PageSpeed.

Фильтр “Omitted results” (опущенные результаты).

Действие этого фильтра определяется, когда Ваш сайт отсутствует в результатах основного поиска. Его можно увидеть только когда в поиска открыть скрытые результаты. Данный фильтр налаживается на сайт за дубли и слабую перелинковку страниц.

Если ресурс уже под действием фильтра, необходимо переписать контент сделав его уникальным и улучшить внутреннюю перелинковку.

Фильтр “-30”.

Данный метод санкций был создан для борьбы с “черным сео”. Если фильтр наложен, позиции сайта понижаются на -30. За что наказывает фильтр: скрытый редирект, клоакинг, дорвеи. Если причины устранены, фильтр прекращает свое действие.

Фильтр “Переоптимизация”.

Сайт может понизится в выдаче или полностью исключиться с индекса. Все это действие данного фильтра. Он может быть наложен из-за чрезмерной оптимизации страниц, например, перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок. Чтобы фильтр прекратил действие на Ваш сайт, необходимо правильно оптимизировать страницы сайта.

Фильтр “Панда”.

Один из самых опасных фильтров. Он охватывает несколько сразу фильтров и для того, чтобы из-под него выйти необходимо много времени и сил. Это фильтр может быть наложен по многим причинам, среди которых: дублирующийся контент, чрезмерная оптимизация, продажа ссылок или агрессивная реклама на сайте, накрутка поведенческих факторов. Для того, чтобы выйти из-под его действия, необходимо проделать целый комплекс действий нацеленных на улучшения сайта. Это может занять достаточно много времени, в некоторых случаях до 1,5 года.

Фильтр “Пингвин”.

Также как и предыдущий фильтр является очень проблемным для владельца сайта. Алгоритм имеет непосредственное отношение к ссылочному продвижению. Санкции могут настигнуть Ваш онлайн-ресурс, если Вы закупаете слишком большое количество ссылок за раз; если эти ссылки имеют один и тот же анкор; если ссылки являются не тематическими или вы производите обмен ссылками. Выйти из-под “Пингвина” очень сложно, этот процесс также является долговременным.

Кстати, более подробно фильтры “Панда” и “Пингвин” описаны в моей статье “ ”.

3399 раз(а) 1 Сегодня просмотрено раз(а)



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows