Проверка на фильтры яндекса. Фильтры поисковых систем: список, описание. Как работают фильтры поисковых систем? Что насчет Яндекса

Проверка на фильтры яндекса. Фильтры поисковых систем: список, описание. Как работают фильтры поисковых систем? Что насчет Яндекса

Сайты, находящиеся в рунете, в большей степени подвержены влиянию двух поисковых систем: Яндекса (около 73% от всей доли рынка) и Google (около 21%). Именно фильтры этих проектов заставляют многих seo-оптимизаторов и web-мастеров тратить бюджеты впустую и пользоваться исключительно белыми способами продвижения.

Проверка фильтров Яндекса

Самым распространенным вариантом является фильтр АГС. Данный фильтр распространяется преимущественно на некачественные ресурсы, которые используют не совсем белые методы продвижения. Как правило, такие проекты не несут какой-либо практической пользы для посетителей и используются только для получения прибыли.

Яндекс считает целесообразным исключать подобные проекты из индекса, чтобы выдача была более качественной и релевантной. Фильтр легко определяется с помощью количества проиндексированных страниц. Если оно внезапно уменьшилось до 1-5, то на сайт наверняка был наложен этот фильтр. То же самое можно сказать, если страницы нового сайта совершенно не входят в индекс.

Вторым по популярности является бан. В этом случае абсолютно все страницы выпадают из индекса. Проверить наличие этого фильтра можно с помощью панели web-мастера. Если ресурс никак нельзя добавить, то он забанен.

Также сейчас появился новый фильтр, который опускает позиции сайта, накручивающего поведенческие факторы. Для проверки нужно прекратить делать накрутку (если она есть) или проанализировать действия пользователей. Если количество отказов резко сократилось, а каждый посетитель просматривает по несколько страниц, то вас, наверняка, пытаются подставить в глазах ПС.

Помимо этого вы можете использовать другой способ. Введите ключевое слово и посмотрите, на какой позиции находится сайт. Затем добавьте к запросу «-любой текст». Например, « сайт -пельмешки». Отобразится выдача без учета поведенческих факторов. Если во втором случае позиции будут заметно лучше, то фильтр наложен.

Фильтр «падение позиций» накладывается на ресурсы, которые, по мнению Яндекса, накручивают ссылочное. Для его проверки достаточно скопировать какой-нибудь кусочек уникального текста и вставить его в поисковую строку. Если страница находится не на первых трех позициях, то фильтр, скорее всего, имеет место быть.

Последним является фильтр аффилиата. Он вводится, когда у поисковая система подозревает, что ресурсы принадлежат одному и тому же человеку. Для проверки достаточно ввести ключевое слово из семантического ядра обоих ресурсов. Если они оба присутствуют в выдаче, значит фильтра нет.

Проверка фильтров Google

Самый популярный фильтр от Google – это песочница. Молодые проекты не выходят на первые позиции в поисковых системах из-за срока индексации. Этот период может продлиться от нескольких месяцев до пары дней.

Все зависит от скорости развития и продвижения проекта. Проверить наличие фильтра можно с помощью позиций. Если в Яндексе сайт по низкочастотным запросам находится на первом месте, а в Google где-нибудь на 30-40, то он находится под фильтром.

Также отечественные сайты часто попадают под фильтр Supplemental Results или «сопли». В этом случае страницы сайта будут попадать не в обычную выдачу, а в дополнительную. Соответственно, нельзя будет добиться хоть каких-то результатов в продвижении.

Под этот фильтр чаще всего попадают сайты с шаблонным дизайном и неуникальным текстом. Для проверки просто введите в поисковую строку «site:http://вашсайт.ru/&» и сравните количество найденных страниц с их общим количеством на сайте.

Фильтр «Флорида» накладывается на переоптимизированные ресурсы. Например, если на страницах большое количество ключей и «тошнота». Главный признак этого фильтра - резкое снижение позиций. По другому, к сожалению, проверить никак нельзя.

По этой же причине может накладываться более злостный фильтр - «минус тридцать». Назван он в честь того, что все позиции сайта падают на 20-40 пунктов. По заявлениям компании Google, выбраться из этого фильтра нельзя. К тому же, через некоторое время сайт вообще могут забанить.

Всем привет! В 2014 году в SEO произошло множество изменений, направленных на повышение качества поисковой выдачи и борьбу с веб-спамом. Среди них отключение ссылок для части запросов в Яндексе, борьба с накруткой поведенческих факторов, изменения в работе алгоритма АГС, обновления фильтров Панда и .

Множество сайтов были пессимизированы за запрещенные методы продвижения. Алгоритмы поисковиков несовершенны и под раздачу периодически попадают вполне нормальные веб-ресурсы. Задача вебмастера вовремя определить, что сайт зафильтрован. Это не так трудно, учитывая некоторые признаки, которые будут описаны далее. Гораздо сложнее узнать под какой фильтр попал сайт, чтобы выяснить причины и суметь максимально быстро все исправить. Вот об этом и пойдет речь в этой статье.

Как узнать что сайт под фильтром Яндекса или Гугла?

Самое жестокое наказание - это бан сайта, то есть полное исключение всех страниц из индекса и запрет на добавление в аддурилку. Бан достаточно редкое явление и надо очень сильно постараться, чтобы его получить. Единственным решением проблемы может быть только смена домена.

Гораздо чаще на сайты накладывают фильтры, которые могут быть разных типов:

  • технические
  • ссылочные,
  • текстовые,
  • поведенческие.

Не буду все подробно тут описывать, так как их очень много и информации в интернете об этом хватает. Наша задача определить само наличие каких-либо санкций, которые могут накладываться, как на весь ресурс в целом, так и на отдельные страницы.

Признаки того, что сайт попал под фильтр:

  1. потеря трафика, связанная с проседанием позиций, выпадением значительного количества страниц из индекса или сменой релевантных страниц;
  2. обнуление тИЦ (верный признак АГС);
  3. уведомление в панели для вебмастеров Google о наложении ручных санкций.

Надо помнить, что не всегда потеря трафика - признак фильтра. Есть вполне объективные причины:

  • сезонность запросов;
  • запрет на индексацию (например, неправильная настройка файла robots.txt или мета-тега robots);
  • временная недоступность сайта или низкая скорость загрузки из-за проблем на хостинге;
  • смена структуры URL страниц (важно своевременно настроить 301 редиректы);
  • пометка в выдаче, что сайт угрожает безопасности компьютера (надо быстро найти и удалить вирус).

Некоторые причины наложения санкций поисковых систем:

  • Технические проблемы - дубли страниц, низкая скорость загрузки, битые ссылки и т.д.
  • Неуникальный, генерированный или бесполезный контент (Ты последний, Панда). Важно, чтобы уникальность была не только техническая, но и смысловая, иначе сайту грозит фильтр за отсутствие добавочной ценности. Что это такое можно почитать на блоге Елены Камской .
  • Некачественный контент с чрезмерным количеством ключевых слов и их выделений жирным, курсивом, подчеркиванием (Ты спамный, Панда).
  • Большое количество продажных внешних ссылок (Непот-фильтр).
  • Резкий прирост обратных ссылок, особенно с плохих ресурсов (Ссылочный взрыв, Пингвин).
  • Переспам в анкор-листе (Пингвин).
  • Обилие рекламы в первом экране и агрессивная реклама.
  • Наличие «взрослого» контента (Anti-Adult фильтр).
  • Накрутка поведенческих факторов в Яндексе.
  • Стремление продвинуть в выдаче по запросу несколько сайтов одного владельца (Аффилиат-фильтр).

Список можно продолжать еще долго, так как борьба поисковых систем с недобросовестными оптимизаторами продолжается постоянно.

Как определить под каким фильтром сайт?

Итак, сайт потерял трафик и позиции. Нам известны почти все основные фильтры Yandex и Google, но как понять, какой именно наложен на наш ресурс. Например, наличие АГС можно легко посмотреть через RDS-бар или сервис xtool.ru. Про ручные санкции Гугл нам сообщит сам. А как быть с остальными фильтрами, как их определить?

Очевидно, что стоит сопоставить график посещаемости сайта с выходом основных обновлений поисковых алгоритмов. Если провалы или взлеты посещаемости будут точно совпадать с датами апдейтов, то с большой долей вероятности их можно связать между собой.

Для определения Панды и Пингвина есть зарубежные онлайн-сервисы, которые требуют обязательный доступ к счетчику Google Analytics. Например, http://www.barracuda-digital.co.uk/panguin-tool/

Лично я чаще использую Метрику, к тому же Яндекс интересует меня в большей степени. Как быть в этом случае? А выход есть - это новый бесплатный инструмент от земляков из компании SeoLib под названием “Анализ трафика “.

Как пользоваться сервисом

Чтобы проверить сайт на фильтры Яндекса и Гугла достаточно залогиниться в аккаунте Я.Метрики или Гугл Аналитикс, откуда будут подгружаться данные о трафике. Затем регистрируемся на сайте seolib.ru и в правом верхнем углу нажимаем на значок гаечного ключа. В выпадающем списке инструментов выбираем “Анализ трафика “.

Я выбрал Метрику и в моем случае приложение запросит разрешение к данным на Яндексе. Жмем кнопку “Разрешить ” и на открывшейся странице выбираем проект для проверки.

Получаем график сравнения динамики посещаемости из поисковиков с датами изменений алгоритмов ранжирования.

При наведении на вертикальные полосы отображается дата и название обновления.

Как можно заметить, у меня началась просадка трафика в Yandex с 1 декабря 2014 года. В это время был Антифрод-апдейт - санкции за накрутку ПФ (клики в выдаче и переходы по ссылкам). Не знаю, может совпадение, так как я накрутку не использую. Посмотрим, как будет дальше.

Ниже показана расшифровка по цветам для Яндекса и Гугла. Ненужные фильтры можно скрыть, отметив их галочкой.

Еще одна интересная функция - сравнение трафика. Можно выбрать 2 периода, поисковую систему и сравнить ТОП-50 самых трафикогенерирующих страниц и запросов. Будет показано среднее число визитов в сутки для каждого периода, а также количество и процент их изменений.

На этом обзор инструмента по проверке сайта на фильтры поисковиков можно закончить, но знакомство с сервисом SeoLib только начинается. Рекомендую присмотреться к нему, здесь очень много полезных для оптимизатора инструментов. Некоторые из них платные, но стоимость вполне адекватная. К тому же до 31 декабря действуют новогодние бонусы при единоразовом пополнении на:

  • 10-49 у.е. автоматически зачисляется на счет + 10% от суммы пополнения
  • 50-99 у.е. – 20%
  • 100-249 у.е. – 30%
  • 250-499 у.е. – 40%
  • От 500 у.е. – 50%

P.S. Совсем скоро наступит Новый 2015 год и, пользуясь случаем, хочу поздравить вас, мои дорогие читатели, с этим замечательным праздником! Желаю крепкого здоровья вам и вашим родным, моральных и физических сил, чтобы выстоять в кризис! Желаю вам личного счастья и процветания вашему бизнесу! Не теряйте веру в себя, даже если на пути встречаются трудности! До встречи в Новом году!

На поисковых системах лежит огромная ответственность - предоставлять пользователям Интернета информацию, которая в полной мере удовлетворяет их запрос. Однако с течением времени, количество сайтов начало увеличиваться со скоростью геометрической прогрессии. Не все они обладают качественным и востребованным контентом, а некоторые ресурсы созданы исключительно для извлечения прибыли. В связи с этим были созданы фильтры поисковых систем, которые понижают позиции сайта при выдаче или блокируют ресурс.

Особенности работы фильтров

Прежде всего, необходимо понимать, как работают фильтры поисковых систем. В целом поисковики накладывают санкции в нескольких случаях:

  • Тексты и микроразметка. Фильтры поисковых систем срабатывают в случае, если на сайте обнаруживается большое количество спама (заспамленность текста можно проверить при помощи программ на проверку уникальности текста). Негативно сказывается на качестве ресурса излишняя оптимизация, а также избыток ключевых запросов в структуре текста (заголовки, подзаголовки и т.д.).
  • Ссылочная масса. За неестественно быстрое наращивание ссылочной массы (в частности внешней) ресурс может попасть под фильтры. Также негативно сказывается на поисковой выдаче спам в анкорах, избыточная перелинковка и манипулирование ссылками. Например, прогон или ссылочные кольца.
  • Поведенческие факторы. Под фильтры поисковых систем подпадает также накрутка и размещение на страницах невидимых элементов, с которыми взаимодействует пользователь, но не подозревает об этом. Непроститльным является перенаправление пользвателей на площадку, что не соответствует их запросу.
  • Реклама. Не последнюю роль в появлении санкций играет рекламное содержимое сайта. Рекламные объявления не должны быть навязчивыми или избыточными. Более того поисковики могут понизить в выдаче тот сайт у которого для мобильных версий «припасена» агрессивная реклама, такая как подписка или клики. Также существуют фильтры, что ограничивают деятельность сайтов, на страницах которых был замечен контент категории «18+»
  • Идентичные сниппеты. Если рядом со ссылкой в поисковой выдаче появляется одинаковая информация для отдельных ссылок одного сайта, то это может послужить причиной для наложения на сайт санкций. Подобное зачастую происходит с интернет-магазинам у которых обширный ассортимент товаров одного вида.
  • Аффилиаты. Фильтры поисковых систем крайне отрицательно относятся к группам сайтов, что принадлежат одной кампании и созданы специально для того, чтобы вывести основной ресурс в ТОП.

Для каждого этого случая созданы специальные программы-фильтры или поисковые алгоритмы, которые тщательно следят за чистотой оптимизации, предотвращая появление некачественного контента в поисковой выдаче. Каждая поисковая система обладает своими ограничителями, которые успешно справляются с этой задачей

Основные фильтры «Яндекс»

На обширном пространстве Рунета «Яндекс» был и остается основной поисковой системой. С каждым годом он ужесточает требования к сайтам и создает все новые и новые фильтры. Начинающие веб-мастера боятся попасть под жестокие санкции этого поисковика, поэтому чтобы успешно продвигать свой ресурс необходимо знать «враг в лицо», то есть иметь представление об основных фильтрах поисковой системы «Яндекс».

  • АГС «Яндекса», по отзывам интернет-маркетологов, считается самым жестким фильтром, ведь в свое время он успешно блокировал не одну сотню ресурсов. Основная его деятельность направлена на борьбу с сайтами, которые продают ссылки и повышают нелегальным образом позиции других ресурсов, хотя сами по себе не несут полезной информации.
  • «Непот-фильтр » был создан по образцу АГС. Однако его задача более узкая: блокировать только те ресурсы, которые продают ссылки. Фильтр определяет сайт, занимающийся несанкционированной деятельностью, и накладывает ограничения, которые утилизируют ссылочный вес продвигаемого ресурса.
  • «Ты последний ». Этот фильтр с незатейливым названием ориентирован только на понижение позиций сайтов с неуникальным контентом. Однако это не причина его игнорировать. Зачастую санкциям подвергаются тексты, в которых уникальность ниже 92%.
  • «Новый домен ». Это, скорее, не фильтр, а своего рода ограничение, не позволяющее только что созданному ресурсу занимать лидирующие позиции.
  • «Ты спамный ». Фильтр на отслеживание спама внимательно следит за качеством контента на сайте, и если текст переоптимизирован, то позиция ресурса падает в выдаче. Важно понимать, что обилие ключевых запросов не является гарантией того, что сайт займет хорошое место в топе. Любая информация должна быть, в первую очередь, полезной для пользователя, а уже потом соответствовать требованиям поисковых роботов. Вряд ли пользователь выявит желание просматривать простыню текста, где по нелепой "случайности" практически в каждом предложении присутствует ключевой запрос, но отсутствует необходимая информация.
  • «Аффилиат ». Яндекс внимательно следит за кампаниями, которые пытаются продвинуть свои основные ресурсы посредством создания дополнительных сайтов и перелинковки между ними. Если на таких площадках находится уникальная и полезная информация, то они будут иметь право на жизнь, но если контент создан только ради контента, то ресурс могут запросто заблокировать.
  • «Редирект ». Этот фильтр ведет активную борьбу с дорвеями, то есть с сайтами, перенаправляющими пользователей на ресурс, которого они не искали.
  • «Adult». Накладывает ограничения на ресурсы со "взрослым" контентом.
  • «Поведенческие факторы ». Фильтр отслеживает поведение пользователей, которые переходят по ссылке на сайт. Строго фиксируется количество отказов, «глубина» и длительность просмотра контента, которые считаются основными показателями полезности.
  • «Агрессивная реклама ». В последние несколько лет «Яндекс» начал вести активную борьбу с навязчивой и агрессивной рекламой, которая мешает просмотру контента.

Основные фильтры Google

После "Яндекса" в России поисковая система "Гугл" занимает второе место. Соответственно, и ее фильтры не оставляют без внимания веб-мастера. Самыми распространенными считаются:

  • «Дублированный контент ». Создан специально для наложения санкций на дублирующийся контент. Фильтр понижает позиции тех ресурсов, что размещают на своих страницах неуникальный контент, который не единожды повторяется.
  • «Sandbox ». Этот фильтр регулирует попадание сайта в топ по высокочастотным запросам, борется со спамом и сомнительным контентом.
  • «Рост ссылок ». Если у ресурса начинает быстро возрастать ссылочная масса, он понижается в выдаче.
  • «Google Bombing ». Этот фильтр накладывает санкции на ресурс, в котором переизбыток ключевых запросов в анкорах ссылок.
  • « -30 ». Такое прохладное, можно даже сказать, сибирское название, получил фильтр, который борется с многочисленным спамом. К рамкам его компетенции, помимо стандартных нежелательных рассылок, входит блокировка редиректов и дорвеев.
  • «Социтирование ». Для поисковой системы России "Гугла" важно, чтобы на ресурс ссылались сайты, близкие по тематике. Если же сайт повышает свои позиции, но на него ссылаются ресурсы, далекие от основной тематики, то начинает действовать этот фильтр.
  • «Скорость загрузки ». В отличие от "Яндекса", Google контролирует скорость загрузки. Если после перехода с поисковой системы на ресурс он медленно загружается, и это повторяется неоднократно, то сайт теряет свои позиции.
  • «Supplemental Results ». На некоторые страницы сайта, которые не несут уникальной информации или на них нет внутренних ссылок, поисковая система может наложить фильтр. При этом ресурс с основным контентом не теряет своих позиций.
  • «Обмен ссылками ». Как только началась эпопея по созданию сайтов, популярными были ресурсы по взаимному обмену ссылками. Теперь, если проект вдруг начинает активно набирать ссылочную массу, фильтр понижает его позиции.
  • «Trast Rank ». Или, проще говоря, «уровень доверия». Основная цель фильтра - определить, насколько авторитетным является проект. Соответственно, чем он авторитетнее, тем выше его позиции. На это влияют несколько факторов: качество ссылок и их общая масса, количество контента, возраст доменного имени и перелинковка между страницами ресурса.
  • «Результат+ ». Или фильтр на дополнительные результаты. Если система вдруг посчитает, что проект похож на сотни других и не несет ничего нового, то страницы сайта попадают в дополнительный индекс, а не в основной.

АГС

Выше представлены самые актуальные фильтры поисковых систем. Однако некоторые из них необходимо рассмотреть более подробно. Для начала стоит обратить внимание на самого страшного «диктатора» Рунета - АГС "Яндекса". Этот фильтр был создан специально, чтобы противостоять некачественному контенту в Сети. Это название может использоваться вмести с цифрами «17», «30» или «40», которые говорят о версиях программы.

Под санкции этого фильтра подпадают площадки, у которых имеются исходящие СЕО-ссылки. Отрицательно сказывается на позициях сайта неинтересный и неуникальный контент, из-за которого следует большое количество отказов пользователей. Дубли, дорвеи, редиректы, клоакинг. Помимо этого фильтр внимательно следит за функциональностью проектов. Если у веб-сайта некачественный дизайн или проблемы с загрузкой, то это тоже может значительно понизить его позиции.

Чтобы определить, попал проект под или нет, стоит внимательно отследить процесс индексации и уровень посещаемости. Когда фильтр начинает свое черное дело, то новые страницы не индексируются поисковой системой, а старые, которые попали под санкции, полностью выпадают из индекса.

Чтобы восстановить прежние позиции, необходимо сделать из ресурса настоящий шедевр, предназначенный для удовлетворения потребностей пользователей. Для этого необходимо подогнать технические характеристики к требованиям поисковой системы. Это значит запретить удалить СЕО-ссылки, сделать удобную навигацию, пересмотреть рекламные объявления, удалив все агрессивные медиа. Пользователи должны быстро находить информацию, которая может их заинтересовать, и эта информация должна быть качественной, новой, полезной и легкой для восприятия. Контент сайта должен постоянно пополняться новыми статьями. Только когда проект будет соответствовать требованиям поисковых систем, можно обращаться в службу поддержки "Яндекса", чтобы сняли фильтры.

«Пингвин»

Но страшны не только санкции "Яндекса", фильтрам поисковой системы Google тоже нужно уделить внимание. Если АГС следит за основными характеристиками, которые определяют качество проекта, то «Пингвин» штрафует за искусственное наращивание поведенческих факторов. Фильтр «Пингвин» был создан специально, чтобы исключить манипулятивный линкбилдинг при оптимизации веб-сайта.

Размещение спамных ссылок на форумах и блогах, приобретение обратных ссылок, переизбыток СЕО-анкоров, создание на страницах проекта невидимых ссылок - все это является причиной наложения санкций. Подпадая под фильтр «Пингвин», сайт начинает резко терять свои позиции, падает его посещаемость, а индексация происходит намного медленней, чем обычно.

Чтобы избежать печальной участи, нужно удалить все некачественные ссылки и поменять стратегию продвижения.

Очень часто площадка подвергается санкциям не одного фильтра. Вместе с «Пингвином» в гости к веб-мастеру может зайти и «Панда». Это еще один фильтр поисковой системы Google. Если на сайте публикуется материал с уникальностью ниже 90% то можно быть уверенным, что ресурс находится под двумя этими «укротителями».

«Панда»

Фильтр «Панда» отвечает за качество веб-сайта в целом. Некачественные проекты лишаются значительной доли трафика, а в некоторых случаях полностью выпадают из поиска. Качество площадок оценивается по таким характеристикам:

  • Контент. Качество содержимого определяют не только роботы, которые сканируют его на уникальность и полезность, но и асессоры - аттестаторы, выставляющие контенту независимые оценки. Помимо этого, влияет удовлетворенность пользователя информацией. Об этом говорят глубина просмотра и время, проведенное на сайте. Нельзя, чтобы информация дублировалась или была откровенно ворованной (то есть с низкой уникальностью).
  • Владельцы и пользователи. Все, что есть на сайте, и сам проект обязаны в первую очередь ориентироваться на пользователя. То есть должен быть хороший дизайн, удобный и понятный интерфейс, минимум некорректной и навязчивой рекламы. Сайт может получить пенальти, если рекламные блоки размещены вверху страницы, а само содержимое - внизу. Карается также и нечитабельность текстов.

Как и в других случаях, если сайт начинает резко терять свои позиции и трафик, а страницы выпадают из индекса, высока вероятность того, что проект попал под фильтр «Панда». Чтобы избавиться от ограничений поисковых роботов, нужно изменить стратегию оптимизации, повысить качество материалов и функциональность веб-сайта. В таком вопросе помогут следующие манипуляции:

  • Технический аудит . Необходимо убедиться, что веб-сайт нормально функционирует, хорошо грузится, отсутствуют битые ссылки.
  • Качество . Еще раз проверить материалы ресурса на предмет уникальности и качества. Все материалы, что вызывают вопросы, заменить.
  • Чистота, залог успеха . Если присутствуют страницы без контента или с маленькими абзацами текстов, их нужно убрать, дополнить или заменить. То есть необходимо провести чистку, избавившись от ненужных фрагментов деятельности веб-мастера.
  • Регулярность . Сайт должен постоянно обновляться. Хотя бы раз в неделю нужно добавлять новые публикации.

"Баден-Баден"

В 2017 году вышло обновление фильтра поисковой системы Яндекс «Баден-Баден», что вызвало небывалый ажиотаж среди веб-мастеров. Кто-то утверждал, что этот поисковый алгоритм станет применять жесткие санкции к ресурсам, на которых будет замечен хотя бы намек на спам, а кто-то спокойно твердил, что он не станет революционным толчком в СЕО-оптимизации.

Сами разработчики уверяют, что значительно улучшили алгоритм, который «наказывал» переоптимизированные страницы. Хотя все еще непонятно, стал новый "Баден-Баден" заменой привычным фильтрам или же является частью общего алгоритма. Если склоняться ко второму варианту, то веб-мастерам будет достаточно трудно определить, под какие санкции попал их ресурс.

"Баден-Баден" борется с некачественным контентом путем исключения из поиска текстов, где много ключевых запросов. Однако его действие распространяется не на весь проект, а на отдельный документ (страницу). Проще говоря, если на сайте есть один некачественный текст, то только страница, на котором он размещен, выпадет из поиска, в остальном ресурс сохранит свои позиции и основную часть трафика. Однако не стоит расслабляться. За одним фильтром может последовать множество других.

Поэтому необходимо увеличить видимость ресурса, пересмотреть все СЕО-тексты на предмет переоптимизации и удалить техники, которые скрывают СЕО-наполнение от поисковиков.

На пульсе

Требования поисковых систем одинаковы для всех площадок, одинаковым является и наказание за их невыполнение. Если проект вдруг начал терять трафик и понизился в выдаче, значит, он определенно попал под санкции поисковиков. Чтобы держать руку на пульсе, необходимо постоянно проверять поступаемый трафик, причем не только количество, но и его источники.

Поэтому каждому вебмастеру необходимо научиться управлять поисковыми фильтрами. Как включить поисковый фильтр? Это достаточно простое задание. При регистрации сайта в поисковой системе веб-мастер получает личный кабинет, в котором может следить за изменениями, которые происходят с его проектом ("Яндекс. Вебмастер" или Google Analytics). Перейдя на эту страницу, нужно открыть административную панель, выбрать интересующую вас площадку и открыть раздел «Фильтры». В большинстве случаев достаточно активировать встроенные ограничители, но для некоторых случаев необходимо создавать индивидуальные пользовательские ограничения.

Зачем это нужно? Допустим, если сайт принадлежит большой компании, то высока вероятность того, что на него ежедневно будут заходить сотрудники. А если на этой площадке есть чат или форум, на котором они могут общаться между собой, то логично предположить, что работники будут с удовольствием коротать время на веб-ресурсе фирмы. Однако они не являются целевой аудиторией. Но поисковая система фиксирует все посещения. Чтобы логично продумать стратегию оптимизации, необходимо исключить из отчетов поисковиков информацию о переходе по локальной сети фирмы пользователей. Для этой цели и существуют настраиваемые фильтры.

Проще говоря, настраиваемые веб-мастером фильтры дают возможность получить исключительно ту информацию, что будет необходима для продвижения ресурса. Это касается не только определенных IP-адресов, но переходов с конкретных каталогов, сайтов и поведенческих характеристик.

Что получается в остатке?

Фильтры поисковых систем улучшаются с каждым годом. И точно так же с каждым годом веб-мастера улучшают оптимизацию своих сайтов. При этом не все и не всегда идут длинным и безопасным путем, а нередко пытаются сократить тропу к вершине авантюрными и наказуемыми методами.

По сути, фильтры поисковиков не такие уж и страшные, они требуют вполне обыденных вещей:

  • Качественного контента.
  • Ненавязчивой рекламы.
  • Отсутствия запрещенных материалов.
  • Понятного интерфейса и грамотного продвижения, которое заключается в естественном наращивании ссылочной массы и

Естественно, такой путь долгий, потребуется около полугода, чтобы вывести веб-сайт в топ по основным ключевым запросам, но если он туда уже попал, то его позиция будет намного стабильней, чем у тех, которые заняли это место нечестным способом.

Это только в начале развития интернет-эпопеи можно было безнаказанно разбавлять скудные фрагменты текстов ключевыми запросами и быстро продвигаться в поисковой выдаче. Сейчас все изменилось. Поисковые системы акцентируют внимание на качественном наполнении ресурсов. В приоритете теперь оригинальный, авторский контент, который может дать исчерпывающий ответ на вопрос пользователя. Поэтому если нет желания становиться жертвой санкций, нужно сосредоточить основное внимание на решении именно этого вопроса, и лишь после приниматься за наращивание ссылочной массы и привлечение посетителей.


1. Введение

В последнее время ведется очень активное обсуждение такого явления, как наложение Яндексом «непот-фильтра» на сайты. Такая заинтересованность связана, прежде всего, с несколькими обстоятельствами:

  1. Покупка платных ссылок в последнее время стала основной технологией, используемой для продвижения сайтов. Многие фирмы-новички не прикладывают порой никаких усилий, связанных с оптимизацией сайта, только лишь занимаются покупкой платных ссылок.
  2. Вслед за увеличением спроса увеличилось и предложение. Администраторы поняли, что продажа ссылок с их сайтов достаточно прибыльное дело. Заодно возросли значительно и цены.
  3. Многие оптимизаторы стали замечать, что платные ссылки уже не дают того эффекта, что раньше. Теперь покупка нескольких ссылок для продвижения отдельно взятого запроса не означает автоматического попадания его в топ.
Таким образом, сочетание этих трех факторов: увеличение числа оптимизаторов, покупающих платные ссылки, значительный рост бюджетов на ссылки и уменьшение эффективности использования таких ссылок, – привело к тому, что оптимизаторы начали уделять значительно больше внимания оценке качества платной площадки, в том числе диагностике возможных фильтров, наложенных Яндексом и сводящих на нет полезность ссылки с сайта.

В данном мастер-классе будет сделана попытка, во-первых, разобраться с терминологией, уяснить точное значение слова «непот-фильтр», а также будет пояснена методика проверки на непот, которая активно обсуждалась на форумах в последнее время. Также будет предложен план эксперимента по выявлению непот-фильтра.

2. Что такое «непот-фильтр»?

Попробуем разобраться со значением термина. В seo-сообществе принята следующая трактовка: «Непот-фильтр» - фильтр, обнуляющий (или сводящий к минимуму) вес исходящих ссылок с площадки, на которую он наложен. Ссылки с площадки, попавшей под «непот-фильтр», не влияют на ссылочное ранжирование сайта-акцептора.

Остаются неясными несколько моментов:

  • фильтр оказывает влияние на отдельные ссылки или на все внешние ссылки?
  • фильтр накладывается только на отдельные страницы или на весь сайт?
Здесь однозначно сказать нельзя, что фильтр действует так или иначе, т.к. проверить это экспериментально очень сложно. Неофициально считается, что фильтр накладывается только на страницу и оказывает влияние на все ссылки.

«Непот-фильтр» не нужно путать с пессимизацией . Пессимизация – это искусственное понижение поисковой системой в результатах поиска позиций страниц определенного сайта, который злоупотребляет оптимизацией.

Пессимизация может быть реализована по-разному:

  • отключение ссылочной составляющей для сайта;
  • ввод коэффициента понижения релевантности страниц сайта;
  • искусственное перенесение страниц сайта в конец выдачи (обнуление релевантности).
Непот-фильтр налагается не на продвигаемый сайт, а на ссылающийся. При этом, такой сайт может иметь хорошие позиции в поисковой системе.

Также факт пессимизации (или вообще бана) официально признается Яндексом. Например, в ответ на жалобу в службу поддержки можно получить такое письмо: «…Ваш сайт использует ссылочный спам, то есть размещает и получает ссылки, предназначенные исключительно для воздействия на алгоритмы поисковой системы».

А вот наложение «непот-фильтра» службой поддержки Яндекса никак не комментируется. Ведь на самом деле - сайт продолжает корректно ранжироваться Яндексом, соответственно, и люди по ссылкам могут попасть на друзей-партнеров. Другое дело, что такие ссылки не влияют на ссылочное ранжирование «друзей-партнеров».

3. Возможные причины непота

Причина наложения фильтра – нарушение лицензии на использование поисковой системы Яндекс, п. 3.5. «Поисковый спам». В частности, к нарушению приводит простановка на сайте ссылок, единственным назначением которых является накрутка сайтов, на которые такие ссылки ведут.

  • платные ссылки обычно идут блоком. Блок ссылок - это набор тегов, расположенных подряд или довольно близко в рамках одной объединяющей структуры;
  • ссылки ведут на ресурсы, по тематике не совпадающие с тематикой ссылающегося сайта;
  • у ссылки нет текстового окружения;
  • размещают такие ссылки внизу страницы, в футере;
  • обычно оформляются мелким шрифтом.
Таким образом, покупая ссылки, следует анализировать площадку на наличие вышеперечисленных признаков. Чем их меньше и чем они менее выражены, тем более вероятно, что на площадку не наложен «непот-фильтр».

4. Как определить непот?

Методика с форума

В последнее время на форумах активно обсуждается методика, позволяющая определить наличие непот-фильтра на сайте. Суть методики в следующем:

  1. Проверяется отдельной взятой ссылки на платной площадке
  2. Задается следующий запрос ("запрос"
  3. Далее задается запрос anchor#link="www.мойсайт.ru"["запрос"]
В случае если в результате выполнения второго запроса сайт не был «найден по ссылке», а в результате выполнения третьего – найден был, то мы можем говорить о том, что отдельно взятая ссылка показывает, что на площадку наложен «непот-фильтр». Соответственно, если все ссылки показывают, что проверяемая площадка под фильтром, то мы можем сделать вывод, что действительно на сайт наложен «непот-фильтр». Рассмотрим пример:
  1. Возьмем сайт www.lenty.ru . Проверим ссылку «пластиковые окна rehau монтаж окон пвх». Ссылка расположена справа, под колонкой «новости недвижимости».
  2. Зададим следующий запрос: ("пластиковые окна rehau монтаж окон пвх"

3.Далее задаем запрос: anchor#link="www.sm-okna.ru"["пластиковые окна rehau монтаж окон пвх"]. Ссылка найдена, сайт www.lenty.ru показан в ссылающихся!

В итоге проверенная ссылка говорит о том, что на площадку наложен «непот-фильтр». Таким же образом нужно проверить все ссылки на сайте www.lenty.ru . Однако данный способ проверки наличия «непот-фильтра» сам нуждается в проверке. Ее можно провести следующим способом…

Эксперимент

  1. Итак, первое – нам нужен сайт с «непот-фильтром». А как определить, что он есть? Можно так - ссылка сначала действовала, а потом перестала – нам нужно смоделировать данную ситуацию.
  2. Сначала создаем сайт, спамим хорошенько главную страницу, чтобы у сайта появился вес.
  3. Ставим с сайта 5 ссылок на какие-либо проекты. Ссылка должна быть уникальная, т.е. сайт-акцептор не должен находиться по тексту ссылки.
  4. Теоретически сайты по своим запросам должны значительно подняться в выдаче. Поэтому надо правильно подобрать запрос, чтобы он не был конкурентным. Также надо с самого начала отслеживать позиции проектов по группе запросов, чтобы потом выбрать самые стабильные и проекты, и запросы.
  5. После простановки ссылок и их индексации добавляем на страницу еще много внешних ссылок, штук 20. Следим за позициями проектов, как только они резко упали – проверяем на непот. Здесь также надо учитывать «бонус новичка», т.е. проекты в любом случае после 3-4 апдейтов просядут в выдаче.
Да и вообще, чтобы обезопасить себя при массовой покупке платных ссылок, лучше предварительно договориться о простановке на проверяемом сайте одной ссылки, содержащей какой-либо низкочастотный запрос, и далее отследить после индексации ссылки изменения позиций сайта-акцептора по запросу. Если позиция улучшилась, значит, площадка не под фильтром.

5. Заключение

В заключении приведем цитату с форума «Александр Садовский отвечает на вопросы оптимизаторов».

Вопрос: На форуме неоднократно описывался эксперимент по выявлению «непота»: на сайте А устанавливается ссылка с уникальным текстом (абракадаброй), ведущая на сайт Б. Далее, после переиндексации страницы со ссылкой, пытаемся искать абракадабру в Яндексе. Если в выдаче находится сайт А, но не находится сайт Б с пометкой «найден по ссылке» - делаем вывод, что на сайт А наложен непот-фильтр. Верно ли такое утверждение? Верно ли обратное (т.е. если в выдаче 2 сайта - непота нет)?

Ответ : Конечно, неверно. По ссылке может быть найден далеко не каждый документ, ссылка могла быть сочтена малозначимой, страницы сайта Б могут плохо ранжироваться по другим причинам и т.д. Верно ли обратное? Полного фильтра, конечно, нет, но автоматический фильтр может сильно уменьшать вес ссылок, не подавляя их полностью. Это не видно по запросу «абракадабра», но будет видно по частотным запросам.

Конечно, Садовский вряд ли признался бы, что «да, так можно проверить наличие «непот-фильтра», но с другой стороны, аргументы он приводит вполне весомые…

Итак, резюмируя…

  1. «Непот-фильтр» есть, однако его действие до конца не изучено.
  2. Яндекс официально не признает существование «непот-фильтра», однако дает понять, что фильтрация ссылок есть.
  3. Определить «непот-фильтр» по косвенным признакам, т.е. через формирование различных запросов Яндексу и проч., затруднительно – такая методика сама еще нуждается в проверке.
  4. Единственный способ проверки фильтра – отслеживание влияния ссылок с проверяемого сайта.


© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows