Упал трафик из гугла. Выяснили причину и радуемся, но не сильно. Находим страницы проседания трафика

Упал трафик из гугла. Выяснили причину и радуемся, но не сильно. Находим страницы проседания трафика

30.04.2019

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подписаться

Спокойно. Да, он упал. Да, вы потеряли пласт посетителей. Но давайте перестанем паниковать, а первым делом установим причину снижения трафика и устраним её, а уже потом будем предпринимать попытки по возвращению посетителей на ваш сайт.

Для начала давайте разберемся в причинах падения трафика. Посещаемость сайта упала резко и неожиданно или постепенно ? Из какой поисковой системы ? Уже отследили динамику падения ?

Как только вы проанализируете Метрику и установите характер падения, можно уже переходить к детальному изучению причин почему падает посещаемость сайта .

Рассмотрим основные моменты снижения трафика

Давайте проверим из какого поисковика снизился трафик на сайт.

В Метрике переходим в «Стандартные отчеты→ Источники → Источники, Сводка», выбираем период упадка посещаемости сайта , а затем проводим анализ полученных данных.

Как видим, в данном случае спад трафика произошел в Яндексе .

Что у нас тут? Трафик лежит с марта. Чтобы определить, насколько именно упала посещаемость сайта (начиная с марта, если сравнивать с предыдущими месяцами) выберем период просадки (март-май). Чтобы построить график только по переходам из поисковиков ниже в таблице снимите галочку напротив других источников. Затем применяем сравнение сегментов «Сравнить с предыдущим периодом». В итоге получаем вот такую занимательную диаграмму:

Как видим трафик из Яндекса упал больше чем в 2 раза.

Выясняем причины падения поискового трафика

1. Проверяем работу сервиса сбора статистики

Иногда бывают сбои в работе этого сервиса и данные начинают поступать ложные. Находим место расположения кода учета статистики и сравниваем его с оригинальным вариантом. Если все хорошо, то двигаемся дальше.

2. Изменения на сайте

Если на сайте производились какие-либо перемены в дизайне или производилось удаление значительной части контента или страниц, то это может повлечь за собой такие неприятности, как снижение посещения ресурса. В этой ситуации лучше всего сделать откат, вернув свой сайт в прежнее положение.

3. Сезонность

Если тематика вашего бизнеса имеет сезонный спрос на товары / услуги, то и трафик на сайте в «несезонные» месяцы будет падать. Такова уж специфика данного явления. Посмотреть трафика можно в Яндекс.Вордстат.

Вводим запрос→ История запросов, выбираем группировку по месяцам или по неделям.

На скрине ясно видно, что по запросу «новогодние игрушки» трафик посетителей в основном будет с ноября по январь и основной его пик приходится, естественно, на декабрь.

4. Причина падения трафика - технические ошибки на вашем сайте

  • Проверяем файл robots.txt. Если этот файл настроен плохо / ошибочно / неверно, то это вполне может спровоцировать выпадение страниц из поиска. Иногда в robots случайно закрывают ключевые страницы или разделы. Поэтому подробно и внимательно изучите этот файл.
  • Неправильная настройка редиректа с зеркал сайта. Криво настроенные редиректы могут привести к смене релевантной страницы и соответственно к понижению в поисковой выдаче вашего ресурса.
  • Проблемы с хостингом. Если ваш хостинг будет работать нестабильно, то и ваш сайт будет недоступен как поисковикам, так и посетителям.
  • Наличие неуникального / дублированного контента. Много дублей страниц сильно запутывает поисковых роботов, им сложно определить какая же страница является наиболее релевантной для определенного запроса. А также может повлечь наложение санкций ПС. Найти на сайте дублированный контент можно при помощи Google Webmaster. В панели инструментов заходим в «Вид в поиске» → «Оптимизация HTML».

Здесь мы видим количество повторяющихся заголовков страниц, которые, скорее всего, одинаковы и по содержанию. От дублированного контента обязательно нужно избавляться.

  • Внешние ссылки. Иногда злоумышленники взламывают сайт и с помощью вирусной программы устанавливают на него код ссылочной биржи. Обязательно проверьте этот момент. Для этого можно использовать такие ресурсы как Linkpad.ru или Mainspy.ru .
  • Проверяем скорость загрузки сайта. «Торможение» сайта приводить к снижению его видимости в поиске и постепенно ухудшается посещаемость. Стоит отметить, что Яндекс более чувствителен к скорости загрузки сайта чем Google. К тому же при медленной загрузке могут значительно ухудшится поведенческие факторы.

5. Смена алгоритмов Яндекc и Google

Узнайте не обновляли ли свои алгоритмы ранжирования поисковиков. Пошарьте на форуме Searchengines.guru или загляните в Блог Яндекса - там сообщают официальные сведения о новых алгоритмах ранжирования.

Если просел трафик с Google, то прежде всего проверяем не наложены ли ручные санкции. А также не совпадает ли эта просадка с датами обновления Пингвина, Панды или другими фильтрами Google.

Если вы удостоверились в том, что алгоритм изменился, то вполне логично предположить, что падение посещаемости сайта связанно именно с этим. Изучайте принципы работы нового алгоритма и делайте соответствующие выводы.

6. Проверяем сайт на возможное наложение санкций

Есть замечательный бесплатный инструмент диагностики от Seolib.ru . Он поможет сопоставить ваш трафик с нововведениями и всевозможными дополнениями фильтров поисковых систем. Данные представлены очень удобно, в виде графика.

Чтобы узнать наверняка, советую написать в техподдержку Яндекса, дабы убедиться в том, что ваш сайт чист от санкций.

7. Происки конкурентов - как причина спада трафика на сайт

Иногда трафик проседает из-за недобросовестных действий ваших конкурентов, которые покупают спамные ссылки на ваш сайт с низкокачественных ресурсов, так называемых «ГСов». Или прогоняют ваш сайт по «черным» базам каталогов Хрумером или другими хитрыми инструментами. Стоит это довольно недорого, поэтому нечистые на руку конкуренты не гнушаться этим методом.

Более развернутую картину по ссылкам вам помогут составить такие сервисы как Megaindex или Linkpad .

В Google в Search Console для этого есть специальный инструмент - Disavow tool. Благодаря ему можно указать домены с которых стоят «плохие» ссылки и они не будут ранжироваться. Попробуйте связаться с владельцами или админами площадок, с которых стоят некачественные ссылки на ваш сайт и попросите их убрать. Также можно прописать атрибут к ссылкам (дабы не передавать вес своей страницы).

8. Контент низкого качества

Ни для кого не секрет, что контент в интернете очень часто воруют. Если вы заметили, что контент вашего сайта потерял свою уникальность, то это может стать причиной проседания трафика. Также стоит проверить, не слетели ли метатеги со страниц сайта, например, при обновлении CMS.

Падение трафика на вашем сайте: итог

Если вы заметили резкое снижение трафика на сайт, то первым делом проанализируйте показатели и попробуйте установить причину.

Напрягаем память и пытаемся найти в чертогах разума, какие манипуляции производились с проектом в период 1−3 месяца до этого события. Когда причина будет найдена, устраняем её. И помним, что любая проблема имеет свое решение.

Выяснили причину и радуемся, но не сильно

Вы достигли результата! Поздравляем! Можно расслабиться и пожинать плоды? Не так быстро!

Давайте рассмотрим изменения, которые влияют на позиции сайтов в поисковых системах, а также могут вовсе лишить ваш сайт трафика, а соответственно и уменьшить количество ваших клиентов и ваш доход:

  1. Не стоит останавливаться на достигнутом.
    Ваш сайт должен постоянно развиваться. Ваши конкуренты не стоят на месте. Вы не должны отставать от них.
  2. Не стоит недооценивать поисковые машины.
    Вот вы в топе, значит поисковая машина посчитала, что ваш сайт может быть интересен пользователям, то есть удовлетворяет ряду факторов ранжирования. Стоит помнить, что алгоритмы поисковых машин постоянно меняются и совершенствуются. Регулярно привносятся дополнительные требования к сайту, необходимо соответствовать этим факторам, чтобы оставаться на «высоте».
  3. Не делайте резких движений. Ваш сайт - это «живой организм». Не стоит наносить ему вред, придется восстанавливать его. Нужно обдумывать каждое изменение на сайте. Не стоит пренебрегать техническими возможностями сервера, на котором хранится ваш сайт, изменять URL-ы или мета-теги страниц сайта. Необходимо постоянно поддерживать свой ресурс.

Как повысить трафик сайта? Ищите ответы в нашем блоге.

За последний год стал отмечать все больше жалоб на то, что падает трафик с Google при практически неизменных позициях основных ключевых слов. Падение трафика за год около 50% – это очень серьезно для коммерческих или информационных сайтов. А такая ситуация отмечается на целом ряде мощных проектов. Народ недоумевает, хотя все довольно просто.

Исследование CTR

Если вы уверены в своих позициях, которые остаются неизменными или даже растут, при этом замечается падение трафика, тогда вам необходимо провести исследование вашего CTR.

Откройте Google Analytics , перейдите в “Источники трафика” – “Запросы” и сделайте отчет за последнюю неделю (чтобы немного сгладить и усреднить данные).

Теперь в правом верхнем углу идите в диапазон дат и выбирайте сравнение для начала с прошлым годом, а затем и с более отдаленными периодами.

Как правило, наблюдается падение CTR из года в год. При этом, даже рост отдельных позиций не приводит к пропорциональному росту трафика.

Давайте посмотрим в чем тут дело.

Неконкурентоспособный сниппет

Падение CTR возможно связано с падением конкурентоспособности сниппета в органической выдаче. Это связано с тем, что ваши конкуренты ведут работу по оптимизации сниппетов, а вы единожды прописав Title и Description более не заглядывали в них.

Бывает ситуация еще хуже, когда Title или Description не соответствует контенту или устарел. Например, вы год назад проводили какую то акцию по продаже какого то товара и забыли поменять данные на актуальные. И вот вы сидите с распродажами 2017 года в сниппете, хотя на дворе уже 2018 год. Все это вызывает подозрение пользователя и явно снижает CTR.

Проверку ваших сниппетов необходимо проводить с достаточной периодичностью. Равно как и анализ сниппетов конкурентов в органической выдаче.

Общее падение CTR в Google для всей выдачи

Этот виджет позволяет видеть, отображаются ли какие-либо специальные результаты в выдаче поисковой системы Google, по вашим ключевым словам.

Как мы видим, на сегодняшний день в выдаче по всем анализируемым запросам 20,21% из них сопровождается панелью знаний (Knowledge panel), 22,54% – результатами локальной выдачи (Local Pack), на 1,05% запросов выводится карусель и 64% запросов сопровождается изображениями (они в принципе не важны).

В целом, 43% запросов, по которым доминирует исследуемый сайт сопровождается не просто органической выдачей, а выдачей с разнообразными “улучшениями” от Google, которые оттягивают на себя практически весь трафик по этим запросам, так как занимают большую и лучшую часть экрана в органической выдаче.

При этом, анализируемый сайт практически не участвует ни в каких SERP Features (0.11% + 0.35%). Это говорит о том, что сайт не оптимизирован под выдачу в SERP Features и никакая работа по этой оптимизации не проводилась.

Теперь делаем следующее.

На графике (синей линии), нажимаем одну из дат, желательно ровно год назад, чтобы сгладить “сезонность”.

Далее, проверяем объем SERP Features в органической выдаче по вашим запросам. Как мы видим этот объем составляет примерно 38%. То есть за год, “замусоренность” разнообразными хитрыми выдачами в органике выросла на 5%. Причем, наверняка, по наиболее трафиковым ключам (смотрите и анализируйте ключи, расположенные ниже графика, при выборе одного из вида SERP Features).

Учитывая, что сайт никак не представлен в этих SERP Features, вот вам и закономерное падение трафика из за разительного снижения CTR по этим запросам.

Что тут можно сделать.

1. Упереться и продвигать “простые” ключи, где пока отсутствуют SERP Features.


Нужно признать, что мы все через это проходили - в одно ничем неприметное утро трафик сайта резко проседает.

Ситуация сложная, требует взвешенного подхода и хорошей аналитической работы. Многие веб-мастера делают поспешные выводы и без тщательного анализа начинают подозревать «зверинец» Google Panda и Penguin, переходя к активным действиям, которые часто являются ошибочными. Образно говоря, лечение пациента без правильно поставленного диагноза - идея авантюрная, которая может привести к трагическим последствиям.

В этой статье я расскажу вам о том, как установить причины проседания трафика из поисковой системы Google (многие этапы анализа аналогичны и для других поисковых систем, но рассказать о специфике каждой из них в одной статье невозможно).

Предисловие

Нужно верить в лучшее! Иногда причина «страшных» показателей падения трафика кроется не в коварном Google, а в некорректном коде Google Analytics (или же любой другой метрики). Не стоит недооценивать такую вероятность - это случалось и на моей практике, и на практике большинства моих коллег. В первую очередь, проверьте наличие кода аналитики на всех страницах сайта, убедитесь в отсутствии ошибок. Это можно сделать с помощью GA Checker или плагина для Chrome Google Analytics Debugger .

Откуда и какой именно трафик просел?

Первой стадией любого ремонта является определение самой поломки и ее масштаба. В нашем случае необходимо проанализировать трафик - с какой именно поисковой системы он просел, на какие страницы и не является ли такая динамика закономерной для сезона? Приступим.

Заходим в Google Analytics на вкладку «Источники трафика → Каналы» и выбираем область «Organic Search». Указываем период для сравнения и анализируем данные. Нужно обратить внимание на то, с какой именно поисковой системы трафик просел - это важно, поскольку определяет, где именно проблема. Если трафик уменьшился с Google и Yandex, то можно сделать вывод о возможных технических проблемах на сайте либо сезонном спаде посещаемости.

При анализе должное внимание нужно уделить «Страницам входа» (на которые переходят пользователи с ПС). В Google Analytics выберите вкладку «Поведение → Контент сайта → Страницы входа». В сравнении с предыдущим периодом, можно определить, какие именно страницы потеряли трафик, и есть ли такие, где посещаемость осталась без изменений. Данные будут полезны при определении возможного фильтра за неестественные ссылки или же технических проблем на конкретных страницах - все это мы будем разбирать дальше в статье.

Трафик во многих видах деятельности и заметно колеблется. И я говорю не только о таких видах бизнеса, как продажа мотоциклов или лыжного снаряжения, где это очевидно, но и о других, менее явных направлениях. Проверить «сезонность трафика» можно, проанализировав динамику за аналогичный период прошлого года.

Или воспользоваться такими инструментами, как Google Trends или Планировщик ключевых слов (Google AdWords).

Итого: на первом этапе важно локализовать проблему, разобраться, когда и где именно просел трафик, и лишь после этого, имея четкую картину, приступать к анализу возможных причин падения трафика.

Давайте разберем подробно основные возможные причины падения трафика.

2. Проседание трафика, связанное с техническими проблемами сайта

Запрет от индексации, проблемы с внутренней оптимизацией, DownTime сервера могут служить причиной потери трафика. Давайте рассмотрим основные технические моменты, которые непосредственно влияют на ранжирование.

Страницы сайта закрыты от индексации (noindex)

Популярная проблема: при выполнении тех. правок для трафиковых страниц ошибочно прописали сток

"]

Это приведет к тому, что страницы выпадут из индекса поисковых систем и, соответственно, перестанут получать трафик. Для обнаружения таких проблем можно воспользоваться Screaming Frog Seo Spider или любым другим «пауком».

Страницы сайта закрыты в robots.txt

Да, друзья, и такое случается. Я даже не говорю об экстремальном случае закрытия всего сайта, а, скорее, об , которые происходят из-за невнимательности и, в основном, из благих помыслов. Например, хотели закрыть дубли и прописали

Одна строчка этого кода, прописанная на неканонической странице, может иметь серьёзные последствия - произойдет «слейка» и страница выпадет из индекса. Коварство такой ошибки в том, что можно потерять время, в пустую анализируя ссылочную массу и другие возможные проблемы (а иногда можно и «найти» проблему там, где ее нет). В таком случае, на этапе аудита нужно воспользоваться инструментом типа Screaming Frog Seo Spider для обнаружение проблем с ошибочной каноникализацией страниц.

Сменили ряд URL

Возможен вариант, когда в процессе работы над сайтом изменили структуру URL или внедряли ЧПУ, но 301 редирект настроен не был (ошибочно настроили 302 или вообще не сделали). В результате, вес на новые URL не передастся, появятся дубли, что очень негативно может сказаться на ранжировании и трафике. Либо «старые» страницы заглушили через 404 Not Found, что фактически лишает сайт авторитета и ссылочной массы, которые накопили эти страницы. При миграции страниц обязательной является настройка 301 редиректа.

Слетел 301 редирект с предыдущего домена

С целью выхода из-под санкций или же брендинга, смена домена сегодня не редкость. И если даже на момент «переезда» все было сделано правильно, то это не гарантирует, что в дальнейшем редирект не слетит. Результатом в таком случае может быть проседание позиций вследствие потери статического веса, который передавали страницы предыдущего домена. В процессе аудита можно проверить корректность 301 редиректов через Вertal или же вот такой плагин для Chrome (вы же понимаете, что способов очень много, а приведенные в примере - то, чем, в основном, пользуюсь я).

Не оптимизированные или дублирующиеся мета-теги

Проверьте, не слетели ли оптимизированные мета-теги на ключевых страницах сайта. Последствиям таких действий могут быть существенные проседания трафика с поисковых систем на конкретных страницах (вот тут вам пригодится анализ, описанный ).

Также не стоит забывать и о негативном влиянии на продвижение и трафик такого явления, как дублирование мета-тегов. Быстрый способ проверить наличие таких дублей - в Google Webmaster Tools на вкладке «Оптимизация HTML».

Как вы видите на скриншоте, на сайте есть ряд страниц с дублирующимися Title и Description.

Дублирование страниц

Устранение дублирования страниц является одной из основных целей внутренней оптимизации. Если же к этой задаче не отнестись серьезно, то со временем в индекс могут попадать множество страниц с таким же содержимым, но доступные под другими URL - страницы фильтрации, пагинации, сортировок, пользовательских сессий, страниц корзины и т.д. Чтобы обнаружить проблему, можно воспользоваться тем же Screaming Frog Seo Spider и проанализировать все возможные страницы с get параметрами. Полезно будет заглянуть в Google Webmaster Tools на вкладку «Статус индексирования» и посмотреть количество страниц в индексе и динамику по ним (если вы видите, что за последний месяц Google увидел +10 000 страниц, а новый контент не добавлялся, то это причина задумаются над тем, что происходит). Что касается того, чтобы посмотреть какие страницы находятся в индексе Google через оператор site:mysite.com, то, конечно, это будет не лишним, но многие страницы поисковик все равно не показывает, поэтому особо надеяться на данный способ я бы не советовал.

Проблема с дублирование часто возникает также из-за некорректной настройки ответа сервера на запрос несуществующей страницы (возвращает, для примера, HTTP/1.1 200 OK, а не HTTP/1.1 404 Not Found) - 404 ошибка не возвращается и всевозможные варианты УРЛов попадают в индекс. Проверять ответ сервера удобно через Вertal или же удобный плагин для Chrome Redirect Path .

Проблема с хостингом

Частый DownTime хостинга, медленная скорость отдачи страницы, безусловно, может негативно повлиять на позиции и трафик сайта. Учитывается то, что «медленные» сайты несут негативный пользовательский опыт и часто посетители не дожидаются загрузки страницы, возвращаясь на страницу поиска. Также из-за DownTime сервера поисковые боты не могут нормально индексировать сайт. Обратите внимание, если GoogleBot не может получить доступ к сайту, то вам, скорее всего, будет отправлено сообщение в Google Webmaster Tools с темой «Робот Googlebot не может получить доступ к вашему сайту» - на эту проблему стоит обратить внимание и рассмотреть вариант смены хостинга или перехода на другой тариф.

Сайт «хакнули»

Иногда обнаружить, что сайт был хакнут, не так просто, как кажется многим. Популярной моделью взлома является, например, не размещение ссылок на активных страницах сайта, а создание целых новых категорий спамерского контента, что намного сложнее заметить. Когда поисковая система обнаруживает такие страницы, она пессимизирует сайт целиком, что приводит к проседанию позиций и трафика. К счастью, в своем Google Webmaster Tools поисковая система вас уведомит о проблеме и вы сможете принять правильное меры. Там же (в GWT), на вкладке «Проблемы с безопасностью », можно самостоятельно проверить не обнаружено ли на сайте вредоносное ПО.

Наполнение сайта качественным, полезным и уникальным контентом является основой успешного продвижения. Поэтому, при падении трафика, нужно особенно тщательно проанализировать контентную составляющую - актуальность и уникальность материалов.

Даже если сайт изначально наполнен авторским контентом и вы ни у кого ничего «не заимствовали», это не гарантирует отсутствие проблем - возможно, украли у вас. Как не абсурдно это звучит, но довольно часто встречается, что страницы-«плагиатчики» Google ранжирует выше первоисточника: две абсолютно одинаковые страницы не могут быть в ТОПе, поэтому не странно, что одна из них «вылетит» во второстепенный индекс. Проверить уникальность текстов можно с помощью специальных , либо вручную посмотреть, как страница ранжируется по куску текста. Главный критерий при этом - ваша страница должна быть в выдаче на первом месте. Если обнаружилось, что контент разворовали, вместо того, чтобы переписывать, более рационально отправить на удаление таких материалов с индекса Google.

Как известно, Google разработал специальный фильтр, который нацелен на борьбу с некачественным контентом - Google Panda. Вот что подразумевается под понятием «некачественный контент»:

  • большое количество неуникальных текстов (в разрезе интернета);
  • внутренние дубли страниц;
  • thin контент;
  • в текстах и мета-тегах;
  • машинно-генерируемый контент;
  • агрессивная перелинковка (с использованием одних и тех же КС);
  • скрытый текст;
  • клоакинг;
  • и другое.

Детально о том, как определить, что сайт под Google Panda, можно прочитать , я же остановлюсь только на основных моментах:

  • трафик и позиции просели резко «нырнули»;
  • сайт не ищется по кускам текста и title;
  • в Google Webmaster Tools много страниц выкинуло с индекса (Индекс Google → Статус индексирования);
  • пессимизировало весь сайт, а не отдельные страницы;
  • в Google Webmaster Tools намного уменьшилась частота индексирования (Сканирования → Статистика сканирования).

2.3. Проседание трафика, связанный с неестественной ссылочной массой сайта

Вот мы и добрались до самого сложного и самого интересного - как определить качество ссылочной массы? Какие именно ссылки могли послужить причиной пессимизации и проседания трафика?

Заспамленность ссылочного профиля сайта

  • настроены ли на сайт 301 редиректы?
  • есть ли сквозные ссылки?
  • есть ли арендные ссылки?
  • есть ли ссылки с линкомоек, не модерируемых каталогов (не для людей)?
  • есть ли партнерские ссылки (reciprocal links)?
  • есть ли неестественные ссылки в комментариях на блогах (спамные, проставленные программно, не релевантные посту)?
  • есть ли ссылки с подписей в форумах?
  • есть ли ссылки, которые размещены на площадках, созданных лишь для продажи ссылок?
  • присутствует ли в анкор-листе большое количество однотипных коммерческих запросов (например, «купить ламинат киев»)?
  • есть ли ссылки, которые не являются естественными, и которые покупали не вы (нужно рассмотреть возможность Negative SEO)?
  • были ли ссылочные взрывы?

Если на один или несколько вопросов выше вы ответили «да», то вероятность того, что трафик просел из-за песимизациии за ссылочный фактор, исключать нельзя. После пересмотра ссылочной массы спамные ссылки отправьте в Disavow Links Tool .

Наложены ручные санкции

Google Webmaster Tools является отличным инструментом поисковой оптимизации и, нужно отдать должное Google, еще и площадкой коммуникаций поисковой системы с вебмастером.

Самое, пожалуй, неприятное сообщение, которое можно получить от Google - Меры, принятые в ручную (вкладка «Поисковый трафик → Меры, принятые в ручную»). Наличие сообщения о том, что «меры, принятые в ручную, действуют в отношении определенных страниц, разделов или ссылок» (это в лучшем случае) говорит о том, что причина проседания трафика установлена - осталось понять за что именно санкции наложили. В большинстве случаев - это неестественная ссылочная масса.

Конечно, наличие ручных санкций не гарантирует, что это единственная причина падения позиций и анализ нужно провести полностью, но все же я бы поставил самой приоритетной задачей.

2.4. Другие факторы которые могли повлиять на трафик

Изменения алгоритмов Google

Google регулярно вносит изменения в свои алгоритмы ранжирования и я не говорю только о глобальных доработках, таких, как Колибри или апдейт Панды. Множество небольших, ежедневных изменений, нацелены на улучшение качества выдачи, что, безусловно, влияет на позиции сайта, объем трафика. Следить за «погодой» в мире SEO через сервисы MozCast и Algoroo или за уровнем «шума» на Google Webmaster Forum .

Активизация конкурентов

Активная работа конкурентов по продвижению своих ресурсов может повлиять на трафик подконтрольного вам сайта. Данный фактор не стоит сбрасывать со счетов и учитывать прежде чем принимать важные решения, которые могут и навредить (например, отправить ссылки в Disavow Links). Иногда причина проседания трафика более, чем банальная - поисковик просто видит лучшие альтернативы вашему ресурсу. В таком случае нужно работать над наполнением сайта качественным контентом, наращиванием ссылочной массы, улучшать поведенческие факторы.

Выводы

Существует множество факторов, которые могут служить причиной проседания трафика. И если уж это случилось, то, в первую очередь, нужно сохранять холодную голову и провести тщательный анализ всех возможных причин. Ни в коем случае не делайте поспешных выводов. Даже если вам кажется, что вы нашли в чем дело, все равно проведите полный анализ - возможно, проблема не одна. Только четкое понимание того, что происходит, что стало причиной падения посещаемости, позволит Вам в срок сформировать эффективный план действий и исправить ситуацию.

А что вы делаете в случае когда проседает трафик? Какие методы анализа еще используете?

Поисковые системы постоянно обновляют свои алгоритмы и борются за «чистоту» выдачи. В связи с этим ситуация, когда мы видим в своих аккаунтах GoogleAnalytics (далее GA) просадку трафика по органическому поиску, - не редкость. В таких случаях возникает резонный вопрос: почему? Сегодня я хочу рассказать, как выявить возможные причины снижения трафика из поисковой системы Google.

Откуда просел трафик

Итак, первое, что нам необходимо сделать, - это убедиться в том, что количество посетителей уменьшилось именно из органического поиска Google. Потому что если трафик резко просел со всех поисковых систем, это может быть связано с техническими проблемами или с сезонным спадом.

Для этого в GA необходимо выбрать сравнение периодов до и после просадки трафика:

и проделать следующий путь в GA «Источник трафика » — > «Весь трафик »:

Как видно, трафик из «google / organic » просел на 86%, тогда как в «yandex / organic » лишь на 3% — это говорит о том, что проблемы именно с Google.

Причина №1 - Технические проблемы

Несмотря на то, что в большинстве случаев технические ошибки приводят к просадке трафика из всех органических источников, бывают ситуации, когда на некоторые из них реагирует только Google. Рассмотрим основные технические ошибки, за которые сайт может быть пессимизирован.

  • Сайт закрыт от индексации в robots.txt

Вот как это может выглядеть:

User-Agent: Googlebot
Disallow: /

User-Agent: *
Disallow: /category/

В первом случае сайт полностью закрыт от индексации только для робота Google, во втором случае закрыт раздел /category/ для индексации всем поисковым роботам.
Такое иногда случается по ошибке и невнимательности. Всегда проверяйте robots.txt.

  • Технические дубли

Некоторые cms могут генерировать различные дубли, особенно это часто происходит при использовании фильтров или поиска на сайте.

Также очень часто главная страница доступна по нескольким адресам. Например, www.site.ru и site.ru или www.site.ru и www.site.ru/index.php . В данном случае необходимо настроить 301 редирект.

Более подробно о технических дублях написано на нашем блоге в .

  • Не настроен или слетел 301 редирект

Редко, но встречаются проблемы с 301-м редиректом. Например, после смены структуры URL забывают настроить 301 редирект, что приводит к просадке позиций и трафика.

Также бывает, что после смены домена и правильной настройки 301 редиректа он со временем слетает. Необходимо следить за корректностью 301 редиректа (ответ сервера можно проверить с помощью плагина для Firefox).

  • Большое количество битых ссылок

Большое количество ссылок, которые ведут на страницы с 404 ошибкой, могут негативно сказаться на рейтинге сайта, от таких ссылок нужно избавляться. Посмотреть количество и узнать местоположение битых ссылок вы можете через GoogleWebmastersTools (далее GWT):

  • Сайт недоступен или низкая скорость загрузки

Google очень негативно реагирует на медленную скорость загрузки страниц (более 5 секунд). Узнать скорость загрузки можно через GA:

Проблемы могут быть как с хостингом, так и с сайтом, каждый случай нужно рассматривать индивидуально.

Кроме того, сайт мог быть недоступен в момент, когда на него заходил GoogleBot, в таком случае вы можете получить, разные сообщения в GWT:

Если ошибки связаны с сервером, то стоит задуматься о смене хостера.

Причина №2 — ошибки внутренней оптимизации

В большинстве случаев, если на сайте есть ошибки внутренней оптимизации, снижение трафика связано с наложением фильтра Panda. Это основной фильтр Google, который нацелен на борьбу с низкокачественной внутренней оптимизацией.

Также в последнее время стали приходить сообщения о наложении ручных санкций за агрессивный спам с примерами спамных страниц:

Если вы получили такое сообщение, то будет достаточно избавиться от спама на затронутых страницах.

Определить фильтр Google Panda сегодня достаточно сложно. Раньше данный фильтр запускался в определенные даты, и если падение трафика совпадало с запуском, это значило, что на сайт заходила Panda. Сегодня данный алгоритм интегрирован в основной индекс и запускается каждый месяц в течение 10-дневного периода, но никто не знает, когда он начинается и когда заканчивается.

Чтобы увидеть страницы, у которых упала посещаемость, в отчете «Весь трафик » необходимо зайти на «google / organic » и добавить «Допол нительный параметр » — «Целевая страница »:

Таким образом мы получим отчет следующего вида:

Сайт может быть пессимизирован за следующие ошибки внутренней оптимизации:

  • Неуникальный контент - сегодня Google уделяет данному фактору очень большое значение. Текст на вашем сайте должен быть уникальным (проверить можно с помощью сервиса etxt), а если он не уникальный, то сайт должен являться первоисточником (вставляем фрагмент текста в поисковую строку - сайт должен быть на первом месте). Если сайт не является первоисточником, есть два пути выхода из ситуации: 1. Подать жалобу в Google на нарушение авторских прав через специальный сервис . 2. Переписать текст.
  • Смысловые дубли - после последнего обновления Panda 4 было замечено, что Google понижает не только за прямые дубли, но и за смысловые тоже. Если у вас на сайте есть близкие по смыслу тексты, рекомендуем использовать атрибут rel=canonical с указанием на основную страницу (подробнее в справке Google).
  • Страницы в дополнительных результатах - если алгоритм считает страницы неполезными, то он добавляет их в так называемые supplemental results, которые не видны в основном индексе. Обычно в дополнительные результаты отправляются страницы с дублированным контентом. Проверить, сколько страниц находится в основном индексе, можно введя в поисковую строку Google следующую конструкцию: site:name.ru/& , общий индекс — site:name.ru . Вычитая из общего индекса основной, получим количество страниц в supplemental results.
  • Дубли title и description - это классическая ошибка, которой следует избегать, т.к. для Google правильно заполненные title и description являются одними из приоритетных факторов ранжирования.
  • Большое количество рекламы - рекламы не должно быть больше, чем основного контента, кроме того, блоки рекламы не должны мешать восприятию основной информации. За большое количество рекламы Google может понизить рейтинг сайта.
  • Неудобная структура - плохое юзабилити, запутанная навигация, неинформативный первый экран также являются факторами, за которые может быть наложен фильтр Panda. Найти дубли title и метатегов можно в GMT:

  • Списки ключевых слов - перенасыщение текстов, title и метатегов ключевыми словами - прямой путь к фильтру. Кроме того, частое выделение тегом strong также может сыграть в сторону наложения санкций.

Если во время анализа сайта вы нашли данные ошибки, то, скорее всего, на сайт наложен фильтр Panda. Исправьте ошибки, и через время Google должен вернуть трафик ().

Причина № 3 — ошибки внешней оптимизации

Сегодня Google ведет агрессивную борьбу с неестественной ссылочной массой. Потеря трафика из-за санкций за ссылочный профиль очень распространена. Есть два вида санкций: автоматические (фильтр называется Penguin) и ручные.

Автоматические санкции накладываются во время обновления алгоритма Penguin. Если дата обновления совпадает с падением трафика, то с большой долей вероятности можно говорить о том, что на сайт наложен фильтр. Посмотреть даты всех апдейтов можно на сайте .

Пример наложения GooglePenguin в апреле 2012 года:

Если на сайт наложены ручные санкции, то в GMT вы увидите следующее сообщение:

Причины наложения санкций и в том, и в другом случае одинаковые:

  • Покупные ссылки
  • В анкор-листе преобладает анкор с ключевым словом
  • Скачки ссылочной массы (как увеличение, так и снижение)
  • Сквозные ссылки из шаблонной части сайта (особенно футер)
  • Низкокачественные доноры, заспамленные ссылками и с низкой посещаемостью
  • Нетематические доноры

Для снятия ручных санкций достаточно почистить ссылочный профиль и отправить сайт на пересмотр. Если ссылки не нарушают рекомендации Google, санкции будут сняты. Автоматический фильтр может быть снят только после очередного обновления алогритма. Подробнее о ссылочных санкциях Google вы можете прочитать на .

Просадка также может быть связана с изменением алгоритмов или с увеличением конкурентности, поэтому следите за информацией в интернете и за выдачей в ТОП.

Вывод

Итак, мы рассмотрели возможные причины просадки трафика. Подводя итог, нужно сказать, что если у вас на сайте просел трафик, прежде всего нужно проверить его на ручные санкции и Пингвин, т.е. очевидные возможные причины. Если ни ручных санкций, ни Пингвина на сайте нет, можно переходить к анализу технических ошибок и далее к рассмотрению внутренней оптимизации сайта.

Всегда анализируйте сайт в комплексе, возможно, причин несколько, только полный анализ сможет привести вас к успеху.

В 2009 году я создал сайт на ucoz (вы сейчас на нем). И стал понемногу над ним работать. Писать интересные (на мой взгляд) материалы о том, в чем я разбираюсь (по крайней мере я так считаю). C января 2010 до середины февраля 2012 — сайт рос в гугле. К концу этого периода средний траф с гугла достигал 140-150 посещений в сутки. Примерно то же самое и с Яндекса.

Рост трафика сайта после запуска.

Что в итоге, проблема решилась?

Да, я понимаю, что многим будет неинтересна вся предыистория и боль. И чтобы сэкономить ваше время, я предлагаю перейти сразу к делу и узнать . Конечно, никаких гарантий, что у вас это сработает, я не дам. Но мне помогло, возможно поможет кому-нибудь ещё!

Откуда берутся скачки посещаемости?..

Затем в феврале произошел внезапный скачок и трафик стал падать. На первый взгляд кажется, что скачок может быть накруткой ПФ от конкурентов. В это можно было бы поверить, если бы не поиск mail.ru. Мне непонятны причины такого скачка.

Прим: эти скачки я ранее не видел, поскольку никогда не анализировал статистику сайта по таким широким диапазонам. Ну и были очень большие периоды времени, когда я просто забывал о существовании сайта. Материалы добавлялись — в среднем 1-2 новых статьи в 1-2 месяца. Поскольку не видел смысла писать о том, о чем уже где-то написано, пытался писать только 100% уникальные темы, на которые никто до меня не писал. Да и вообще, вплоть до конца 2014 года я смотрел только встроенную статистику на ucoz. Хотя метрика и аналитикс были установлены практически с самого начала, я заглядывал туда значительно реже чем в юкозовскую.

… и к чему они приводят?

Факт — после первого скачка трафик снизился до 80-100 с Г и Я. Сначала подумал что была создана страница неплохо оптимизированная под запрос и возник скачок, но ПФ оставляли желать лучшего и произошел какой-то перелом. Работа мало-помалу велась, ближе к августу 2012 вроде как стало восстанавливаться, но в целом все стоит на месте. Так вот, скачок трафика был на достаточно старую страницу, созданную в 2010 году, и на которую всегда был трафик и до скачка.

В августе произошел еще один бешеный скачок, с 250-300 до 4-5к суммарного трафика. И вот после этого скачка, все как будто замерзло. Работа над добавлением контента вяло, но велась. 1-3 статьи в месяц.

Почему не растет трафик с Гугла?

Трафик с гугла после этого больше никогда не растет и держится в пределах 80-100. Опять же, стал думать над причинами этого же скачка — но все так же — он был на старую страницу 2010 года и по тем же запросам, по которым всегда сайт получал трафик. Запросы довольно безынтересные с точки зрения каких-либо конкурентов. Поэтому подозрения на накрутку ПФ от конкуретов, возникшие сразу, отбросил, потому что снова был скачок трафика из всех поисковых систем, здесь уже даже с рамблера (на диаграмме специально наведен курсор на пик из него).

Вот таким был 2014 год. Все та же вялая работа над сайтом — 1-2 статьи в месяц.

Что такое SEO-анализ и зачем он нужен?

Заказывал «seo-анализ» сайта 3 или 4 раза у разных «специалистов». Все эти ребята несли несусветную ересь, котору я и так знал, но считал что она не влияет на рост сайта. Особенно «порадовал» первый — там был очень пафосный хамоватый товарищ, который брал за seo-анализ что-то около $100 по тому курсу. Так мало того что он никакой инфы не предоставил, он еще и затянул все сроки, которые сам же и наобещал. Так вот, все они в первую очередь твердили, что все дело в юкоз и «плохом» дизайне. Я в это не верил (и не верю до сих пор). Но делать что-то было надо, и я стал с юкоза на свой домен и хостинг.

Перенос сайта с ucoz на свой хостинг и wordpress.

К этому моменту на сайте было 70 абсолютно уникальных, и полезных (на мой взгляд) для посетителей статей. Был сделан перенос, урлы страниц были оптимизированы и стали иметь такой вид как сейчас — каждая статья от корня сайта. На юкоз все статьи были от каталога статей, получались 3 или 4 уровня. Также у старых статей были изменены заголовки в соответствии с контентом статей, а также сделана разбивка подзаголовками. Была надежда что это поможет поднять страницы в поиске и привлечь дополнительный трафик. Однако особого эффекта не дало. Также для многих статей были добавлены иллюстрации. Абсолютно для всех страниц сайта был сделан 301 редирект со старого урла на новый.

Итак, в апреле 2015 сайт был полностью переключен на новую версию. Это можно заметить в последнем графике по просадкам сайта. На мой взгляд все произошло очень безболезненно, сначала гугл, а затем и яндекс все очень хорошо переиндексировали.

Но, как видно, особого эффекта и роста это не дало.

После чего в мае был заказан еще один «seo-анализ». Ну на этот раз вроде бы с дизайном и со многими другими вещами все в порядке. Значит «seo-аналитик» не сможет в своем анализе на это ссылаться. Ну кто-то же должен помочь понять и сказать мне причину почему сайт не растет в гугле! Это меня в первую очередь интересует.

В этот раз «аналитик» оставил более приятные впечатления. Хотя снова дизайн был назван одной из первых причин:) Но здесь уже больше с той точки зрения, что мой дизайн довольно долго грузится и его можно значительно улучшить.

Оптимизация десктопной и мобильной версии сайта для Google Pagespeed Insights

Было посоветовано с помощью инструмента https://developers.google.com/speed/pagespeed/insights/ тестировать сайт и исправлять проблемы согласно его рекомендациям. Был изменен шаблон wordpress на более легкий и приятный и сайт принял текущий вид. Однако этот google-инструмент анализа скорости загрузки оценивал качество и скорость загрузки сайта на 60 пунктов из 100.

Для десктопной версии сайта все оказалось достаточно просто и решилось установкой пары плагинов для wordpress и добавление нескольких параметров в конфигурацию вебсервера.

Однако для оптимизации мобильной версии пришлось подумать и попотеть. Там оказалось все несколько сложнее — пришлось разбить таблицу стилей сайта на 2 файла и прогружать сначала основные стили, а потом уже догружать остальное. Вы наверняка это замечаете на сайте — страницы при загрузке сначала выводят контент и основные элементы, а затем догружаются остальные стили и сайт обретает «приличный» вид. Это сделано было достаточно коряво и можно улучшить, так, чтобы пользователи совсем не замечали этого. Однако пока что не дошли руки до этого. Зато это позволило добиться «зеленой» оценки мобильной версии с помощью Google Pagespeed Insights свыше 85 баллов.

Сейчас там «всего лишь» 82 пункта (которых тоже для большинства сайтов добиться довольно сложно) — это связано с установкой некоторых «рюшечек». Все это делалось по убеждению последнего «seo-аналитика» — он уверял что трафик с гугла это поднимет в полтора-два раза. Как видим сейчас — увы. Никакого эффекта это не дало. Но разумеется плюсы этого неоспоримы — сайт стал выглядеть приятней, грузиться быстрее.

Что нужно делать чтобы рос сайт? Добавлять контент.

На данный момент я окочательно разуверился в том, что дизайн хоть как-то влияет на позиции и рост сайта. Если, конечно, он позволяет читать и изучать контент сайта без ущерба для глаз и психики посетителя:) Ну и сайт грузится за приемлемое время в пределах 1-3 секунд. И очередному «сео-аналитику», который об этом заикнется, я могу посмеяться в лицо.

Все это время на сайт стали более интенсивно добавляться новые материалы. Очевидно же, что сайт обязан расти, когда мы добавляем контент. На мой взгляд, это вообще единственное, что 100% работает для развития любого сайта. Именно это и дает плоды — на последнем графике за последние 2 месяца наблюдается хороший рост трафика с Яндекса. Но с гугла все те же печальные 80-100 уников. Хотя все нормально индексируется.

У меня уже почти нет сомнений, что сайт находится под каким-то фильтрами Гугла. В панели вебмастера Google раздел с уведомлениями о мерах принятых вручную девственно чист.

Как влияет добавление новых страниц на развитие сайта.

А вот так растут в Google другие сайты, которыми я сейчас занимаюсь. Никакой работы, кроме добавления контента, над ними не ведется. Никаких ссылок, никаких ухищрений с дизайнами и внутренними и/или внешними оптимизациями. Сайты такие же — WordPress и шаблон из паблика, да стандартный набор плагинов. Поэтому, если решите что-то сказать мне насчет дизайнов, ссылочного и внутренней оптимизации, обратите внимание на эти графики.

Рост трафика с 0 до 5к за полгода

Ну а я готов расцеловать отблагодарить того, кто способен ответить на мои несложные вопросы применительно к этому сайту:

КАК ОПРЕДЕЛИТЬ ВОЗМОЖНЫЕ САНКЦИИ GOOGLE И СНЯТЬ ИХ? ЧТО НУЖНО СДЕЛАТЬ, ЧТОБЫ РОС ТРАФИК С ГУГЛА?

Что делать на сайте для трафа с Google?

Это дополнение от 25.02.2016.

На самом деле, нельзя точно сказать что именно дало эффект, но трафик с гугла пошёл и начал расти. Буквально пару недель наблюдается такая статистика:

Что делал?


Все вышенаписанное — от февраля 2016 года.

Год спустя — результаты: трафик с Гугла и Яндекса равный

Итак, друзья, почти через год, я хочу добавить информацию по своему кейсу. Трафик с Google и Яндекса практически сравнялся, с гугла теперь даже немного больше. Сайт равномерно растет в обеих поисковых системах.

Вот такое распределение по долям имею за последний квартал.

За последний квартал 2016 года

И вот так выглядит эта же статистика за прошедший год.

И вот так по во времени в процентном соотношении:

Вот так это выглядит в абсолютном количестве трафика:

Как видите, летом траф из гугла и яндекса стал равным, а потом гугл перевалил, что и показано на соотношении за последний квартал 2016 года.

Обновление статей — свежие даты и актуальный контент

Вообще, меня сподвигло дополнить статью этими результатами прочтение поста о продвижении под Google на мауле . Пост был написан в рамках новогоднего конкурса, и на мой взгляд он лучший из конкурсных постов.

Идеи, которые там описаны, частично пересекаются с тем, что проделывал я год назад над своим сайтом. Однако есть и новые рекомендации — обновление статей, как контента в них, так и просто даты выхода. Я тоже к этому пришел в этом году, и стал практиковать, заметив что это очень хорошо сказывается на росте сайта.

Добавьте страницу с контактами на сайт, и особенно важен номер телефона

Ну и из нереализованных остался совет по добавлению страницы с контактами автора сайта, и особенно телефона. В ближайшее время я этим и займусь. Впрочем, что касается общения с посетителями частично это реализовано и с этим проблем нет — очень активно ведется переписка через почту. Я отвечаю на их вопросы как присланные через форму jivosite, так и те, что добавляются через . Практически все статьи из раздела написаны благодаря именно читателям, которые задают вопросы. И это не просто помогает развивать сайт, а является основной его миссией. Поскольку, на мой взгляд, таковая должна быть у любого сайта.

Вот такие новости, друзья. А у вас как дела? Есть трафик с Google? Как поднимаете?



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows