Какие поведенческие факторы учитывают яндекс и гугл. Продвижение поведенческими факторами в Яндекс и Google. Как улучшить поведенческие факторы

Какие поведенческие факторы учитывают яндекс и гугл. Продвижение поведенческими факторами в Яндекс и Google. Как улучшить поведенческие факторы

О поведенческих факторах и ранжировании

Решил опять коснуться темы ПФ, тем более, что сейчас она как никогда актуальна при . Появление поведенческих факторов , а точнее, их учёт поисковыми системами вдохнул новую жизнь в процесс SEO-оптимизации — появилось чуть больше креатива.

Вообще, в Рунете о них заговорили где-то осенью 2010, затем всплеск активности разговоров пришёлся на весну 2011. Ну а появились они на Западе.

Кто из поисковых систем был первым, мне лично не известно. Вполне возможно, что придумали их в Microsoft для своего Bing.com, в котором ввели параметр BrowseRank — « Letting Web Users Vote for Page Importance» — «позволение пользователям Веб голосовать за важность той или иной страницы».

Также задержать пользователя на сайте помогает грамотное юзабилити — человеку должно быть удобно пользоваться вашим сайтом. Например, если веб-сайт имеет кулинарную тематику, то ссылка на рубрику «Первые блюда» должна находиться на видном месте, а не где-нибудь в футере, чтобы можно было быстро её найти.

Поведенческие факторы в выдаче Яндекса и Гугла

Это здорово, когда с ранжированием вашего сайта поисковыми системами всё в порядке. Но необходимо, чтобы он не только высоко стоял в ТОПе, но и имел хороший CTR. Что это такое?

CTR поисковой выдачи — количество кликов на заголовок сайта в результатах поиска поделить на количество его показов по тому или иному запросу. Во многом всё аналогично .

Почему это важно? Т.к. поисковые системы наблюдают за поведением пользователей в своей выдаче (в SERP), то даже очень оптимизированный и , находящийся на первой позиции, постепенно уступит своё место соседям, если на него редко переходят из SERP’а.

Исправить это можно так:

  • составлять красивые Title для страниц (заголовки);
  • осознанно формировать , Гугла и т.д., тем самым оказывая влияние на кликабельность;
  • возможно, использование также может помочь.

Помимо всего прочего, на прокачивание этих факторов оказывают влияние .

Если на ваш проект производятся прямые заходы (type-in — ввод ссылки в строке браузера), переходы с email’ов, других сайтов, а также , то это говорит поисковым роботам, что «сайт знают, ценят, он известный и ему доверяют» .

Если всё обобщить и подытожить, то можно просто сказать, как всегда — делайте сайт для людей! Если подробнее, то улучшить поведенческие факторы ранжирования поможет всё то, что максимально задерживает пользователя на странице и заставляет его снова и снова возвращаться на ваш сайт — хороший CTR в выдаче, релевантность и .

Здравствуйте, уважаемые читатели блога сайт. Сегодня будет статья на тему, о которой говорят уже все кому не лень — поведенческие факторы. На самом деле уже многие в курсе что это такое, да и я сам около полугода назад писал о пользовательских характеристиках, как одном из трех китов, на которых стоит продвижение сайтов в современных условиях.

Особенный резонанс влияние поведенческих факторов, а точнее их накрутка, получили в последнее время. Яндекс с конца мая начал пессимизировать ресурсы, использующие различные способы накрутки поведения пользователей на сайте. Причем, все это было сделано с большой помпой, под горячую руку попало очень много ресурсов и в том числе лидеры области . Все это получило большую общественную огласку (ролик в новостях по ТВ, статья в ведомостях, масса публикаций и обсуждений в интернете).

Поведенческие факторы — история появления

Т.е. Яндекс сотворил эдакую показательную порку всех тех, кого ему далось поймать за руку на накрутке поведенческих факторов продвижения (а с точки зрения поисковых систем — документов ). Понятно, что как только оптимизаторы поняли, что за накрутку поведения посетителей можно , то тут же стали пытаться завалить таким не хитрым способом своих конкурентов.

Вроде бы как даже всего нескольких оплаченных, например, в юзаераторе (один из многочисленных сервисов предлагающих услуги накрутки пользовательских характеристик) кликов по сайтам конкурентов из поисковой выдачи Яндекса было достаточно для того, чтобы отправить этого конкурента под фильтр. В результате, по тем запросам, по которым продвигался данный ресурс с помощью накрутки ПФ, он резко выпадал за Топ 100.

Наверное, большинству из вас, уважаемые читатели, понятно, что до бесконечности так продолжаться не могло и сейчас поисковик номер один в рунете уже не наказывает за подобную накрутку, но это вовсе не значит, что теперь все могут бросать это делать. Скорее всего у Яндекса сейчас работает алгоритм, который просто нивелирует (обнуляет) влияние накрутки, тем самым полностью сводя на нет результат от этого способа продвижения.

Но давайте вернемся к тому, что такое поведенческие факторы, на какие группы они подразделяются, какие способы накрутки ПФ существовали (и продолжают существовать, но уже не будут иметь такой сумасшедшей популярности), как Яндекс, да и мы с вами, можем определить, что на ресурсе проводилась накрутка ПФ, и какие существуют «белые» способы улучшения влияния ПФ на продвижение ().

Итак, откуда и когда именно появилось понятие пользовательских факторов , и какая из поисковых машин стала его первой использовать? Кто-то считает, что еще в 2004 году после появления алгоритма Флорида в Google (сейчас текущий алгоритм уже называется Панда) эта поисковая система стала активно учитывать ПФ на ресурсе, и именно тогда произошло проседание многих искусственно накрученных и накачанных ссылками сайтов.

Также достоверно известно, что не безызвестная компания Микрософт (имеющая непосредственно отношение к ) в 2008 опубликовала документ , поясняющий принцип работы такого показателя как Browserank, который судя по опубликованному документу должен был стать гораздо более эффективным инструментом, чем разработанный гораздо раньше всем вам известный .

Если обобщать, то Browserank в какой-то степени является аналогом pagerank, но при этом вес отдельных документов в сети оценивается не по проставленным ссылками, а по конкретным осуществленным переходам по этим ссылкам , т.е. по кликам. При использовании Browserank гораздо более высокие позиции в поисковой выдачи должны были получить сайты социальных сетей и других ресурсов, где пользователи проявляют большую активность (кликают).

Ну, и относительно недавно об учете пользовательских характеристик заговорил и Яндекс. Так почему же всем без исключения поисковикам, которые хотят иметь актуальную и релевантную выдачу, нужно учитывать ПФ? Наверное, просто потому, что два других основных фактора, на которые обращали поисковики свое внимание при ранжирования документов, уже себя изжили. Я говорю об анализе непосредственно контента документа и анализа проставленных на этот документ ссылок.

Нет, конечно же, текст и ссылки по-прежнему влияют на ранжирование, но они уже не могут оказывать решающего влияния из-за того, что сильно дискредитированы, попросту заспамлены . Сначала оптимизаторы (вот, гады) заспамили тексты и все те факторы текстовой оптимизации, на которые обращали особое внимание поисковые системы ( в заголовках, тегах выделения, мета тегах и т.п.).

А потом эти самые оптимизаторы (чтоб им) заспамили и ссылочные факторы, на которые поисковики поначалу возлагали очень большие надежды, ибо текст оптимизировать совсем не сложно, а вот ссылки на себя проставлять ведь нужно с других ресурсов, что значительно сложнее.

Но данную проблему решили биржи ссылок, например:

  1. МираЛинкс описанный
  2. ГоГетЛинкс — читайте о нюансах работы с ним
  3. ГетГудЛинкс — описание возможности по покупке ссылок со страниц имеющих PR (большой статический вес)
  4. РотаПост полный обзор возможностей биржи

Они стали посредниками между теми, кто желал продажей ссылок со своего сайта, и теми, кто желал получить преимущество в продвижении, купив нужное количество бэклинков с нужными анкорами.

Теперь использование ключевых слов, по которым продвигается ваша статья (), стало равнозначно тому, как будто бы вы сами сообщили поисковику (в письменной форме) о том, что данные ссылки являются покупными. Нет, конечно же, они хоть и знают, что ссылка покупная, но все равно могут ее учитывать, но встает вопрос, а насколько учитываются они при ранжировании.

Для некоммерческих поисковых запросов велика вероятность того, что покупная ссылка (с оптимизированным анкором) вообще учитываться не будет, а вот для коммерческого запроса эти ссылки по-прежнему работают, но с такими большими оговорками, что, пожалуй, вам никто не даст точного ответа как именно. Все оптимизаторы покупают бэклинки, но многие уже начинают улучшать не покупкой дополнительных ссылок, а, наоборот, снятием заведомо плохих. Вот как извратили такую хорошую идею.

В общем, Яндекс и Гугл по-прежнему учитывают оптимизированность текстов и проставленные обратные ссылки, но уже с очень и очень большим количеством оговорок. И тут как раз очень кстати пришлись поведенческие факторы.

Если попробовать проследить за поведением пользователей в выдаче, а так же на сайтах (страницы которых должна ранжировать поисковая машина), то можно при должном умении извлечь из этого очень много полезной информации, позволяющей лучше настроить ранжирование по всем запросам и получить выдачу еще более релевантную им.

Получается своеобразная обратная связь , когда сами посетители своими действиями подтверждают или, наоборот, опровергают право нахождения данного ресурса на данной позиции в поисковой выдаче.

Но тут опять же все не «здорово живешь». Во-первых, снова возникает угроза того, что пользовательские факторы очень быстро заспамят (что, собственно, и происходит), а во-вторых, нужно не просто собрать информацию о поведении посетителей и в поисковой выдаче (для поисковиков это не проблема), и на самих пользовательских ресурсах (где им статистику собрать сложнее, но тоже можно), а еще ее и интерпретировать либо в плюс, либо в минус.

Но давайте обо всем поговорим по порядку и попробуем разложить информацию по полочкам.

Расчет поведенческих факторов в выдаче и на сайте

Итак, давайте подумаем, на что и где именно могут обращать внимание поисковики при анализе ПФ. Вообще принято считать, что они отслеживают поведение пользователей в двух основных местах:

  1. в своей собственной поисковой выдаче
  2. на ранжируемых сайтах

Давайте посмотрим, на что могут обращать внимание поисковые системы при учете поведения пользователей в поисковой выдаче :


Как поисковики узнают о поведение людей на сайте и на что смотрят

Понятно, что из своей собственной выдачи и Яндекс, и Google смогут вытянуть всю необходимую им информацию о ПФ, но вот непосредственно на пользовательских проектах у них такой власти уже нет. Но тем не менее поисковые системы с успехом решают данную задачу, а значит мы сможем предположить как это им удается.

Итак, как же Яндекс и Google смогут оценить поведение пользователей на вашем сайте :

  1. обладает богатейшим функционалом и при этом является бесплатным. Никогда не задумывались, зачем его разработчикам быть столь щедрыми? Да просто они получают в случае установки их счетчика на сайт всю необходимую им информацию для ранжирования ресурса, опираясь на поведенческие факторы. Это вполне логично.
  2. Довольно не сложно продолжить логическую цепочку и прийти к выводу, что, скорее всего, такие приложения для как , панель Google или та же способны собирать нужные данные о поведении посетителей на ресурсах, которые те (в смысле «обаренные» пользователи) посещают.
  3. Вы, наверное, все знаете, что в интернете, и в частности в рунете, существует масса бесплатных сервисов, предоставляющих свои счетчики посещений. А какая им выгода от того, что вы поставите на свой проект их скрипт? Обратная ссылка? Возможно, но слишком мелко. Тут, наверняка, есть более заманчивые варианты. Если у одного игрока интернет бизнеса есть то, что нужно другому, то они завсегда смогут договориться об обоюдной выгоде:
    1. — есть мнение, что сливает за денежку набранную Яндексу
    2. — судя по тому, что , то и в области учета поведенческих факторов при ранжировании у них возможно такое же тесное сотрудничество

Наверное, можно и еще чего-нибудь придумать, но и этого вполне хватает, чтобы понять, что поведение посетителей на любом ресурсе рунета для Яндекса (и Гугла) в той или иной степени не будет являться секретом.

Но ведь пользователи это не асессоры Яндекса, которым специально платят зарплату за то, чтобы они давали оценки веб проектам по целому ряду позиций. Им денег никто не платит и то, как понимать их действия, Яндексу придется как-то решать самому, используя логику и силу программистской мысли.

Причем, один и тот же показатель поведенческих факторов для ресурсов разных тематик может означать в одном случае хорошо, а в другом — не очень.

Так, а теперь давайте подумает, какие ПФ на сайте могут учитывать поисковиками:

  1. Ну, наверное, учитывается много факторов, но наверняка такая характеристика, как показатель отказов , будет учитываться обязательно. Показатель отказов показывает отношение сессий с единичной глубиной (точка входа совпадает с точкой выхода) к общему числу сессий. Если вам это не очень понятно, то обязательно ознакомьтесь со статьей о посещаемости сайта (ссылка на нее была приведена чуть выше), где все это очень подробно разжевано.
  2. Думаю, что при анализе поведенческих факторов поисковиками учитывается также и продолжительность сессии — время, проведенное посетителем на сайте, пока он не сделал перерыва в открывании страниц более 30 минут или не закрыл браузер.
  3. Ну и глубина сессии (сколько страниц просмотрел пользователь за одну сессию) по всей вероятности тоже должна приниматься в расчет.
  4. Так же, на мой взгляд, поисковики должны учитывать объем и, что более важно, источники трафика на сайт. Другими словами, лучше будет, если посетители на ваш проект будут приходить не только с выдач поисковиков, но и из других источников, как, например, закладки браузера, социальные сети и т.п.

Анализ пользовательских факторов и способы их улучшения

Если с последним пунктом все ясно, то вот по первым трем такой ясности и однозначности нет. Судите сами, у интернет магазина (а еще даже лучше для примера подойдут доставка пиццы или заказ такси) может быть очень короткая сессия и показатель отказов близкий к ста процентам (посетитель зашел на страницу, увидел номер контактного телефона и ушел звонить), но тем не менее сам интернет магазин может быть очень хорошим и будет хорошо ранжироваться в Яндексе.

Для новостного же портала или блога, подобного тому что вы сейчас читаете, показатель отказов в 100% (ваш ресурс пользователям, скорее всего, не интересен) или даже в 90% будет катастрофой, которая лишит его львиной доли трафика с поисковых систем.

Т.е. ПФ учитываются Яндексом и другими поисковиками сугубо избирательно. Видимо существуют определенные срезы сайтов по тематикам , для которых у Яндекса есть усредненные показатели поведенческих факторов и с которыми будут сравниваться все другие ресурсы отнесенные к этому же срезу.

Т.е. слишком низкий показатель отказов для магазина по доставке пиццы может быть интерпретирован поисковиками как не очень положительный ПФ (пользователи слишком долго ищут нужный им телефон для заказа), и возможно что позиция этого ресурса будет несколько скорректирована в худшую сторону. Но думаю, что по одному единственному поведенческому показателю такое решение вряд ли будет выноситься.

Как узнать, какие значения ПФ будут нормальными именно для вашего ресурса ? У Гугла есть масса полезных сервисов, которыми мало кто пользуется, например, все тот же DoubleClick Ad Planner, который я толком и не понимаю для чего нужен, но вот его данные могут нам пригодиться в оценке пользовательских факторов собственного проекта.

Введя на этой странице (для входа на нее нужно иметь ) в поле «Просмотреть данные о сайте» URL своего ресурса, вы получите массу полезной информации о своем веб проекте. В области «Статистика по трафику» в двух самых нижних строчках вы как раз и увидите ваши пользовательские характеристики:

Надеюсь, что вы знаете другие ресурсы в вашей тематике, с которыми можете сравнить имеющиеся у них и у вас поведенческие факторы. Я, например, сравнил свой блог с проектом Михаила Шакина, который имеет по мнению DoubleClick Ad Planner такие ПФ:

Если вы таких ресурсов не знаете, то посмотрите что вам присоветует сам Ad Planner в области «Также посещенные сайты». Как бы это один из, наверное, многих способов проверки соответствия ваших поведенческих факторов стандартам принятым в вашей нише.

Теперь еще осталось сказать пару слов про белые способы улучшения пользовательских характеристик для своего сайта:

  1. Не устаю приводить в пример Михаила Шакина — он уже года три как использует очень хороший способ увеличения продолжительности сессии (времени проведенного пользователями на его блоге). Наверное, и сами уже догадались? Я говорю про видеоролики в конце каждого его поста. Очень хорошая идея, ведь недаром Михаил уверено ориентируется в буржуйском SEO, которое несколько опережает Сео рунета.
  2. Второй способ подольше удержать пользователей на своем сайте — это создание какого-то интересного или полезного сервиса, который может занять ваших посетителей на некоторое время. Чего именно стоит сделать зависит, наверное, от тематики вашего ресурса. У меня лично никаких идей по этому поводу для своего блога нет, а жаль.
  3. Наверное, самый избитый совет, который дают все по поводу улучшения поведенческих факторов, это поработать над (удобством пользования вашим ресурсом). Что тут сказать? Дело это не просто сложное, а очень и очень сложное, так что каждый решает его по мере своего умения.
  4. Также очень не плохо будет понять, что попытка продвижения по тем поисковым запросам, которые не полно отражены на страницах вашего ресурса, может привести только к ухудшению пользовательских факторов . То, что попало в выдачу поисковиков случайно, само по себе отсеется (пользователи проголосуют за это высоким показателем отказов и короткой сессией), но делать это специально не стоит.
  5. Для лучшей оценки вашего сайта поисковыми системы с точки зрения поведения посетителей, вам нужно будет сформировать костяк своей постоянной аудитории ( вам в руки, ну или ) или же стараться постоянно получать поток посетителей с источников отличных от поисковых выдачи ().
  6. Такая безобидная с виду вещь, как часто встречающиеся , может служить мощнейшим стимулом для проседания поведенческих характеристик ранжирования. Раздражает это многих. Увы и ах, но такие патологически безграмотные типы, как я, вынуждены прибегать к различным онлайн способам проверки орфографии до и после публикации статьи на блоге.
  7. , как ни банально и не избито это звучит, влияет в итоге на посещаемость вашего проекта. Поисковикам до лампочки, почему именно посетители сразу покидают ваш проект так ничего не нем и не посмотрев. Это может быть плохого качества SEO контент, а может быть пауза в несколько секунд, которая сопровождает открытие каждой его страницы.

Запрещенные способы и методы накрутки ПФ

Так, а теперь давайте посмотрим, какие такие накрутки поведенческих факторов занимали умы многих оптимизаторов и оптимизаторских контор до недавнего времени. Насколько я понимаю, накручивали именно поведение в поисковой выдаче Яндекса, а не непосредственно на сайте.

Причем, можно выделить два вида накрутки :

    Накрутка ПФ через ботнет, т.е. через сеть зомбированных вирусом компьютеров по всему миру. Владельцы компьютеров зараженных вирусом при этом обычно ничего не замечают и спокойно шарятся по интернету, а скрипт вируса заходит в выдачу Яндекса по нужному запросу и осуществляет от имени этого пользователя переход на нужный сайт.

    Что примечательно, данный вирус еще умеет подменять рекламные объявления на ресурсах, по которым ходит владелец зараженного компьютера на другие (заказанные). Но это только по слухам (читайте про мою эпопею ). Вообще, ботнет — это уже уголовно наказуемое преступление, а сотрудничество с его хозяином, наверное, равносильно скупке краденного. Собственно, сам Яндекс говорит о том, что за такой способ накрутки (равно как за другие) он будет наказывать.

    Накрутка поведенческих факторов вручную за счет армии не шибко дорогих кликеров из бирж подобных юзератору. Т.е. оптимизатор давал задание набрать в поисковой строке Яндекса определенный запрос, а затем перейти со страницы открывшейся поисковой выдачи на нужный сайт.

    На первый взгляд такой способ может показаться очень даже приемлемым, ибо получается дешево и сердито, а связать клики совершенно различных (физических) пользователей с юзератором или другим сервисом накрутки, казалось бы очень сложно. Но это только казалось.

Собственно, даже не нужно быть Яндексом, чтобы понять, что, например, самый известный из зафильтрованных проектов Megaseo накручивал ПФ. В общем-то, они и сами это признали, но тем не менее достаточно зайти на Alexa (кстати, Alexa появился даже раньше Гугла, хоть и не стал столь успешным) и перейти на страницу с данными по Megaseo:

Http://www.alexa.com/siteinfo/megaseo.ru

Переходите на вкладку «Clickstream»:

И видите следующую картину:

Как объясняют знающие люди, выделенный на скриншоте домен является персональным сервисом накрутки, на который могли попасть только пользователи зарегистрированные в Megaseo. Возможно именно поэтому получилось так, что «уши из под шапки видны».

Немного поясню по последнему скриншоту. В верхней табличке приведены ресурсы, с которых люди чаще всего заходили на Megaseo, а внизу, на которые посетители чаще всего уходили с этого зафильтрованного оптимизаторского ресурса.

В общем-то, если уж обычные смертные с их куцыми способами и средствами способны заподозрить что-то неладное, то что уж говорить про Яндекс. Он все знает и все видит. И в общем-то, он показательно дал сильную затрещину самым зарвавшимся накрутчикам ПФ, а дальше он, скорее всего, вообще перестанет учитывать подобные вещи (т.е. будет обнулять влияние накрутки поведенческого ). Иначе в юзераторе конкуренты начнут заказывать друг друга на попадание под фильтр.

В довершение хочу привести видео по теме использования поведенческих факторов в продвижении сайтов рунета — психология поведения пользователей на сайте :

Удачи вам! До скорых встреч на страницах блога сайт

посмотреть еще ролики можно перейдя на
");">

Вам может быть интересно

Контент для сайта - как наполнение уникальным и полезным контентом помогает в современном продвижении сайтов
Релевантность и ранжирование - что это такое и какие факторы влияют на положение сайтов в выдаче Яндекса и Гугла
Как ключевые слова влияют на продвижение сайта в поисковых системах

Всем-всем привет!

При ранжировании в поисковой выдаче Яндекс да и любой другой поисковик учитывает массу вещей, в том числе и поведенческие факторы (ПФ). Давайте попробуем разобраться в их влиянии на продвижение в поисковых системах. Погнали!

Поведенческие факторы — это показатели того, как ведут себя пользователи на Вашем веб-ресурсе. А если быть точным, то:

  • Сколько времени проводят на сайте;
  • Какой ;
  • Какое количество страниц просматривают при посещении;
  • Как взаимодействуют с различными элементами сайта;
  • Ну и много других факторов.

Все это учитывается поисковыми системами и впоследствии применяется для ранжирования сайтов в выдаче: чем лучше ПФ, тем выше позиции сайта. Ведь Яндекс и Google в последнее время делают акцент именно на полезность выдачи для своих пользователей.

Каким образом ПС черпают данные о поведении пользователей?

Для того, чтобы передать Яндексу данные о своих посетителях, достаточно просто . А Вы думали почему она бесплатна? Точно такая же ситуация происходит и в Гугле, только с .

Конечно, полагаться исключительно на системы аналитики ПС не могут, поэтому существует еще несколько способов, благодаря которым они узнают поведенческие факторы сайта:

  1. Браузеры. В настоящее время о конфиденциальности можно забыть, так как каждый браузер может передавать информацию о Вас поисковым системам. А браузеры от Яндекс и Google: Яндекс.Браузер и Chrome, соответственно, передают еще больший массив данных о Вас;
  2. Специальные расширения для браузеров. Наверное, у всех есть предустановленные дополнения от популярных поисковиков, например, почтовый клиент. Они также могут собирать информацию о поведении пользователей;
  3. И еще много-много способов получить интересующие ПС данные.

Таким образом получается, что все мы пропалены безбожно, от чего жизнь SEO-оптимизатора становится только сложней. Ведь поисковики ставят пользователя во главу, а значит и все сайты, представленные в выдаче, должны быть сформированы так, чтобы он получил максимально полный ответ на свой вопрос с удобством.

Продвижение поведенческими факторами

Давайте подумаем о том, как поведенческие факторы влияют на позиции сайта в выдаче. Итак:

Поисковая система имеет какие-то данные о каждом сайте, среди которых представлен Ваш, по определенному запросу. Вы находитесь на 9 позиции, а главный конкурент на 3-й. Ваша задача: войти в ТОП-3.

Для выполнения своей задачи Вы наняли копирайтера с высоким уровнем текстов и заполнили свой сайт контентом. Причем сделали это так, чтобы пользователь получил максимально разжеванный ответ на свой вопрос. На страницу по этому определенному запросу льется трафик, однако если Вы займете ТОП-3, то получите еще больше посещений.

Страница же главного конкурента уступает по качеству материала Вашей и пользователь, перешедший на нее не получает должного ответа и не задерживается там дольше полутора минут. Тогда как посетители Вашей страницы находятся на ней чуть ли не на две минуты больше, да еще и проявляет активность в виде переходов по различным ссылкам. Поисковая система это заметила.

Как Вы думаете что произойдет дальше? Коль Ваша страница более пользователя и дает более исчерпывающий ответ, от чего он задерживается надолго, по сравнению с главным конкурентом, Вы займете более выгодную позицию, а конкурент будет опущен вниз.

Из вышеизложенного примера можно сделать вывод: для того, чтобы иметь хорошие позиции в ПС, нужно делать сайт, исходя из потребностей пользователей. То есть веб-ресурс должен быть удобным для взаимодействия и полезным . Именно на этом строится принцип продвижения поведенческими факторами.

Однако из-за такого механизма работы поисковых систем появился один коварный «черный» — накрутка поведенческих факторов.

Накрутка поведенческих факторов

Данный метод в свое время был очень популярным среди SEO-оптимизаторов, так как имел высокую эффективность. Но вскоре ПС просекли этот тренд и выдвинули ответные меры на подобное баловство в виде фильтра за накрутку поведенческих факторов.

Принцип работы метода таков:

  1. Вы регистрируетесь в сервисе накрутки ПФ;
  2. Выбираете способ: нагнать роботов или реальных людей;
  3. Затем Вы чувствуете планомерное улучшение поведенческих;
  4. ПСки это тоже видят и повышать Вас в выдаче.

На первый взгляд все просто, однако фильтр быстро вычисляет все это действо и дает жесткое наказание. А вычисляет он это так:

Для роботов, то есть автоматической накрутки ПФ, свойственны схожие IP-адреса, схожие браузеры, схожие устройства, схожее поведение. За счет сопоставления всех данных о посетителях, фильтр выявляет данное преступление и наказывает.

Если же Вы решили нагнать реальных людей, то есть воспользоваться ручной накруткой, то фильтр может вычислить это по истории взаимодействия с поиском того человека, который заходит на Ваш сайт. Не будет же нормальный пользователь за один день интересоваться автомобилями, кулинарными рецептами и IT-технологиями или чем-нибудь еще.

Поэтому опытные веб-мастера не советуют прибегать к подобным услугам, ведь гораздо лучше улучшать поведенческие факторы сайта естественными способами.

Как улучшить поведенческие факторы?

Существует несколько «белых» способов улучшения ПФ:

  1. Грамотная ;
  2. Наполнение сайта полезным, интересным и исчерпывающим материалом. Для этого подойдет, как

В этот раз я спросила мнение известных SEO-экспертов Рунета на очень актуальную тему«Google vs. Яндекс: нюансы SEO под каждую из поисковых систем».

От себя хочу сказать еще такой важный момент — проверяя позиции, не забывайте смотреть релевантные страницы. Это одна из самых частых ошибок — когда в Гугле и Яндексе разная релевантная страница . То есть, вы уверены у себя в голове, что продвигаете главную, а в поисковой выдаче стоит вообще какая-нибудь карточка товара.

В разных ПС также может быть и разный ТОП — страницы немного разного типа. Хотя по опыту, чаще всего ТОП идет более-менее одинаковый. Опять же низкие позиции в поисковых системах часто бывают потому, что под запрос затачивается не подходящая по типу под ТОП страница (главная вместо раздела каталога или статья вместо карточки интернет-магазина).

Если сайт не имеет серьезных технических ошибок, имеет качественный полезный контент, аккуратную, но осознанную оптимизацию и плавно растущую естественную ссылочную массу, обычно он хорошо стоит одновременно в обеих ПС.

И только когда начинается перегиб в попытке повлиять на какой-то фактор — например, массовая закупка ссылок, то сайт может отлично стоять в Гугле, и иметь санкции в Яндексе.

А может плохо стоять в Гугле, если наоборот, мало ссылок, но при этом иметь топовые позиции в Яндексе.

А может вести себя как-нибудь не очень предсказуемо — вроде все хорошо, а в одной ПС стоит хорошо, в другой плохо.

Этим я обычно и занимаюсь во время своих больших аудитов — тщательно проверяю, в чем может быть проблема.

10 известных SEO-экспертов Рунета дали очень много интересных практических деталей, поэтому читайте внимательно, там много полезного!


Сергей Кокшаров ,
SEO-аналитик, автор блога devaka.ru

В Гугле большой упор нужно делать на качество контента и всего сайта в целом. Например, если вы наделали сотню региональных и, практически, одинаковых поддоменов для Яндекса, то не ждите трафика в Google, для него это будет шаблонный контент и авторитет сайта резко снизится.

Также, Гугл меньше приоритета дает скрытому (любым способом) тексту. Этот текст может давать плюсы в Яндексе, но в Google он не будет работать, или даже за него могут наложить фильтр, при наличии в скрытом тексте избытка ключевых слов.

При изменении рейтинга документа, Google использует функцию перехода, которая зависит от ряда внутренних и внешних параметров. Иногда позиции могут резко понизиться, но через неделю выровняться и начать расти. В алгоритмах Яндекса такого нет, и функция перехода всегда скачкообразная. Часто поэтому, оптимизаторы видят разную реакцию поисковиков на изменение одного и того же фактора.

На продвижение сайта влияют присутствие бизнеса в сервисах поисковой системы и в тех сервисах, откуда поисковик берет дополнительные данные (каждый берет из своих мест). Например, Яндекс активно использует данные из Я.Маркета, Я.Справочника, Я.Каталога, бизнес-справочнкика 2GIS и пр.

Что касается ссылок, не забываем, что у Гугла есть Disavow Tool, и вы не знаете, какие свои ссылки отклонил конкурент.

Дмитрий Севальнев ,
евангелист сервиса «Пиксель Тулс»

Основное, что крайне важно осознать, что Яндекс и Google - две разные поисковые машины у каждой из которых:

Своя классификация поисковых запросов.
Свой набор факторов ранжирования.
Свои формулы (для групп запросов).

1. Производить анализ ТОП в заданной поисковой системе. Изначально лучше ориентироваться на ту, которая приведёт больше целевой аудитории в тематике и регионе, а в дальнейшем, опираясь на сайты из выдачи - корректировать факторы под проблемных поисковик.

2. Посмотреть, как классифицирует и расширяет каждая поисковая система запрос? Бывает так, что запрос в Яндексе носит ярко выраженный коммерческий характер (высокая коммерциализация по https://tools.pixelplus.ru/news/kommertsializatsiya) а в Google - показатель низкий.

В этом случае, не исключено, что и целевые URL могут отличаться. Случай экзотический, но реальный.

Особое внимание на переколдовку (расширение) запроса.

3. Для Google - больше точных вхождений, больше сами объемы текстов.
При этом, не забываем про Баден-Баден и прочие текстовые пост-фильтры Яндекса - https://pixelplus.ru/samostoyatelno/stati/tekstovaya-optimizatsiya/tekstovie-filtry-v-yandex.html

4. Для Google - больше ссылок и большее влияние ссылочных факторов на текущее ранжирование.

5. В Яндексе - больший акцент на коммерческие факторы ранжирования: ассортимент, цены, способы связи, информация о компании, корзина.

6. Продвижение в регионах - фундаментальные различия в региональном ранжировании двух поисковых систем отражены на слайде.

7. Важный технический аспект . Google воспроизводит JavaScript на странице и существенно понижает значимость текста, который можно скрыть с его использованием.

В случае, если используются подобные техники для вёрстки текста - важно учесть.

8. Работа с кликовыми ПФ. В Google meta-тег Description активно используются для сниппета, необходимо использовать это.

9. Отличается индекс и его полнота. Если документ проиндексирован в Яндексе, это не значит, что он в базе Google и наоборот. Надо проверять. Аналогично и со ссылочными донорами.

10. Важно установить Google Analytics для корректного учёта внутрисайтовых ПФ.

Общий вывод . Различия в позициях одного и того же сайта в двух поисковых системах, как правило, носят индивидуальных характер. Тем не менее, наиболее частые причины (в порядке убывания вероятности):

Региональность выдачи Google
наличие санкций в одной из поисковых систем
ссылочные факторы
поведенческие факторы (GA и Метрика)
текстовые (морфология)

,
руководитель рекламного агентства SEO Интеллект

А так выглядит посещаемость сайта попавшего под бан за накрутки ПФ:

4. Коммерческие факторы.

В коммерческих тематиках на ранжирование в Яндексе сильное влияет ассортимент. Привилегии в ранжировании сайтов с широким ассортиментом позволяют агрегаторам забивать топы, не пуская туда релевантные документы компаний с узкой специализацией. При этом в Гугл сайты неплохо ранжируются сайты с небольшим ассортиментом. Например, посмотрите на выдачи обоих поисковиков по запросу «сервисные центры».

Красным в таблицах отмечены агрегаторы предоставляющий большой выбор сервисных центров различных брендов. Гугл отдает предпочтение трастовым сайтам отдельных брендов, в то время как Яндексу дает пользователю сайты с широким ассортиментом брендов.

5. Гео факторы.

Ещё одно отличие, которое хотелось бы отметить, это работа с геозависимыми (ГЗ) запросами. Трюк с поддоменами, который можно провернуть в Яндексе, клонировав основной сайт и немного поработав с вхождениями топонимов, позволяет получать локационный трафик в другом регионе, а в Гугл этот прием не работает. Вот так выглядит трафик на региональных поддоменах:

Мы проверяли на очень приличных выборках из тысяч сайтов – в Яндексе Топы, в Гугл Ж*пы.

● Может по-разному оцениваться преобладающий интент запроса, ТОПы зачастую сильно отличаются не только по набору доменов, но и по типам контента. Например, в Яндексе — статьи, в Google — продающие коммерческие страницы. Впрочем, это не общее правило, зависит от тематики.

Google хуже справляется с русской морфологией. Яндексоиды даже немного подкололи конкурента в одном из своих семинаров. Анализ русскоязычных текстов у Google менее продвинут.

● По Рунету у Яндекса гораздо четче геотаргетинг; при продвижении коммерческих сайтов с геозависимыми запросами необходимо с самого начала обеспечить правильную привязку к региону через Вебмастер, Каталог или Справочник.

● Как минимум до недавнего времени Google гораздо спокойнее относился к обилию прямых вхождений ключа. Но буквально месяц назад ситуация начала меняться, в сентябре был мощный апдейт алгоритма , множество переспамленных страниц ощутимо потеряли в трафике.

Хватает и других мелких различий (отношение к тегу alt изображений, длине title, nofollow-ссылкам, скрытому тексту, rel canonical). Они достаточно легко проверяются по выдаче.

Для практики я не советую заучивать эти или любые другие списки отличий. Факторов много, для разных запросов актуальны разные подходы к продвижению. Составить огромный чек-лист, чтобы последовательно его прорабатывать — плохая идея.

Ага, в гугле проблемы — докупим ссылок. Ой, не сработало. Значит понатыкаем побольше вхождений. Упс, у нас в гостях Минусинск, Баден-Баден и Fred.

Куда разумнее работать с конкретным проектом, его реальной статистикой и конкурентами. Смотрим запросы, которые удалось продвинуть в одном поисковике и не удалось в другом. Изучаем ТОП по ним, ищем отличия наших посадочных страниц от лидеров. Сравниваем динамику посещаемости и позиций у разных url проекта, выявляем удачные документы и закрепляем успех на них. Меняем шаблон вывода контента на паре десятков url, отслеживаем результат. Определяем причины у резких просадок и всплесков трафика. Оцениваем разницу в ранжировании по срезам запросов (например, с вхождением “купить” или “в Москве”). И так далее и тому подобное.

Пара часов ковыряния с панелями вебмастеров и системами статистики даст бездну идей по изменениям на сайте, подскажет компромиссную стратегию для получения максимума трафика из обоих поисковиков. И на деле это проще, чем кажется.

,
основатель агентства REMARKA

,
drmax.su . Автор учебников SEO-Монстр , SEO-Гуру .
В SEO 13 лет, Опыт работы с буржуями – 7 лет. Крупнейший буржуйский клиент – с годовым оборотом интернет портала в $800.000.000 в год. Работа в 98% под Гугл.

Есть Google, а есть все прочие поисковые системы.

И эти прочие заглядывают в рот Google и перенимают все его технологические достижения. В противном случае они медленно, но верно умирают (Рамблер, Спутник, Yahoo и пр – список мертвых поисковых систем очень велик). Отсюда, если мы сможем продвинуться в Google, с большей долей вероятности, автоматически, мы поднимемся в иных поисковых системах. И даже если у альтернатив есть какие то дыры, давно закрытые у Гугла, и позволяющие манипулировать выдачей, то это не надолго.

Гугл сегодня опирается на 3 базовые вещи: контент, ссылки и алгоритм RankBrain.

Каждая из этих составляющих заключает в себе множество разнообразных факторов ранжирования, в классическом понимании. Более того, есть множество факторов ранжирования, не входящих в эти три группы.

Например, есть корреляция между длинной урла и местом в выдаче – чем короче урл, тем больше шансов проникнуть в ТОП. Что здесь первопричина – а что следствие — не суть важно, возможно, что тут сказывается отношение владельца сайта к серьезности работы над оптимизацией контента, когда он руками прописывает ЧПУ, а не доверяет всяким там плагинам или автоматическим финтифлюшкам генерировать ЧПУ из названия страницы автоматом. Такой товарищ и к подготовке контента и к линкбилдингу будет относиться гораздо серьезней, чем простой блогер.

Итак, контент . Единственное требование к нему – он должен быть полезен. Этого достаточно для признания контента качественным.

Если вы будете писать с ошибками, но при этом 100 000 человек скажут – «фига себе, как же я жил без этого контента до этого», то для продвижения и попадания в ТОП этого будет более чем достаточно. Ибо эти люди сами, без всякой на то просьбы, понаставят ссылок на него, расшарят в соц сети и поделятся со своими знакомыми этим чудо–контентом.
Чтобы контент стал полезен, он должен быть, как минимум, интересен целевой аудитории. При этом, контент не должен быть рерайтом – рерайта, должен давать что-то новое для пользователей. И тут мы автоматом переходим к понятию уникальности. Если вы описываете что-то новое (старыми словами, шутка), то контент и будет уникальным.

Спускаемся ниже в разборе структуры полезного контента. Чем более человек знаком в теме, тем богаче у него профессиональный лексикон. Он на автомате будет вставлять в текст как стандартизированные обороты, так и жаргонизмы, разбавляя и насыщая текст словами – подтверждениями, релевантными терминами (http://drmax.su/klyuchevye-slova-lsi-algoritm.html/). Все это окунает нас в сферу LSI копирайтинга и машинного обучения.

Кроме того, если товарищ ответственно подойдет к работе, создавая полезный контент, он обязательно сопряжет теорию и практику, приведет кучу ярких примеров. Это, непосредственно, скажется на длине контента. Он будет гораздо больше, чем простой текст.

Итак, из простого определения, что КОНТЕНТ ДОЛЖЕН БЫТЬ ПОЛЕЗНЫМ, автоматически вылезли его признаки: он должен быть интересен, уникален, насыщен профессиональными терминами, содержать теорию, практику и примеры, быть большим по объему.

При этом, в обратную сторону – это не работает. Если я напишу 40 000 слов про мутации генов, не обладая при этом профильным образованием и какими — то наработками в этой тематике, даже если я насыщу контент всякими терминами и прочими словоблудиями – ни один товарищ из целевой аудитории не воспримет его как полезный. Никакого профта от такого контента я не получу.

1. Трафик на доноре.
2. Ссылка хорошо вписана в контент статьи — донора, раскрывая, дополняя и поясняя её.
3. Релевантность типа «документ-документ», а не обязательно «сайт-документ». Учитесь писать отличные статьи – прокладки, для размещения своих ссылок.
4. Донор не в ссылочных/статейных биржах. Здесь велик риск получить автоматом падение качества донора и ссылка может стать «ядовитой».
5. Статья снабжена мультимедиа
6. Анкор не спамный (в разрезе всего ссылочного профиля).

Никакие сторонние метрики для определения «качества» донора не нужны. Все эти метрики выдуманы и служат только для набивания карманов, выдумавших эти метрики и продающие подписки на чекалки сайтов на эти метрики. Тут яркий пример такого зомбирования – это MOZ с их показателем DA, без которого большинство западных сеошников не могут судить о качестве сайтов. А стоимость подписки на чекалку этого и иного «синтетического» показателя – посмотрите у них сами.

Аналогично, есть и русские изобретения, не столь дорогие и претенциозные, тот же CheckTrust. Это всего – навсего способ заработка, не самый худший, признаюсь. Ребята – молодцы. Ну а Гуглу – абсолютно наплевать на этот показатель. Он о нем ничего не знает и знать не хочет и на ранжирование этот показатель влиять не может. Есть ли корреляция с показателями качества Гугла, нет ли – никто не знает. А самое главное, это никому не интересно.

Единственная реальная метрика – это количество ключей в ТОПе у донора и отсюда – размер органического трафика. Это «оценку» выставляет сама поисковая система и мы не будем спорить с ней.

Кстати, этот подход сразу выявляет товарищей, не разбирающихся в оптимизации. Если при вас заговорят о всяких там трастах, DA, трастфлов и прочих ТИЦах с мертвыми пейджранками, применительно к оценке качества сайта – не обращайте внимания на таких товарищей и критически отнеситесь ко всем их россказням.

Теперь о RankBrain и сотне прочих работающих факторах ранжирования . Хотелось бы сразу отметить одну важную штуку. Сайт должен быть не только полезен пользователю, но и удобен для работы. Что сразу переводит нас в плоскость обсуждения UI/UX дизайна и вынуждает соблюдать массу требований, начиная с классических «трех кликов до нужного контента», расположении блоков на странице, адаптацией под мобильные, скорость отображения сайта и пр…
Каждое из этих требований будет обусловлено десятком взаимопереплетающихся факторами ранжирования.

Ну возьмем, например, CTR в органике. Чем он выше, тем больше товарищей придет на ваш сайт. Более того, повышая CTR на 3-4%, Гугл поднимет в выдаче на 1 позицию, что автоматом опять позволит нарастить трафик.

В свою очередь CTR зависит от яркости сниппета, который порождается как тайтлом и дескрипшеном, так и контентом, в зависимости от запроса в органике.

Есть десятки стандартных приемов, повышающих заметность сниппета, основанных как на психологии, так и на манипуляции техникой.

К примеру, стандартные сниппеты в Гугле – 2 строки, а я могу заставить Гугл для моих страниц формировать 4-х строчные сниппеты. Под этими 4 строками текста могу прикрутить «хлебные крошки» и оценку страницы (звездочки). Такой снипет будет очень «выпуклым» и заметным в выдаче. Это и есть технические манипуляции.

А есть психологические приемы. Все эти списки (100 приемов… 25 способов), крючки и завлекалки. Это тоже позволяет повысить CTR.

Однако, если пользователь, перейдя на страницу, не найдет того, что ему обещали в сниппете, то никакой конвертации посетителя не будет. И тут мы опять возвращаемся к полезности контента.

Для себя я пользуюсь такой техникой составления Титла – в нем должно быть 2 части. В первой говориться о чем эта страница, во второй – как она может помочь посетителю. Аналогично с дескрипшеном.

Можно привести сотни приемов и способов того, что сегодня хорошо и очень хорошо работает в Гугле. Как раз сейчас я заканчиваю книжку «SEO Монстр 2018» , там в одном из разделов будут описаны эти нехитрые, но полезные и неочевидные приемы.

Возвращаясь к тому же CTR и психологическому приему списков, вы, например, знали, что целые числа в тайтле работают на 10-15% лучше, чем некруглые и что «100 приемов продвижения» в тайтле для посетителя будут привлекательней чем «112 приемов продвижения». Странно, да? Но это психология. И это работает.

В SEO все взаимосвязано. И любая манипуляция, которая будет полезна для конечного пользователя, будет положительно влиять как на позиции в органике, так и на трафик, конвертации и в конечном счете, прибыль.

В этом и заключается хитрость всего SEO. А все остальное – это всего-навсего техника и хитрые и не очень хитрые приемы оптимизации.

С чем согласны, с чем не согласны? Какой у вас опыт продвижения под Гугл и Яндекс? Пишите в комментариях ниже!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности



Для вебмастера, который следит за тенденциями поискового продвижения, уже давно очевидно, что роль ссылочного ранжирования постепенно сокращается. И если раньше этому способу продвижения доверяли безоговорочно, то теперь его значение снижается. Более того, для ряда регионов и тематик Яндекс уже полностью отменил влияние ссылочной массы на позиции сайта, и такой механизм будет со временем применяться для других регионов и тематик. На этом фоне на первое место выходят другие факторы ранжирования, среди которых особое место занимают поведенческие факторы (ПФ) . О том, как это работает, как использовать ПФ в своих целях и улучшить их, рассказывают специалисты команды "Бизнес-Мотор".

Что такое поведенческие факторы?

Поведенческие факторы ранжирования сайта - это совокупность параметров, характеризующих поведение пользователей на сайте. К основным поведенческим факторам относят:

  1. Общая статистика посещаемости сайта.
  2. CTR в поисковой системе (соотношение числа показов и переходов).
  3. Процент отказов - доля пользователей, которые проводят на сайте менее 15 секунд и смотрят не более 1 страницы (в т.ч. число возвратов в выдачу).
  4. Среднее время пребывания на сайте пользователя.
  5. Среднее число просмотров на посетителя - сколько страниц сайта смотрит в среднем посетитель во время визита.
  6. Число возвратов - какое количество пользователей впоследствии возвращаются на сайт.
  7. Точки входа и выхода , первый и последний клик при переходе из поисковой системы и т.д.
Общая схема взаимодействия между собой поведенческих факторов выглядит следующим образом:


Как это работает?

Механизм влияния поведенческих факторов на позиции сайта достаточно прост и понятен. Хорошие ПФ дают поисковой системе сигнал о том, что содержимое страницы интересно для пользователя и релевантно его запросу. Как следствие, для повышения качества поиска имеет смысл показывать данную страницу выше, чем аналоги с менее впечатляющими ПФ.

Конечно, здесь мы привели лишь общую схему работы поведенческих факторов. Есть множество нюансов и деталей, на которые обращают внимание алгоритмы поисковых систем и должны обращать внимание вебмастеры. Важно понять главное: то, как ведут себя на сайте пользователи, оказывает непосредственное влияние на ранжирование сайта. И это влияние с каждым годом растет.

Но как поисковые системы отслеживают поведенческие факторы ? Несколькими основными способами:

  1. С помощью счетчиков (Яндекс.метрика или Google Analytics).
  2. С помощью расширений для браузеров (например, Яндекс.бар).
  3. Отслеживания CTR в выдаче поисковой системы.

Почему накрутка поведенческих факторов - это опасно?

Первая мысль, которая возникает у неопытного вебмастера при прочтении раздела "Как это работает?", очевидна. Создается впечатление, что поведенческими факторами можно манипулировать. Действительно, такая идея не нова - это называется накрутка поведенческих факторов , а реализовать ее можно как с помощью группы пользователей, так и посредством специальных сервисов.

Но не все так просто. Вполне естественно, что поисковые системы, владельцы которых вкладывают миллионы долларов в разработку алгоритмов, предусмотрели возможность накрутки и предприняли максимум усилий, чтобы защитить качество поиска от "серых" или "черных" схем продвижения сайтов. При этом алгоритмы защиты продолжают совершенствоваться.

С помощью автоматического сервиса практически невозможно имитировать поведение пользователей в промышленных масштабах. Такие попытки отслеживаются по шаблонам поведения (так называемым "паттернам"). Конечно, можно попробовать накрутить поведенческие факторы сайта вручную - с помощью организованной группы пользователей. Но это очень трудоемко, дорого и не обеспечивает достаточной массовости. Эффект не будет заметен или окажется краткосрочным - до того момента, пока группа прекратит работать или перестанет существенно влиять на статистику.

Но почему накрутка поведенческих факторов сайта в Яндексе или Google - это опасно? Хотя бы потому, что такие действия нарушают правила игры, а значит - представляют угрозу для качества поиска. Поисковые системы грозят суровыми санкциями для нарушителей - наложением фильтров, пессимизацией позиций и т.д.

Белое продвижение поведенческими факторами ранжирования

Но что предпринять, если накрутка, как мы уже выяснили, - это не слишком эффективно, но достаточно опасно? Опять же, ответ на поверхности - улучшение поведенческих факторов в Яндекс и Google возможно за счет тщательной и планомерной работы по развитию сайта. Конечно, такая деятельность не даст быстрых результатов, но будет влиять на позиции сайта в долгосрочной перспективе - даже спустя месяцы и годы после качественных изменений.

Что включает в себя белое продвижение поведенческими факторами ранжирования:

  1. Работа над заголовками и сниппетам и в поисковых системах для повышения CTR в выдаче. Более привлекательные заголовки/сниппеты = выше CTR = больше посетителей на сайте.
  2. Улучшение и оптимизация дизайна сайта . Вполне естественно, что дружественный, привлекательный, удобный дизайн стимулирует пользователя знакомиться с содержимым, а также создает позитивное впечатление от ресурса.
  3. Заполнение сайта полезным и интересным контентом , который заинтересует пользователя. За его изучением он проведет немало времени на сайте, а также просмотрит много вспомогательных или даже полезных ему страниц. При этом важно обращать максимум внимания также на оформление и подачу контента. Никому не хочется читать бесконечную простыню текста без форматирования и изображений. Зато тот же текст, поданный красиво, с графикой, удобной навигацией, иллюстрациями и подсказками способен увлечь пользователя надолго.
  4. Грамотное размещение триггеров - элементов, стимулирующих пользователя совершить определенное действие (заполнить форму, "постучаться" в чат к консультанту, перейти на другую страницу и т.д. Триггерами можно считать и те блоки, которые удерживают посетителя от ухода с сайта - информация об акциях, разнообразные графические решения и т.д.
  5. Создание добавочной ценности страниц в виде интерактивных элементов - карт, форм, калькуляторов, инструментов визуализации и т.д. Даже в том случае, если пользователь не настроен сделать заказ, подобными элементами страницы пользоваться всегда интересно и порой даже занимательно.
  6. Инструменты удержания посетителей в долгосрочной перспективе - социальные инструменты, рассылки, разнообразные подписки на обновления и т.д. Все это способно повысить число возвратов на сайт.

"Бизнес-Мотор": продвижение поведенческими факторами без накрутки!

В своей работе наша компания использует собственную технологию продвижения сайта поведенческими факторами без накрутки. В ее основе лежит комплексный подход к развитию ресурса, который включает в себя все вышеперечисленные инструменты. Помимо этого мы используем следующие решения:

  1. Разработка семантического ядра сайта в соответствии с . Почему это важно? Мы обратили внимание, что многие сайты ориентируются только на одну категорию пользователей: A (ищут способ решения проблемы), B (знают способ решения проблемы и рассматривают цены) или C (знают уровень цен и ищут исполнителя). Для улучшения поведенческих факторов сайта мы создаем модель, в которой учитываются потребности всех трех категорий.
  2. Разработка и оптимизация структуры сайта , в основе которой лежат лендинги - продающие страницы. Для каждого направления деятельности (услуги, товара) мы создаем свой лендинг с набором вспомогательных страниц. Для пользователя ресурс выглядит как одностраничник, призванный решить его проблему, хотя на самом деле это может быть сколько угодно объемный сайт. Как показала наша практика, именно лендинги, построенные по блочному принципу, способны обеспечить высокие поведенческие факторы для коммерческих сайтов.

Результат таких усилий - улучшение поведенческих факторов ранжирования сайта без накрутки , естественно и без риска. Пользователи проводят на сайте больше времени, просматривают больше страниц и возвращаются на сайт снова. А это значит, что ПФ улучшаются, а позиции сайта растут.

Не менее важно то, что наш подход к продвижению сайта поведенческими факторами заметно повышает конверсию . Таким образом, продажи растут как за счет увеличения посещаемости, так и за счет роста конверсии. Результат впечатляет!

Ниже Вы можете познакомиться с общей схемой создания и развития сайта, которую практикует наша компания:

История успеха

Тестирование и развитие технологии продвижения сайта поведенческими факторами в Яндексе и Google мы проводили на базе проекта "Тепло Дома " (http://teplodoma.ru/).



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows