Первичная сео оптимизация. Усилить коммерческие факторы. Настройка RSS ленты

Первичная сео оптимизация. Усилить коммерческие факторы. Настройка RSS ленты

08.04.2019

Еще лет 10 назад браузеров в сети было «раз-два и обчелся». Сегодня ситуация совсем иная: их десятки (если не сотни) и выбрать, порой, ой как не просто. В этой статье я бы хотел остановиться на самых лучших браузерах 2015 года (на начало 2015г.). Причем, в статье будут рассмотрены не только самые популярные браузеры, но и несколько иных, с которыми мне приходилось работать и которые нужно использовать при определенных задачах.

Пожалуй, начнем…

Внимание! Есть более новая статья по этой теме:

Список браузеров будет расположен в порядке их использования пользователями в сети интернет (по результатам многих независимых статистик). Так же в описание каждого браузера будет высказано мое мнение на основе опыта работы с ним, приведены ссылки на материалы блога с дополнениями для той или иной программы.

1) Google Chrome

Сайт: www.google.ru/chrome/browser/desktop/

Один из самых популярных браузеров в сети интернет как в прошлом году, так и в этом. Пожалуй, главные его преимущества такие:

  • скорость работы (особенно пока не установлена куча плагинов). Кстати, если браузер начнет тормозить, рекомендую ознакомиться с этой статьей:
  • удобный поиск (запрос можно ввести сразу в адресную строку );
  • самые часто-посещаемые сайты отображаются у вас на стартовом окне (для многих — это очень удобная фишка );
  • дизайн в стиле минимализм (ничего нигде лишнего нет, все лаконично спрятано. Т.е. работать с браузером очень удобно: он предоставляет максимум рабочего места на экране. А то знаете, бывает, что пол экрана занято шапкой браузера с опциями, которые 90% пользователям не нужны );
  • перевод страничек на иностранном языке (иногда эта опция просто выручает).

2) Firefox

Сайт: www.mozilla.org/ru/firefox/

В скорости работы этот браузер едва ли уступает Chrome, зато точно его обойдет в количестве дополнений.

Таких дополнений в сети для Firefox — тысячи! Они позволяют решать десятки, если не сотни задач. Браузер сможет: загружать видео с сайтов, автоматически находить картинки нужного формата, блокировать рекламу, сканировать скачанные файлы на вирусы и т.д.

Кстати, на мой взгляд, в Firefox реализована самая удобная работа с закладками. У меня их в браузере сотни (если не тысячи). Чтобы быстро переместить, удалить или создать закладку, достаточно один раз нажать сочетание кнопок Cntrl+B — далее появиться боковая панелька со всеми закладками.

О лучших дополнениях для Firefox расскажет вот эта статья:

Сайт: browser.yandex.net/

Яндекс браузер будет очень удобен той аудитории пользователей, которые часто пользуются сервисами яндекса. Например, в нем можно быстро искать информацию в яндексе (через адресную строку, кстати, с подсказками), посмотреть погоду, почту и пр.

Если не брать в расчет сервисы Яндекса, то основные преимущества этого браузера в следующем:

  1. достаточно быстрая скорость работы;
  2. более низкое потребление системных ресурсов (многие неоднократно замечали, что Яндекс-браузер работает быстрее Chrome, особенно спустя некоторое время, когда в браузеры добавиться несколько десятков закладок и плагинов);
  3. есть опция турбо-интернета (позволяет экономить трафик, ускорить загрузку страниц, открывать некоторые странички, которые были блокированы вашим провайдером интернета).

4) Opera

Сайт: www.opera.com/ru/

Наверное, один из самых старых браузеров (относительно, конечно, против Хромов, Яндекс-браузеров и пр.). Да и по сей день сохраняет огромную популярность среди пользователей. Основные преимущества этого браузера (на мой взгляд):

  • высокая скорость (несмотря на количество закладок и плагинов). Кстати, Chrome в отличие от Opera, начинает тормозить, если в него добавить такое же количество закладок и плагинов. Т.е. Opera достаточно хорошо оптимизирована в плане нагрузки на компьютер.
  • низкое потребление системных ресурсов (см. п.1);
  • удобная панелька для работы с закладками;
  • стартовая страничка с популярными сайтами пользователя;
  • знаменитый турбо-режим, который помогает уменьшать количество трафика безлимитными тарифами на интернет уже не актуально. А я еще, кстати, помню тарифы на 100 Мб в месяц, когда нужно было отключать картинки и ставить подобные настройки в браузерах, чтобы экономить трафик) и увеличить скорость передачу информации. Например, если у вас часто довольно тормозит видео при просмотре Youtube — попробуйте включить турбо режим, возможно о тормозах вы просто забудете!

5) Хром — Mail.ru

Сайт: internet.mail.ru/

Стремительно набирающий популярность браузер от Mail.ru, и, кстати, нужно отметить весьма неплохой браузер.

  1. Во-первых, быстрый поиск в адресной строке.
  2. Во-вторых, есть защитник, который будет вас предупреждать о подозрительных и вирусных сайтах.
  3. Если у вас есть почта на mail.ru — то вы получите к ней быстрый и удобный доступ в один клик мышкой!
  4. Достаточно высокая скорость работы со сравнительно низкими системными требованиями.
  5. И последнее, вместе с браузером в комплекте идет защитник, который будет блокировать изменения настроек вашего интернета: стартовой страницы, поиска и пр.

6) Explorer 11

Сайт: windows.microsoft.com/ru-ru/internet-explorer/

В сети сложилось мнение, что Internet Explorer не очень удобный браузер, долго не обновлялся, пользоваться им неудобно и пр. (когда-то это имело место быть, когда Microsoft долгое время не занималась браузером).

Но в последнее время этот браузер развивается стремительнее чем все остальные. Основное его преимущество — он уже встроен в Windows, а значит чтобы даже скачать другой браузер — вы хоть раз запустите его.

К тому же, в нем есть все новомодные фишки: поиск из адресной строки, аппаратное ускорение сайтов (просмотр сайтов очень плавный), плавность воспроизведения видео и игр (отдельная фишка!), высокий уровень безопасности.

Альтернативные браузеры

Здесь приведу несколько интересных и малоизвестных широкому кругу пользователей браузеров.

1) K-Meleon

Сайт: kmeleon.sourceforge.net/

Очень легкий и очень быстрый браузер. Странички грузятся настолько быстро, насколько позволяет ваш интернет! Работает быстрее, чем все другие известные мне браузеры.

Вообще, в целом очень похож на браузер Firefox.

2) Slim Browser

Сайт: www.slimbrowser.net/ru/

Не так давно открыл для себя этот браузер. Что меня больше всего в нем удивило — так это скорость работы!

Браузер работает по настоящему быстро несмотря на количество закладок! И еще одно: в нем есть все самые популярные фишки, которые встречаются во всех остальных браузерах:

— быстрый поиск;

— менеджер загрузок файлов;

— удобная панелька для работы с закладками;

— множество других опций.

Пока тестирую его, сморю на результаты работы и серьезно задумываюсь сделать его основным!

3) Комета браузер

Сайт: kometa-browser.ru/

Сравнительно молодой браузер. Интересен, как мне показалось, своей нестандартной идеей. Вместе с браузером идет в комплекте боковая панелька к Windows с удобными кнопками.

В остальном браузер обладает схожими опциями. Разве, что порадовала стартовая страница: вместо привычных самых посещаемых пользователем закладок, показываются новости и погода вашего региона (браузер автоматически его определяет).

Так же, что обращает на себя внимание в этом браузере: его «висение» в трее рядом с часами. Т.е. его не нужно закрывать полностью, он будет висеть в памяти, извещая вас о новой почте или др. событиях.

Выводы

Несомненно, что одним из самых популярных браузеров остается Google Chrome (и возможно это и не случайно). Ведь этот браузер обладает всеми наиважнейшими функциями, к тому же поддерживается таким «поисковым гигантом» как Google.

Если вы подбираете себе быстрый браузер, то рекомендую остановиться на: K-melon, Chrome и SlimBrowser. Это самые быстрые браузеры, с которыми мне удалось поработать.

Так же относительно недавно я провел один эксперимент и перенес свой основной браузер Firefox на виртуальный жесткий диск (находится в оперативной памяти компьютера) — как итог, браузер работает раза в 2-3 быстрее!

Для кого больше важна функциональность и удобство браузера — рекомендую остановиться на Опере и Firefox. Плагины смогут изменить Firefox до неузнаваемости и решить практически любую задачу.

На этом сегодня у меня все. Всем удачной работы в интернете. Буду благодарен за ваши дополнения.

05/01/2019 17:33


Каждый человек обладает уникальным вкусом, предпочтениями, а также требованиями. Если одна вещь попадает к сотне людей на тестирование, то каждый озвучит разный результат. Некоторые мнения будут похожи, другие различаются и это естественно. В области программного обеспечения все точно также. Браузер - это программа, которую человек использует для серфинга интернета. Ее мы запускаем ежедневно, потому важно подобрать удобный браузер, который будет отвечать всем требованиям.
При помощи браузера можно искать любую информацию, прослушивать музыку, смотреть фильмы, а также играть в любимые игры. Любой рейтинг получится спорным, но давайте попробуем составить рейтинг наилучших браузеров. В статье вы разберем критерии выбора хорошего браузера для Windows 7, Windows 8 и Windows 10 . Мы подробно изучим достоинства и недостатки каждого из них. На основании нашего рейтинга вы сумеете подобрать для себя хороший браузер.

Google Chrome 1 место


Это наиболее популярный браузер из всех, что существуют на сегодняшний день. Программу можно назвать лучшей и самой быстрой на операционной системе Виндовс. Его открытие состоялось в 2008 году. Хром был основан на базе популярного в то время браузера Сафари, выполненного на движке WebKit. Формального его скрестили с javascript-движком V8. В последствии данный гибрид переименовали в Chromium. В дальнейшей разработке участвовали такие знаменитые компании, как Google, Opera Software, а также Яндекс и еще несколько крупных разработчиков. Гугл первым создал свою версию браузера на Chromium’е. Спустя год он был установлен на 3,6% компьютеров по всему миру. Он стал быстро набирать популярность, на сегодняшний день он является неоспоримым лидером и занимает 42,21%. Стоит отметить, что большую часть составляют смартфоны, в которых браузер идет предустановленным.

Достоинства:

  1. Высокая скорость работы. Хром значительно превосходит конкурентов по скорости работы браузера, а также обработки отображаемых ресурсов. Кроме того, есть удобная функция предварительной загрузки страниц, это еще больше повышает скорость работы.
  2. Безопасность. Компания внедрила надежные технологии, которые обеспечивают безопасность использования браузера. Они продолжают активно развиваться. Браузер обладает базой фишинговых, а также вредоносных ресурсов, которая регулярно обновляется. Браузер работает по уникальной схеме таким образом, что задействуется ни один процесс, а сразу несколько, но с более низкими привилегиями. Загрузка файлов с разрешением.bat, .exe или.dll предусматривает необходимость дополнительного подтверждения, что уменьшает шансы на загрузку вируса.
  3. Присутствует режим "Инкогнито". Это очень удобная возможность, когда вам требуется просмотреть большое количество сайтов, но при том не оставить на компьютере следов их посещения.
  4. Продуманный интерфейс. Он достаточно простой и содержит все необходимое, без лишних элементов. Хром - это первый браузер, где появилась возможность быстрого доступа. На панели можно увидеть наиболее посещаемые ресурсы. Еще одна особенность - это совместное использование адресной строки и поисковой системы. Позже такую возможность реализовали и в других браузерах.
  5. Стабильная работа. В последнее время не происходило таких случаев, когда в работе Google Chrome наблюдались сбои или он сильно тормозил. Такое может случится лишь при наличии вирусов в системе. Во многом безопасность и стабильность работы повышается за счет использования нескольких процессов, отделенных друг от друга. Если один из них останавливает свою работу, то остальные продолжают функционировать.
  6. Есть свой диспетчер задач меню "Дополнительные инструменты". О данной фишке практически никто не знает. Благодаря удобному инструменту можно отследить сколько ресурсов занимает целая вкладка или отдельный плагин. Вы сможете найти и устранить источник проблемы, если приложение начнет тормозить.
  7. Большой выбор расширений, многие из которых можно загрузить бесплатно. Также есть множество плагинов и тем оформления. Браузер можно настроить в зависимости от личных предпочтений, что очень удобно.
  8. Есть возможность автоматического перевода страниц. Для этого задействуется Гугл Переводчик.
  9. Программа обновляется в автоматическом режиме, не беспокоя пользователя.
  10. Поисковые запросы можно указывать голосом, для этого используется сервис «ОК, Google ».
Недостатки:
  1. Начиная с версии 42.0 была остановлена поддержка плагинов NPAPI, включая достаточно популярный Flash Player.
  2. Для плавной работы приложения необходимо как минимум 2 Гб оперативной памяти.
  3. Большая часть расширений, а также плагинов выполнена на зарубежном языке.
  4. Значительная нагрузка на аппаратную часть способствует непродолжительной работе батареи ноутбуков и смартфонов.
Я пользуюсь Хромом уже достаточно давно, причем в качестве основного браузера. За все время работы он не вызывал серьезных нареканий. Очень удобна его интегрированность в систему других сервисов Гугл. Одна учетная запись может объединить ваш компьютер и мобильное устройство, присутствует возможность беспрерывной синхронизации.
Не нравиться мне тот факт, что все данные пользователя сохраняются на американских серверах (скорее всего сейчас данные хранятся на российских серверах). Там храниться почта, личные контакты и информация поиска. Правда не стоит исключать вероятность того, что также поступают другие браузеры. Нужно по возможности соблюдать меры предосторожности, тогда вам нечего будет бояться. Если вы не желаете раскрывать собственные данные, но при этом продолжать пользоваться Хромом, то используйте SlimJet или SRWare Iron, о них мы поговорим ниже.

Яндекс.Браузер 2 место


Браузер имеет самую короткую историю, его открыли в 2012 году. Он пользуется огромной популярностью на территории России. Браузер поддерживает интеграцию с сервисами Яндекс , использовать которые очень удобно. Поисковиком по умолчанию является Яндекс. Интерфейс получился достаточно оригинальным, хоть создан был на движке Chromium. В глаза сразу бросается панель быстрого запуска. Она выполнена в плиточном стиле.


Пользователь может разместить до 20 плиток. В браузере используется "Умная строка", которая не только передает введенную фразу в поисковую систему, но и в автоматическом режиме подбирает необходимый сайт, если совпадает наименование. К сожалению, пока что данная функция работает лишь с крупными ресурсами. Поддерживаются манипуляции мышкой, при помощи которой можно управлять просмотром веб-страниц простыми движениями.

Достоинства:


Недостатки:

  1. Оригинальный интерфейс понравится не всем.
  2. Привязка к различным сервисам Яндекс. Без них программа лишена множества возможностей.
  3. Редко, но все же возникают проблемы с переносом настроек и истории.
Новый интерфейс понравится не каждому, ведь он кардинально отличается от конкурентов. Понадобиться некоторое время на то, чтобы привыкнуть к таким особенностям.

Mozilla Firefox 3 место


Сейчас Мозила является самым популярным зарубежным браузером, а в России он занимает третье место. Последние несколько лет он начал сдавать позиции, но незначительно. Первая версия программы появилась в 2004 году, с тех пор произошло множество изменений. Движком приложения является Gecko - он находится в свободном доступе и продолжает улучшаться разработчиками. Формально, это первый браузер, который имел огромную базу расширений еще до возникновения Хрома. Он был в числе первых, кто реализовал режим максимальной конфиденциальности, который изобрели в компании Гугл.

Достоинства:

  1. Простой и очень удобный интерфейс, в котором нет лишних деталей.
  2. Удобная система настроек, которая позволяет кардинально изменить браузер, настроив его по своему вкусу.
  3. Большое количество всевозможных плагинов. Их можно подобрать под любой вкус, ведь на текущий момент их более 100 000.
  4. Кроссплатформенность. Браузер можно загрузить для любой операционной системы, которая используется на современной технике.
  5. Надежность. Я попадал в такие ситуации, когда пользователь ловил банер, блокирующий работу всех обозревателей, но Firefox при этом продолжал функционировать.
  6. Максимальный уровень безопасности и приватности личных данных.
  7. Комфортная панель закладок.
  8. Программа может дать отказ на отслеживание информации о вас различными сайтами. Можно настроить приватный просмотр страничек. Кроме того, есть функция Мастер пароли, которая дополнительно защищает ваши записи на определенных ресурсах.
  9. Обновления происходит в фоновом режиме без необходимости вмешательства со стороны пользователя.
Недостатки:
  1. По сравнению с Хромом интерфейс немного подтормаживает и дольше срабатывает на манипуляции пользователя.
  2. Производительность находится на среднем уровне;
  3. Отсутствие поддержки скриптов на некоторых ресурсах, в следствии чего содержимое может неправильно функционировать.
  4. Для работы приложения требуется большое количество оперативной памяти.

Opera 4 место


Это старейший обозреватель, который был открыт еще в 1994 году. Я начал пользоваться им около 15 лет назад, да и сейчас использую по необходимости. До 2013 Опера обладала собственным движком, но сейчас используется Webkit+V8. Точно такая же технология используется в Гугл Хром. В 2010 году компания открыла мобильную версию программы. Сейчас это четвертый по популярности браузер в России, а по миру он занимает шестое место.

Достоинства:

  1. Отличная скорость работы и отображения страниц. К особенностям браузера стоит отнести режим турбо, который значительно повышает скорость загрузки страниц за счет использования облачных технологий. При этом значительно экономиться трафик, что очень важно при использовании мобильной версии.
  2. Есть удобная экспресс-панель с сохраненными закладками. Это измененный инструмент Speed Dial, который мы видели в прежних версиях браузера.
  3. Технология Opera Link, которая нужна для синхронизации различных устройств.
  4. Множество горячих клавиш, упрощающих управление.
  5. Интернет-браузер Opera Unite.
Недостатки:
  1. Для эффективной работы необходим большой объем оперативной памяти. Если одновременно открыть несколько вкладок, то Опера начнет тормозить. Даже надежный движок Хрома не налаживает ситуацию.
  2. На многих сайтах наблюдается некорректная работа скриптов и различных форм. Поступает большое количество жалоб при работе с WML.
  3. Стабильность нельзя назвать сильной стороной браузера. От периодических сбоев и подвисаний компания так и не смогла избавиться.
    4. Собственная система закладок, которую прозвали "Копилка". Это довольно интересное решение, но оно плохо реализовано.
Я используют оперу лишь в качестве дополнительного браузера. Функция "Турбо" пригодится при работе с модема, ведь в таком случае сочетается высокая скорость отображения страниц и экономия потребляемого трафика. При помощи технологии Unite можно превратить браузер в настоящий сервер. На нем можно обустроить доступ к разнообразным файлам, обмениваться смс-уведомлениями и фотоснимками. Файлы хранятся на ПК и становятся доступными лишь при запуске программы. Это отличная замена Хрому, если вы по каким-либо причинам не желаете его использовать.

K-Meleon 5 место


Данное приложение начали разрабатывать еще в 2000 году. По сути оно является родственником Mozilla Firefox, в них используется одинаковый движок. Вы спросите почему он вошел в рейтинг, если они практически не отличаются? Дело в том, что у них есть сильные различия. К примеру, на сегодняшний день K-Meleon является наиболее легким обозревателем для системы Виндовс. Таких результатов удалось достичь благодаря особенностям его разработки. Изначально программа должна была лишь продемонстрировать возможности нового движка. В результате компания смогла добиться экономного потребления ресурсов ПК.

Достоинства:

  1. Небольшие требования к ресурсам ПК, в том числе низкое количество оперативки.
  2. Применение нативного интерфейса Виндовс, что значительно экономит время и ресурсы, затрачиваемые на интерфейс.
  3. Высокая скорость работы.
  4. Хорошие возможности персонализации, причем для этого не нужно использовать сторонние расширения. Все обустроено при помощи макросов. Новичку это будет сложно для освоения, но в свободное время можно с этим разобраться.
  5. Есть большой выбор сборок. Можно подобрать расширение с желаемым набором функций.
  6. Можно создать несколько профилей для разных пользователей.
Недостатки:
  1. Достаточно топорный интерфейс. Если сравнить его с лидерами Топ 5, то у данного браузера слишком простое оформление.
  2. Редко, возникают проблемы с отображением кириллицы, но в последних обновлениях ситуацию исправили.
Это оптимальный вариант для слабых ПК. Браузер будет нормально функционировать на стареньком ноутбуке под управлением операционной системы Windows XP. Вы сумеете насладиться комфортным серфингом интернета. А на современном железе он будет работать еще лучше. Многие профессионалы используют именно его, считая лучшим браузером. Этому не стоит удивляться, ведь по некоторым параметрам K-Meleon превосходит конкурентов.

Internet Explorer

Это бесплатный обозреватель, который входит в комплект интегрированного софта Windows. Разработкой занималась компания Майкрософт начиная с 1995 года и по сей день. Поэтому обозреватель был одним из наиболее популярных в России, но потом появился Хром. Сейчас он сильно потерял свои позиции и занимает 5 место по популярности. Причиной можно считать завершение его разработки. Вместе с Windows 10 вышла разработка компании - Spartan.
За всю свою историю браузера, он никогда не считался лучшим, все знали о большом количестве уязвимостей, которые использовали разнообразные вирусы. Очень долго он был уязвимым местом каждого компьютера под управлением операционной системы Виндовс. Ситуация изменилась к лучшему вместе с выходом Internet Explorer 10, он входит в комплектацию Виндовс 8. В нем были доработаны все дыры и при соблюдении определенных правил, обозреватель считался безопасным.
11 версия появилась вместе с обновлением Виндовс 8.1, оно является последней в линейке. По скорости работы он может сравниться с конкурентами, но все же немного уступает им. Теперь есть режим приватности, предварительный рейтинг, а также поддерживается кэширование, оно позволяет повысить скорость работы браузера. Не смотря на успешные нововведения браузер лишь теряет свои позиции. В своей работе я задействую Internet Explorer лишь для входа в веб-интерфейс домашнего роутера и прочего сетевого оборудования. Этому есть простое объяснение, именно это обозреватель используют разработчики, поэтому разметка рассчитана на него. Для просмотра интернет-ресурсов лучше использовать другой обозреватель.

Сейчас существует множество браузеров, которые мы не упоминали в нашем обзоре. Мы представили свой выбор лучших браузеров, но у каждого может быть другое мнение. В обзоре представлены лишь те обозреватели, с которыми мне приходилось сталкиваться. Их можно загрузить совершенно бесплатно и использовать без каких-либо ограничений. Актуальную версию можно найти на официальном сайте. Если вы можете предложить достойные браузеры, которые должны присутствовать в Топ 5, то указывайте свои варианты в комментариях.

09.10.2017 Время прочтения: 16 минут

Интернет-маркетинг – это огромная доля всего маркетинга; а продвижение сайта в поисковиках – огромная доля интернет-маркетинга.

Прямо сейчас зайдите на своем веб-сайте в файл robots.txt (https://www.ваш-сайт.ru/robots.txt) и проверьте, не закрыт ли он от ПС. Если увидите строку
User-Agent: *
Disallow: /
значит, ваш сайт не видит ни один поисковик, и нужно срочно заняться внутренней seo-оптимизацией!

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml .

Настроить 404

Фото с сайта geocities.jp

Когда пользователь вводит в адресную строку браузера URL (например, ), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://сайт/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес.

Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

  1. При переходе на несуществующую страницу пользователь попадает в тупик и покидает сайт;
  2. При переходе на несуществующую страницу поисковый робот думает, что она существует (ведь 200OK), и добавляет ее в индекс как дубль.

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

По умолчанию, популярные CMS уже оснащены функцией грамотного ответа для несуществующих страниц, но это не точно. Так что, лучше проверьте: введите в адресную строку неправильный адрес, проверьте, появляется ли «Страница 404», и проверьте код ответа (например, здесь: www.redirect-checker.org). Если что-то не так – срочно исправляйте.

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Избегайте слишком длинных адресов и большого уровня вложенности, структура должна быть четкой и ясно выраженной, а приоритетные страницы должны находиться не более, чем в 3-х кликах от главной. В противном случае поисковые роботы будут обходить большую часть страниц стороной, что грозит слабым индексированием сайта и потерей трафика.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

  • Смена домена;
  • Переезд на другую CMS без сохранения старых адресов;
  • Переезд на защищенный протокол HTTPS;
  • Изменение URL по техническим причинам (например, перенесли все товары из категории /category-1/ в/category-2/);
  • Приведение URL в формат ЧПУ («человекопонятный URL»);

Ситуации, когда необходимо настроить 302-ый редирект:

Важный нюанс: при настройке редиректов проследите, чтобы не возникало целой цепочки редиректов. Это ситуация, когда с исходного URL происходит редирект на URL№2, затем на URL№3 и так может быть до бесконечности. Чтобы проверить, настроен ли со страницы редирект (и какой), и нет ли цепочки редиректов, воспользуйтесь уже упомянутым сервисом www.redirect-checker.org .

Избавиться от дублей контента, мета-тегов

Фото с сайта theinfosphere.org

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

  1. Грамотно настроить «главное зеркало» сайта.
  2. Удалить все лишние технические адреса страниц, возникшие случайно в ходе создания сайта.
  3. Избегать параметрических УРЛов, если уже настроены ЧПУ.
  4. При использовании UTM-меток указывать поисковикам каноничный адрес страницы.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu . С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ - страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=... уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo’оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

  1. Старайтесь публиковать уникальное изображение;
  2. Используйте сервисы сжатия для сокращения веса картинки в килобайтах (чем меньше вес, тем быстрее загрузится картинка);
  3. Обязательно заполняйте атрибуты alt и title, включайте в них слова и фразы, релевантные изображенному;
  4. Называйте файлы картинок в ЧПУ виде (по аналогии с УРЛами - лучше всего транслитом);
  5. Используйте разметку schema.org для картинок, которая поддерживается и Яндексом, и Google.

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Чек-лист по семантике:

  • Емкое и релевантное семантическое ядро;
  • Уникальный, интересный, разноплановый контент;
  • Правильно заполненные seo-теги;
  • Грамотная перелинковка.

Найти ключевые слова (семантику)

Семантическое ядро сайта (согласно Википедии) – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

  1. Сбор ключевых слов вручную с помощью специальных сервисов: Яндекс.Вордстат (Подбор слов) и Google Adwords .
  2. Дополнение семантики ключевыми словами конкурентов (хорошо подойдет сервис SEMrush) и словами из готовых баз (например, База Пастухова).
  3. Удаление нецелевых и малоэффективных слов из образовавшегося списка.
  4. Кластеризация запросов. Продвигать на одной странице следует ту группу запросов, которая нацелена на решение конкретной проблемы пользователя. В результате кластеризации получается карта распределения запросов по сайту.

Создать контент согласно семантике

Фото с сайта kino.ru

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

  • Запрос, который должен войти в заголовок h1;
  • Количество вхождений в текст каждого из запросов, предусмотренных для страницы (вычисляется исходя из логики, здравого смысла и анализа текстов сайтов-конкурентов);
  • Объем знаков текста без пробелов (как правило, объем должен быть больше 1000 знаков для хорошей индексации, исключение составляют страницы карточек товаров; объем текста определяется также исходя из здравого смысла и анализа конкурентов);
  • Источники информации для написания интересного контента.
  • Текст должен быть интересным, полно и ясно отвечающим на вопрос пользователя;
  • Текст должен быть уникальными (уникальность проверяется специальными сервисами);
  • У текста должна быть низкая тошнота (тоже проверяется через сервисы);
  • Если текст длиннее 1000 знаков, его следует разбавлять иллюстрациями и другим мультимедийным контентом;
  • В тексте нужно использовать разметку: деление на параграфы, выделение заголовками, подзаголовками, маркированными и нумерованными списками.

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги »). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

  1. Делайте анкоры уникальными и разнообразными.
  2. Используйте ключевые слова в анкорах.
  3. Ставьте не более одной ссылки на 1 000 знаков контента.
  4. Выделяйте цветом гиперссылки (классика: ссылки синего цвета, а текст черного).
  5. При внутренней оптимизации интернет-магазинов и больших порталов делайте массовую перелинковку похожих статьей/товаров и проч.
  6. Избегайте использования циклических ссылок – это ситуация, когда страница ссылается сама на себя.

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Чек-лист по юзабилити:

  • Интерфейс удобный, отвечает задачам бизнеса;
  • Интересный и мультимедийный контент;
  • Скорость загрузки высокая;
  • Сайт мобилопригодный;
  • Учтены коммерческие факторы ранжирования.

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

  • Контент. Контент всегда превыше всего, когда речь заходит о качестве сайта. Тексты должны быть интересными и полезными; графика в тему и приятной; дизайн современным и привлекательным.
  • Высокая скорость загрузки страниц сайта. Чтобы узнать, что именно нужно сделать, чтобы ее увеличить, воспользуйтесь официальным инструментом от Google – PageSpeed Insights .
  • Адаптивность сайта под все возможные устройства, с которых сайт могут посещать пользователи – ПК, ноутбуки, планшеты, смартфоны. Мобилопригодность проверяйте также через официальный инструмент от Google – Mobile-friendly Test .

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

Фото с сайта imprenditoreglobale.com

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

  1. Несколько способов связи: телефон, e-mail, skype и т.д.;
  2. Несколько телефонов и наличие номера 8-800;
  3. Контакты отдельных сотрудников + их фото;
  4. Схема проезда и прохода в офис;
  5. Схема на Яндекс.Картах/Google Maps;
  6. Живые аккаунты в соцсетях, наполняемые контентом;

В моей новой статье мне хотелось бы рассказать о таком понятии как первичная оптимизация сайта и собрать для начинающих вебмастеров все первичные средства оптимизации, которые просто необходимо сделать сразу после написания сайта и не только для того, чтобы облегчить работу будущему сео-оптимизатору, но и поднять свой статус как сайтостроителя или вебмастера в лице окружающих. Итак, начнем с самого начала с файла robots.txt.

Создание и наполнение файла инструкции для роботов поисковых систем robots.txt

Файл robots.txt представляет собой некое руководство для прохода вашего сайта поисковыми ботами. В нем мы так же выстраиваем и защиту от ненужных нам ботов, так как они могут существо нагружать наш хостинг, что приведет к отключению услуги. В качестве примера на одном из моих проектов боты ходили с разницей в секунду в количестве порядка 30 штук, что существенно нагружало хостинг (нагрузка выдавалась порядка 60%, при штатной в 10%).

Расшифровка данных файла robots.txt:

  1. User-agent – наименование конкретного бота, к примеру Googlebot или Mail.Ru.Для каждого из видов ботов пишется свой кусок в файле.
  2. Crawl-delay – промежуток времени между обращениями бота к вашему сайту. Нормальным считается промежуток равный 3, но для того, чтобы снять нагрузку на сервер нужно выставить параметр от 5 до 10.
  3. Disallow – запрет на посещение конкретного раздела или страницы. Каждый раздел или страница прописываются отдельно.

Стандартный вид файла robot.txt:

User-agent: *

Crawl-delay: 3
Host: адрес вашего сайта

Данный формат файла робот.тхт подойдет сайтам имеющим трафик менее 100 уникальных посетителей в сутки и количество страниц менее 1000.

Расширенный вид файла robot.txt:

User-agent: *
Disallow: админка или еще какие-либо страницы вашего сайта
Crawl-delay: 3
Host: адрес вашего сайта
Sitemap: ссылка на карту вашего сайта

Все тоже самое, но только добавляются дополнительные блоки для каждого из видов ботов. Я рекомендую сразу же заблокировать следующих ботов (блокировка прописывается вот так Disallow:/):

  • User-agent: sentibot
  • User-agent: MegaIndex.ru/2.0
  • User-agent: MegaIndex.ru
  • User-agent: AdvBot
  • User-agent: XoviBot
  • User-agent: publiclibraryarchive.org
  • User-agent: memoryBot
  • User-agent: SMTBot
  • User-agent: XoviBot
  • User-agent: Abonti
  • User-agent: meanpathbot
  • User-agent: SearchmetricsBot
  • User-agent: panscient.com
  • User-agent: IstellaBot
  • User-agent: EasouSpider
  • User-agent: Aboundexbot
  • User-agent: MixBot
  • User-agent: EasouSpider
  • User-agent: sogou spider
  • User-agent: BUbiNG
  • User-agent: LinkpadBot
  • User-agent: Aboundexbot
  • User-agent: heritrix
  • User-agent: SEOkicks-Robot
  • User-agent: WBSearchBot
  • User-agent: ScreenerBot
  • User-Agent: UnisterBot
  • User-agent: SeznamBot
  • User-agent: SemrushBot
  • User-agent: BPImageWalker/2.0
  • User-agent: lipperhey
  • User-agent: BLEXBot
  • User-agent: wotbox
  • User-agent: SiteExplorer
  • User-agent: turnitinbot
  • User-agent: netEstate NE Crawler
  • User-agent: FeedBooster
  • User-agent: Nutch
  • User-agent: Ezooms
  • User-agent: spbot
  • User-Agent: sistrix
  • User-Agent: ExB Language Crawler
  • User-agent: MJ12bot

Если вы не закроете доступ для выше перечисленных ботов сразу, то будете иметь проблемы в будущем с большой нагрузкой на ваш хостинг или сервер. Боты, которых я заблокировал никак не скажутся на скорости индексации и не повлияют на продвижение сайта, поэтому бояться закрывать свой сайт от них не стоит. Данный, расширенный файл робот.тхт подойдет для сайтов с посещаемостью от 100 человек в сутки и с объемом страниц более 1000 страниц.
Для сайтов, написанных на WordPress можно использовать плагин Multipart robots.txt editor – он имеет достаточно много настроек, с помощью которых можно исключить слишком активных ботов, а так же прописать разделы и страницы, доступ к которых вам нужно запретить.

Создание карты сайта (sitemap.xml)

Для чего нам нужна карта нашего сайта? Ответ очень прост – для того, чтобы роботы поисковых систем не заблудились и могли найти разделы вашего сайта достаточно быстро и сразу определить какие из них чаще обновляются, а кике не очень. С помощью карты сайта можно существенно сократить скорость индексации страниц ресурса, что положительно сыграет на динамике продвижения и увеличении трафика на сайт.

Создать карту сайта можно, как с использованием сторонних сайтов, так и с помощью плагинов. Но помните, что большинство сторонних сайтов бесплатно создают sitemap только на определенный объем страниц (от 100 до 500, больше я не встречал), а так же не всегда понятно, что вам могут положить в код (если вам лень проверять его полностью). Лично я использую на своем сайте (он построен на WP (wordpress)) плагин Yoast SEO , который помимо различных удобств в СЕО части, включает и создание карты сайта.

Установка социальных кнопок

На сегодняшний день очень важная часть оптимизации сайта, так как каждый репост записи дает вам 1 халявную, да еще и вечную ссылку с жирнейших ресурсов (vk.com, одноклассники, google+ и пр.). Плюс ко всему любой репост, если его сделал человек, имеющий хотя бы 100 человек в друзьях или подписчиках, может привести вам от 1 до 10 новых посетителей, а те в свою очередь могут сделать другие репосты и привести еще.
Лично я использовал и использую по сегодняшний день 3 варианта установки социальных кнопок на свои сайты и сайты своих клиентов:

Самый простой и действенный способ настройки качественной перелинковки включает в себя 2 варианта установки ссылок:

  1. При написании страниц, направленных на поднятие главных посадочных страниц необходимо установить с них от 1 до 10 ссылок, в зависимости от объема текста и количества нужных нам тематических ключевых слов. Данным подходом мы будем передавать вес второстепенной страницы на основную, которую мы будем усиленно продвигать, что, несомненно, сыграет свою роль в росте позиций.
  2. Установка блоков: похожее, новое, популярное на страницах вашего сайта:
  • Блок «похожее» можно подключить в настройках сайта при включенном плагине Jetpack от WordPress.com: панель администратора – настройки – чтение – выбрать «Показывать заголовок «Похожее», чтобы визуально отделить похожее содержимое от записей». В каждой из ваших записей (не страниц) в самом низу текста появится блок «похожее» (аналдогичный блок вы увидите и внизу этой статьи).
  • Блок «новое» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Свежие записи». Никаких дополнительных плагинов для установки этого блока устанавливать не нужно.
  • Блок «популярное» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Popular Posts» или «популярные записи» (в моем случае я установил плагин WordPress Popular Posts ). Пример размещения данного блока вы можете видеть на моем сайте.

Классические ссылки и установка блоков помогут вам не только качественно настроить перелинковку страниц, но и обеспечат удобное использование вашего сайта его посетителями, что отразится на поведенческих факторах. А как мы знаем они играют далеко не последнюю роль в определении качества вашего сайта.

Правильно прописываем метатеги

Итак, мы подошли к еще одному интересному моменту поисковой оптимизации сайта – это метатеги. Их мы разделим на 3 части и о каждой я кратко расскажу:

  1. Title или название страницы, ее видит только поисковый робот и поэтому постарайтесь без воды максимально четко назвать вашу страницу. Иногда (почти всегда) название страницы полностью совпадает с ее заголовком и поэтому помните, что как название так и заголовок должны полностью отражать содержание дальнейшего текста в противном случае страница никогда не выйдет в топ. В заголовке в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  2. Description или описание страницы, его, как и название страницы, так же видит только робот поисковой системы, но из него так же формируется сниппет (небольшой кусок текста сформированной поисковой системой автоматически под заголовком вашего сайта и ссылкой на его страницу, выданной в при введении поискового запроса). Описание не должно быть большим и так же не должно быть маленьким – это всего 1-2 предложения не более 150 знаков описывающее суть текста. В описании в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  3. Keywords или ключевые слова – и этот параметр будет доступен только роботам поисковых систем. Минимум, что должно быть прописано, это хотя бы одно фокусное ключевое слово или фокусное слово и производные от него. Например: оптимизация сайта, сео оптимизация сайта, оптимизировать сайт, оптимизация сайта для продвижения. Плотность ключевых слов по отношению к тексту не должна быть более 1 к 300 (1 ключевое слово на 300 знаков текста). Если плотность будет выше, то можете получите фильтр за спам ключами. Если плотность будет ниже, то у вас просто будет меньше ключевых слов на конкретной странице. В данном поле не обязательно прописывать все имеющиеся в тексте ключи, можно указать только фокусное.

Немного подведу итог правильности написания метатегов:

  1. Фокусное ключевое слово (или фраза) должно быть одно, например «продвижение сайтов».
  2. Фокусное ключевое слово должно присутствовать в названии, описании, ключевых словах, хотя бы в одном заголовке странице и встречаться 1 раз в тексте. Можно использовать разные словоформы (употреблять в различных падежах).
  3. Дополнительные ключевые слова подбираться по принципу фокусное слово (или фраза) плюс еще одно слово, например продвижение сайтов в яндексе.
  4. На 300 знаков текста должно быть не более 1 ключевого слова или фразы.

В качестве совета рекомендую тем, кто использует Google Chrome установить плагин на браузер под названием RDS bar. С его помощью вы сможете просматривать не только метатеги сайтов конкурентов, но и проанализировать их качество.

Настройка RSS ленты

Если сайт написан на WordPress, то практически во всех темах, используемых для создания сайта, уже есть встроенная РСС-лента, найти ее можно так: ваш сайт/rss.xml, ваш сайт/feed.xml или как в моем случае ваш сайт/feed/ . Зачем нужна RSS-лента? Все очень просто. Существуют ресурсы, которые так или иначе будут парсить (забирать ее к себе на сайт) вашу ленту записей и для упрощения такого мероприятия прекрасно подойдет наша РСС-лента. Это нужно нам для того, чтобы совершенно бесплатно получать ссылки на наш сайт, при этом данного рода ссылки считаются естественными, что положительно скажется на продвижении интернет сайта и поможет хоть немного, но поднять его позиции.
Помимо положительных моментов в RSS-ленте, есть и отрицательные:

  1. Невозможно изначально отследить качество сайтов, размещающих ваши статьи у себя. Это могут быть как плохие, так и хорошие ресурсы, но в любом случае общий итог будет положительным, особенно если удастся транслировать свои записи в крупных ПС или на крупных порталах.
  2. Невозможно самостоятельно отсеивать не желательные для вас сайты. Единственное, что можно сделать в таком случае – это самостоятельно прогнать свой сайт через качественный агрегаторы, потому как они это вряд ли сделают за вас (описывать их в данной статье не буду, да и не зачем, так как они постоянно меняются, кто попадает под АГС, а кто-то нет).
  3. О том, что с вашего сайта кто-то парсит статьи вы узнаете только в момент обновления (апдейта) текстовой базы поисковой системы.
  4. Удаление ваших текстов с чужих сайтов – это самое проблематичное и трудоемкое занятие, так как вам нужно будет выйти на вебмастера того сайта и уже просить его удалить ваш текст.

Может показаться, что RSS-лента подойдет больше для продвижения сайтов блогов или новостных порталов, но это не так. На сегодняшний день большую роль играет контент и большинство сайтов продающих товары или услуги или еще что-либо не относящиеся к информационной тематике создают разделы, которые наполняются различными тематическими текстами. А чем больше будет естественных ссылок на эти разделы, тем больше пользы они принесут основным продвигаемым страницам, отдавая им свой честно заработанный вес.

Настройка трансляции записей и страниц сайта в социальных сетях

Трансляция записей вашего сайта – это один из способов не только ускорить индексацию и продвижение, но и получить массу бесплатных ссылок с одних из самых трастовых сайтов не только Рунета, но и мира. Рассмотрим варианты настройки таких трансляций:

  1. Самый трудоемкий способ – набивать анонсы статей в каждом из аккаунтов социальной сети вручную. Не самый лучший вариант провести свое время с пользой, поэтому заострять внимание на нем я не буду.
  2. Самый простой способ – настройка RSS-ленты через сайт rsstranslator.net (есть платная регистрация и бесплатная) с выводом трансляции в социальную сеть, а конкретно сразу в нужную вам группу. Способ очень прост и не требует настройки API для каждой из социальной сети. Регистрируетесь, вносите свои РСС-ленты в свой каталог, далее настраиваете с них трансляцию на вашу группу в соцсети (группу, аккаунт) и получаете ежедневное наполнение вашей группы в контакте. Для того, что бы аккаунт на РССтрансляторе не заблокировали нужно 1 раз в 6 месяцев заходить в свой личный кабинет на сайте, о чем система сама напоминает (очень удобно). Этот способ хорош еще и тем, что у вас не будет стоять плагина на сайте, который грузил бы ваш хостинг или сервер.
  3. Средний по сложности – установка специализированных плагинов на ваш сайт с тонкой настройкой API поисковых система для трансляции статей. Скажу честно, что лично я использую второй способ и не имею никаких проблем, поэтому описывать тонкости настроек приложений в данной статье описывать я не буду, но постараюсь уделить время написанию о, них в другой статье посвященной продвижению сайта через социальные сети.

Итак, в качестве примера настройки трансляции записей приведу свой сайт. Как вы видите в шапке у меня есть всего 2 иконки социальных сетей: vk.com и twitter. Вы спросите, а почему так мало? Лично мне этого хватает.
В РССтрансляторе я настроил 1 канал RSS-ленты со своего сайта (он же общий канал всех рубрик), далее я направил трансляцию с него в свою группу в контакте, а уже из группы в контакте настроил трансляцию в твиттер. Настройка из вконтакте в твиттер делается практически в 1 нажатие и не вызвало лично у меня никаких вопросов.
В итоге я получил ежесуточное автоматическое наполнение группы в контакте и аккаунта в твиттере, что положительно сказывается на продвижении позиций моего сайта с самого начала его написания. Дополнительно скорость индексации моих страниц снизилась со стандартных 4-5 недель в Яндексе до 1-2 недель, по Google страницы попадают в индекс уже в течение 1 суток.
Для начала работы по продвижению сайта, на мой взгляд, приведенной информации будет вполне достаточно, а об остальном вы сможете прочитать на страницах моего блога.

Просмотров: 66

Когда за услугой SEO к нам обращается новый сайт, первым делом делаем аудит и определяем стратегию продвижения. А вот 3 направления в начале работ:

  • Первичная оптимизация

Расскажем о начальных работах, или как мы называем первичная оптимизация сайта, которая состоит из 8 пунктов:

1. Для начала устанавливаем на сайт Яндекс Метрику – специальный счетчик для анализа SEO-продвижения и главных показателей сайта.

Среди таких показателей:

  • органический трафик с детальной разбивкой на поисковые системы

  • данные по конкретным поисковым фразам – визиты, посетители, отказы, глубина просмотра и время нахождения пользователя на сайте

2. Настраиваем Google Analytics – сервис для анализа поведения пользователей на сайте.

Добавляем счетчик и настраиваем цели на сайте. С Google Analytics наблюдаем за действиями посетителей, считаем конверсии, проводим A/B-тестирование, анализируем эффективность рекламных кампаний и прочее.

3. Добавляем сайт в Яндекс. Вебмастер – сервис для оценки индексации сайта и редактирования описания сайта в выдаче Яндекса:

Так сайт быстрее проиндексируется в поисковых системах, а пользователи, заинтересованные в торговом предложении – скорее найдут вас и обратятся ☺

4. Добавляем сайт в Google Search Console – важный инструмент для получения информации о сайте, аналогичный Яндекс. Вебмастеру , но сложнее по структуре.

Зато, если разобраться с сервисом – получишь точный анализ сайта на наличие ошибок и поймешь, что делать для повышения видимости ресурса в поисковой выдаче.

5. Добавляем сайт в Яндекс. Справочник, прописываем контактные данные и прочую информацию об организации:

Теперь – сайт появляется в Яндекс. Картах.

6. Регистрируем сайт в Google My Business:

Теперь информация о сайте присутствует на Google maps ☺

7. Проверяем и оптимизируем скорость загрузки сайта. Подробнее почитайте об этом здесь



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows