Оптимизация первичная услуги. Правильно прописываем метатеги. Настройка RSS ленты

Оптимизация первичная услуги. Правильно прописываем метатеги. Настройка RSS ленты

11.04.2019

Наши преимущества

  • Мы более 10 лет занимаемся любимым делом
  • Мы ценим Вас и Ваше время
  • Мы рядом с Вами
  • Мы понимаем, что Ваша цель - продажи

Первичной оптимизацией сайта называют ряд действий, которые осуществляют оптимизаторы на начальном этапе, когда сайт уже создан, но еще не наполнен содержимым. Важно осознавать, что при продвижении нужно смотреть на сайт как на единую концепцию, а не как на совокупность отдельно продвигаемых страничек. На сайт важно смотреть не только глазами роботов, но и глазами потенциальных пользователей. Первичная оптимизация - это что-то вроде расчески с редкими зубцами: вы просто берете и слегка причесываете страницы, чтобы ничего не торчало и не раздражало поисковых роботов.

Перед тем, как начинать этот процесс, важно понимать к чему его применять. Поэтому мы и решили написать этот материал.

  • Прежде всего, обратите внимание на Title, Description и Keywords. Все эти три категории должны быть уникальными у каждой из страниц сайта. Более того, они должны быть релевантными, то есть соответствовать содержимому. Уникальными их можно сделать либо вручную, либо же автоматически, наладив автоматическую генерацию (сейчас это не проблема, было бы желание). При этом не забывайте, что основные ключевые слова нужно помешать в Title. Заголовок должен быть не длиннее 10-12 слов, иначе поисковик воспримет его как спам.
  • Нельзя не учесть разметку страницы, и в особенности заголовки (H1-H6). Как вы понимаете, порядок заголовков должен быть последовательным, при этом заголовок типа H1 должен встречаться только один раз, и чем меньше лишних слов в нем будет, тем больший вес будет иметь ключевая фраза.
  • Не забывайте про карту сайта. Она может быть сгенерирована как XML, так и в HTML формате. Все зависит от того, с каким движком вы работаете и что вам ближе. Обычно на карту сайта ставится несколько внешних ссылок, что позволяет ей иметь вес, который она будет отдавать внутренним страницам.
  • Посредством какого-либо софта (например, программы XENU) необходимо предотвратить баги. Никаких битых ссылок и отсутствующих документов быть не должно.
  • Также проверьте сайт на валидный TML, CSS и RSS и сократите использование JavaScript и Flash анимации.

Что вы получите в итоге?

Мы проведём бесплатный первичный аудит вашего сайта, выявив основные проблемы, которые негативно сказываются на его продвижении. Даже если до этого сайтом занимались не сведущие в SEO-оптимизации люди, в течение нескольких недель мы сможем исправить все недочёты, допущенные на стадии разработки и продвинуть ваш ресурс в ТОП выдачи поисковых систем.

Всем привет дорогие читатели! Тема этой статьи возникла из комментария постоянного читателя моего блога по поводу оптимизации сайта на практическом примере и сегодня я хочу разобрать как же своими руками самостоятельно провести внутреннюю seo (сео) оптимизацию сайта, не платя при этом специалистам, т. е сделать это совершенно бесплатно и эффективно.

Пост будет нести чисто практический уклон. Никакой воды, строго по списку. Приступим.

Самостоятельная первичная оптимизация сайта

Многие оптимизаторы порой допускают ошибку, продвигая исключительно целевые страницы сайта, совершенно забывая про непродвигаемые страницы. А ведь раскрутка это комплексный процесс, подобный механическим часам. Стоит упустить малейшую деталь и вся работа пойдет просто «коту под хвост». Чтобы этого не допустить предлагаю рассмотреть основные моменты внутренних работ по оптимизации и приведению сайта в удобный для продвижения вид. Да, кстати, можно . Хотите узнать? Тогда переходите по ссылке.

Прописываем title, description, keywords

Это основа основ. Любой оптимизатор это знает. Вот вам практический пример:

Эта статья пишется под следующие ключевые запросы я их специально выделил красным на скриншоте, писать сюда не хочу, ибо получится переспам ключей и поисковику это не понравится.

и вот еще один скрин

Всегда при составлении тайтлов делайте их большими, человекопонятными с вхождением всех ключевых фраз и чтобы это было смыслово, а не тупой набор слов из вордстата.

Важный нюанс:

Тайтл НЕ ДОЛЖЕН повторять название вашей статьи. В моем случае статья называется — 11 важных правил первичной оптимизации сайтов, а title — SEO (сео) внутренняя оптимизация сайта своими руками самостоятельно и бесплатно!

Количество символов в тайтле не должно быть длинным и не должно быть сильно коротким. Идеально — 4-5 слов, но не более 60-70 символов. Хотя это правило не исключение.

Твердо уясните это правило!

Теперь поговорим про description. Это как визитная карточка того, о чем мы хотим рассказать на странице сайта. Игнорирование этого пункта ставит под угрозу все ваши трудозатраты над проектом, в результате чего вы не получите нужных позиций в выдаче Яндекса и Гугла. Не особо хочется быть аутсайдером, не так ли?

С полем «описание сайта» (дескрипшен) немного попроще. Здесь вы можете либо придумать свой вариант, отличающийся от текста на самой странице статьи, либо взять прямо из текста. Я обычно беру из текста, хотя над коммерческими клиентскими проектами придумываю из головы. Вот как выглядит дескрипшен этой статьи

Важный нюанс:

При создании поля описание страницы старайтесь «вписываться» в требуемое количество знаков — 160 символов. Бывает так, что Яша и Гоша сами формируют нужный дескрипшен, выцепляя нужные участки с ключами.

По поводу keywords особо разглагольствовать не буду, ибо этот пункт давно уже утратил свою силу, когда для того, чтобы подняться на первое место в поиске достаточно было прописать длинную «портянку» нужных ключевых фраз и вы уже в ТОПе. Сейчас это уже не работает. Лучше думайте над удобством для читателя.

В связи с «якобы» отменой ссылочного Яндекс уверяет, что есть другие 750 факторов по которым сайты будут прекрасно чувствовать себя на верхних строчках, и причем выдача не пострадает. Сейчас рулят «поведенческие факторы», а именно удобство для читателя, понятное меню, доступность страниц в два клика и много других факторов. Об этом я думаю будет одна из статей.

Заголовки h1-h6

Про них тоже нельзя забывать они делают логичной структуру самого текста. Самый важный, который должен встречаться только один раз в тексте — это h1. Другие заголовки можно сколько угодно раз использовать на странице. Вот вам наглядный пример с моей страницы:

Создание карты сайта

Ее наличие помогает поисковым роботам быстрее проиндексировать содержимое вашего сайта. Можно использовать несколько вариантов карты либо XML формата, или же с помощью специальных плагинов (я говорю про Вордпресс). Можно поставить на несколько внешних ссылок, чтобы был вес, который будет в дальнейшем передан другим страницам. А это уже поможет продвинуться по низкочастотным запросам. На моем блоге карта сайта расположена прямо в главном меню, а также в шаблоне 404 ошибки.

Отсутствующие документы и битые ссылки

Для предотвращения ошибок со стороны популярных поисковых систем, ваш сайт следует проверить на наличие битых и нерабочих ссылок и документов. Если вы этого не сделаете, то к вашему сайту в последующем будут предъявлены санкции и могут наложить фильтры.

Подобный фильтр, который так и называется «Фильтр битых ссылок» есть у Гугла. Не поленитесь и произведите чистку. Вот рекомендую плагин, который очищает «авгиевы конюшни» из нерабочих урлов на блоге и называется он Broken Link Checker.Удобство еще и в том, что на почту к вам будут приходить уведомления об ошибках и будут указаны пути где это исправить. Мне он всегда помогает держать руку на пульсе. Рекомендую!

Валидный код HTML, CSS, RSS

Необходимо также проверить структуру вашего кода через специальные программы — валидаторы. Они существуют отдельно для Html кода, так и для . Сервис валидации находится вот по этой ссылке http://validator.w3.org/

Просто вводите урл сайта и нажимаете проверить («Check»). Если у вас версии DOCTYPE Strict, где используется строгое соответствие стандартам языка гипертекстовой разметки, тогда проверьте закрыли ли вы все теги слешами < br / > Иначе будет выдаваться ошибка

Использование Flash анимации и Javascript кода на сайте

Для того, чтобы ваш сайт индексировался и загружался быстрее нужно постараться сократить flash графику и джаваскрипты до минимума, поскольку они создают нагрузку при загрузке страниц сайта. Я не говорю, что их вообще лучше не использовать, нет. Просто выносите их в отдельный файл, как и каскадные таблицы CSS. Файл так и назовите JS и в него все складывайте. Скрипты лучше и правильнее выносить в подвал сайта (футер), а не в шапку сайта (header)

Абсолютные и относительные ссылки

Смысл в том, чтобы максимально сосредоточить вес страниц вашего сайта, чтобы исходящие (например с главной) вели на внутренние страницы (внутренняя перелинковка). Таким образом вес будет накапливаться и можно выдвинуть сайт без покупных ссылок по НЧ запросам. Другое дело если вы делаете dofollow блог, и с ваших страниц будет много разных внешних ссылок. Тут вес будет немного теряться. Для себя вы должны решить — или посещаемость, или ценность собственных ссылок. Выбор за вами. Мои комментарии скрыты от индексирования, поскольку может прилетать очень много спама и тупых комментариев. Я работаю на качество.

На некоторых сайтах в футере наблюдаю просто «потрясающую» картину. Здесь уже будет сарказм, простите…Вот нафига некоторые вебмастера «суют» по 7-10 счетчиков всякой разной статистики и рейтингов? От этого никакого эффекта никогда не будет, и мало того, такой сайт выглядит непрофессионально. Запомните: один, максимум два счетчика статистики и обязательно на сайте! Без нее никуда, таким образом вы увидите реальную посещаемость, процент отказов и поведение ваших посетителей, то над чем предстоит поработать. Это ОЧЕНЬ важный этап! Счетчики обязательно должны быть закрыты от индексации, вот пример как это следует делать:

Навигационная цепочка

Она используется, во-первых, для удобства читателей, чтобы знать на какой странице и на каком уровне вложенности от главной он сейчас находится. Также навигационная линейка урлов помогает в индексации сайтов. Их еще называют хлебные крошки. К сожалению они у меня на сайте не стоят, так как весь материал доступен в один клик от главной страницы. К тому моменту как вы будете читать эту статью «крошки» будут стоять на сайте. Вот, как они выглядят:

Всегда самый хороший способ внутренней перелинковки и самостоятельной оптимизации сайта выводить похожие материалы. Лучше делать это как на главной странице, так и на внутренних. Это удержит внимание читателя, ведь он реально увидит смежные статьи по теме и, вполне вероятно, продолжит проводить время на вашем сайте, улучшая поведенческие факторы.

Правильный файл robots.txt

Этот файл своеобразная инструкция для поисковых ботов, которая говорит какие страницы индексировать, а какие разделы сайта полностью закрыть. Как правило закрывают от индексации служебные и неинформативные страницы и каталоги, которые дублируют содержание сайта. Например от индексации можно закрыть «Архивы», папку с плагинами (если мы говорим про wordpress).

Вот и все, что я хотел рассказать вам про самостоятельную внутреннюю оптимизацию сайта своим руками да еще и бесплатно! Учитесь на блоге, всего хорошего

Давайте представим ситуацию, что вы разработали сайт в Краснодаре , опубликовали его. Дальше вы ждете когда на него ринит целевой трафик, но этого не происходит, потому что не была произведена первичная SEO оптимизация или как еще называют внутренняя оптимизация. Неправильные действия по данному направлению могут привести к тому, что ресурс, может никогда не попасть на страницы поисковика.

Что входит в первичную оптимизацию?

1. Сборка семантического ядра. Семантическое ядро - набор ключевых запросов (низкочастотные, среднечастотные и высокочастотные), по которым и оптимизируется сайт.

Как собрать семантическое ядро? Помогут бесплатные сервисы Яндекс.Вордстат и Серпстат. После того, как семантическое ядро создано мы должны разделить его по категориям, и эти категории разделить по страницам сайта. Для того, чтобы на каждой странице находились ключевые запросы, которые соответствуют названию и теме. При необходимости структура сайта дорабатывается и добавляются новые разделы.

2. Установка счетчиков. Яндекс.Метрика и Google Analytics. Нужно для мониторинга статистики посещений, источников трафика, глубины просмотра, процент отказа.

3. SEO оптимизированный контент. Написание уникальных статей под конкретный ресурс и специфику деятельности. SEO оптимизированными тексты считаются в том случае, когда прописаны теги, тайтлы, дескрипшны и альты у картинок. Наполнение должно быть разнообразным: помимо текста добавляются изображение и видео.

4. Человеко-понятные урлы. Это красивые и дружественные страницы адреса сайт как для пользователя, так и для поисковых роботов. А затем переходим к перелинковки всех страниц, это значит что в тексте одной страницы идет ссылка на другой раздел.

5. Создание файлов роботс.тхт и сайтмап.хмл. Robots говорит роботам какие страницы индексируются, а какие скрыты от этого процесса. Sitemap позволяет быстрее ориентироваться по структуре ресурса.

6. Сниппеты и микроразметка. Сниппет - это блок информации или краткие сведения о конкретной странице, которая видна в поисковой выдачи.

После реализации всех пунктов хорошо бы озадачиться тем, чтобы разместить Политику Конфиденциальности, а также купить установить ССЛ-сертификат. Плюс ко всему зарегистрировать сайт во всех доступных каталогах и выложить информацию на карты.

Для того, чтобы сайт наконец начал индексироваться поисковиками ему нужна первичная SEO оптимизация. Если планируете заниматься внешней оптимизацией, то она невозможна без первичной внутренней оптимизации. Если планируете продвигаться через контекст, то для того, чтобы рекламные кампании были максимально эффективными нужна корректная работа ресурса.

09.10.2017 Время прочтения: 16 минут

Интернет-маркетинг – это огромная доля всего маркетинга; а продвижение сайта в поисковиках – огромная доля интернет-маркетинга.

Прямо сейчас зайдите на своем веб-сайте в файл robots.txt (https://www.ваш-сайт.ru/robots.txt) и проверьте, не закрыт ли он от ПС. Если увидите строку
User-Agent: *
Disallow: /
значит, ваш сайт не видит ни один поисковик, и нужно срочно заняться внутренней seo-оптимизацией!

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml .

Настроить 404

Фото с сайта geocities.jp

Когда пользователь вводит в адресную строку браузера URL (например, ), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://сайт/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес.

Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

  1. При переходе на несуществующую страницу пользователь попадает в тупик и покидает сайт;
  2. При переходе на несуществующую страницу поисковый робот думает, что она существует (ведь 200OK), и добавляет ее в индекс как дубль.

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

По умолчанию, популярные CMS уже оснащены функцией грамотного ответа для несуществующих страниц, но это не точно. Так что, лучше проверьте: введите в адресную строку неправильный адрес, проверьте, появляется ли «Страница 404», и проверьте код ответа (например, здесь: www.redirect-checker.org). Если что-то не так – срочно исправляйте.

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Избегайте слишком длинных адресов и большого уровня вложенности, структура должна быть четкой и ясно выраженной, а приоритетные страницы должны находиться не более, чем в 3-х кликах от главной. В противном случае поисковые роботы будут обходить большую часть страниц стороной, что грозит слабым индексированием сайта и потерей трафика.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

  • Смена домена;
  • Переезд на другую CMS без сохранения старых адресов;
  • Переезд на защищенный протокол HTTPS;
  • Изменение URL по техническим причинам (например, перенесли все товары из категории /category-1/ в/category-2/);
  • Приведение URL в формат ЧПУ («человекопонятный URL»);

Ситуации, когда необходимо настроить 302-ый редирект:

Важный нюанс: при настройке редиректов проследите, чтобы не возникало целой цепочки редиректов. Это ситуация, когда с исходного URL происходит редирект на URL№2, затем на URL№3 и так может быть до бесконечности. Чтобы проверить, настроен ли со страницы редирект (и какой), и нет ли цепочки редиректов, воспользуйтесь уже упомянутым сервисом www.redirect-checker.org .

Избавиться от дублей контента, мета-тегов

Фото с сайта theinfosphere.org

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

  1. Грамотно настроить «главное зеркало» сайта.
  2. Удалить все лишние технические адреса страниц, возникшие случайно в ходе создания сайта.
  3. Избегать параметрических УРЛов, если уже настроены ЧПУ.
  4. При использовании UTM-меток указывать поисковикам каноничный адрес страницы.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu . С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ - страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=... уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo’оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

  1. Старайтесь публиковать уникальное изображение;
  2. Используйте сервисы сжатия для сокращения веса картинки в килобайтах (чем меньше вес, тем быстрее загрузится картинка);
  3. Обязательно заполняйте атрибуты alt и title, включайте в них слова и фразы, релевантные изображенному;
  4. Называйте файлы картинок в ЧПУ виде (по аналогии с УРЛами - лучше всего транслитом);
  5. Используйте разметку schema.org для картинок, которая поддерживается и Яндексом, и Google.

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Чек-лист по семантике:

  • Емкое и релевантное семантическое ядро;
  • Уникальный, интересный, разноплановый контент;
  • Правильно заполненные seo-теги;
  • Грамотная перелинковка.

Найти ключевые слова (семантику)

Семантическое ядро сайта (согласно Википедии) – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

  1. Сбор ключевых слов вручную с помощью специальных сервисов: Яндекс.Вордстат (Подбор слов) и Google Adwords .
  2. Дополнение семантики ключевыми словами конкурентов (хорошо подойдет сервис SEMrush) и словами из готовых баз (например, База Пастухова).
  3. Удаление нецелевых и малоэффективных слов из образовавшегося списка.
  4. Кластеризация запросов. Продвигать на одной странице следует ту группу запросов, которая нацелена на решение конкретной проблемы пользователя. В результате кластеризации получается карта распределения запросов по сайту.

Создать контент согласно семантике

Фото с сайта kino.ru

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

  • Запрос, который должен войти в заголовок h1;
  • Количество вхождений в текст каждого из запросов, предусмотренных для страницы (вычисляется исходя из логики, здравого смысла и анализа текстов сайтов-конкурентов);
  • Объем знаков текста без пробелов (как правило, объем должен быть больше 1000 знаков для хорошей индексации, исключение составляют страницы карточек товаров; объем текста определяется также исходя из здравого смысла и анализа конкурентов);
  • Источники информации для написания интересного контента.
  • Текст должен быть интересным, полно и ясно отвечающим на вопрос пользователя;
  • Текст должен быть уникальными (уникальность проверяется специальными сервисами);
  • У текста должна быть низкая тошнота (тоже проверяется через сервисы);
  • Если текст длиннее 1000 знаков, его следует разбавлять иллюстрациями и другим мультимедийным контентом;
  • В тексте нужно использовать разметку: деление на параграфы, выделение заголовками, подзаголовками, маркированными и нумерованными списками.

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги »). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

  1. Делайте анкоры уникальными и разнообразными.
  2. Используйте ключевые слова в анкорах.
  3. Ставьте не более одной ссылки на 1 000 знаков контента.
  4. Выделяйте цветом гиперссылки (классика: ссылки синего цвета, а текст черного).
  5. При внутренней оптимизации интернет-магазинов и больших порталов делайте массовую перелинковку похожих статьей/товаров и проч.
  6. Избегайте использования циклических ссылок – это ситуация, когда страница ссылается сама на себя.

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Чек-лист по юзабилити:

  • Интерфейс удобный, отвечает задачам бизнеса;
  • Интересный и мультимедийный контент;
  • Скорость загрузки высокая;
  • Сайт мобилопригодный;
  • Учтены коммерческие факторы ранжирования.

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

  • Контент. Контент всегда превыше всего, когда речь заходит о качестве сайта. Тексты должны быть интересными и полезными; графика в тему и приятной; дизайн современным и привлекательным.
  • Высокая скорость загрузки страниц сайта. Чтобы узнать, что именно нужно сделать, чтобы ее увеличить, воспользуйтесь официальным инструментом от Google – PageSpeed Insights .
  • Адаптивность сайта под все возможные устройства, с которых сайт могут посещать пользователи – ПК, ноутбуки, планшеты, смартфоны. Мобилопригодность проверяйте также через официальный инструмент от Google – Mobile-friendly Test .

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

Фото с сайта imprenditoreglobale.com

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

  1. Несколько способов связи: телефон, e-mail, skype и т.д.;
  2. Несколько телефонов и наличие номера 8-800;
  3. Контакты отдельных сотрудников + их фото;
  4. Схема проезда и прохода в офис;
  5. Схема на Яндекс.Картах/Google Maps;
  6. Живые аккаунты в соцсетях, наполняемые контентом;

В моей новой статье мне хотелось бы рассказать о таком понятии как первичная оптимизация сайта и собрать для начинающих вебмастеров все первичные средства оптимизации, которые просто необходимо сделать сразу после написания сайта и не только для того, чтобы облегчить работу будущему сео-оптимизатору, но и поднять свой статус как сайтостроителя или вебмастера в лице окружающих. Итак, начнем с самого начала с файла robots.txt.

Создание и наполнение файла инструкции для роботов поисковых систем robots.txt

Файл robots.txt представляет собой некое руководство для прохода вашего сайта поисковыми ботами. В нем мы так же выстраиваем и защиту от ненужных нам ботов, так как они могут существо нагружать наш хостинг, что приведет к отключению услуги. В качестве примера на одном из моих проектов боты ходили с разницей в секунду в количестве порядка 30 штук, что существенно нагружало хостинг (нагрузка выдавалась порядка 60%, при штатной в 10%).

Расшифровка данных файла robots.txt:

  1. User-agent – наименование конкретного бота, к примеру Googlebot или Mail.Ru.Для каждого из видов ботов пишется свой кусок в файле.
  2. Crawl-delay – промежуток времени между обращениями бота к вашему сайту. Нормальным считается промежуток равный 3, но для того, чтобы снять нагрузку на сервер нужно выставить параметр от 5 до 10.
  3. Disallow – запрет на посещение конкретного раздела или страницы. Каждый раздел или страница прописываются отдельно.

Стандартный вид файла robot.txt:

User-agent: *

Crawl-delay: 3
Host: адрес вашего сайта

Данный формат файла робот.тхт подойдет сайтам имеющим трафик менее 100 уникальных посетителей в сутки и количество страниц менее 1000.

Расширенный вид файла robot.txt:

User-agent: *
Disallow: админка или еще какие-либо страницы вашего сайта
Crawl-delay: 3
Host: адрес вашего сайта
Sitemap: ссылка на карту вашего сайта

Все тоже самое, но только добавляются дополнительные блоки для каждого из видов ботов. Я рекомендую сразу же заблокировать следующих ботов (блокировка прописывается вот так Disallow:/):

  • User-agent: sentibot
  • User-agent: MegaIndex.ru/2.0
  • User-agent: MegaIndex.ru
  • User-agent: AdvBot
  • User-agent: XoviBot
  • User-agent: publiclibraryarchive.org
  • User-agent: memoryBot
  • User-agent: SMTBot
  • User-agent: XoviBot
  • User-agent: Abonti
  • User-agent: meanpathbot
  • User-agent: SearchmetricsBot
  • User-agent: panscient.com
  • User-agent: IstellaBot
  • User-agent: EasouSpider
  • User-agent: Aboundexbot
  • User-agent: MixBot
  • User-agent: EasouSpider
  • User-agent: sogou spider
  • User-agent: BUbiNG
  • User-agent: LinkpadBot
  • User-agent: Aboundexbot
  • User-agent: heritrix
  • User-agent: SEOkicks-Robot
  • User-agent: WBSearchBot
  • User-agent: ScreenerBot
  • User-Agent: UnisterBot
  • User-agent: SeznamBot
  • User-agent: SemrushBot
  • User-agent: BPImageWalker/2.0
  • User-agent: lipperhey
  • User-agent: BLEXBot
  • User-agent: wotbox
  • User-agent: SiteExplorer
  • User-agent: turnitinbot
  • User-agent: netEstate NE Crawler
  • User-agent: FeedBooster
  • User-agent: Nutch
  • User-agent: Ezooms
  • User-agent: spbot
  • User-Agent: sistrix
  • User-Agent: ExB Language Crawler
  • User-agent: MJ12bot

Если вы не закроете доступ для выше перечисленных ботов сразу, то будете иметь проблемы в будущем с большой нагрузкой на ваш хостинг или сервер. Боты, которых я заблокировал никак не скажутся на скорости индексации и не повлияют на продвижение сайта, поэтому бояться закрывать свой сайт от них не стоит. Данный, расширенный файл робот.тхт подойдет для сайтов с посещаемостью от 100 человек в сутки и с объемом страниц более 1000 страниц.
Для сайтов, написанных на WordPress можно использовать плагин Multipart robots.txt editor – он имеет достаточно много настроек, с помощью которых можно исключить слишком активных ботов, а так же прописать разделы и страницы, доступ к которых вам нужно запретить.

Создание карты сайта (sitemap.xml)

Для чего нам нужна карта нашего сайта? Ответ очень прост – для того, чтобы роботы поисковых систем не заблудились и могли найти разделы вашего сайта достаточно быстро и сразу определить какие из них чаще обновляются, а кике не очень. С помощью карты сайта можно существенно сократить скорость индексации страниц ресурса, что положительно сыграет на динамике продвижения и увеличении трафика на сайт.

Создать карту сайта можно, как с использованием сторонних сайтов, так и с помощью плагинов. Но помните, что большинство сторонних сайтов бесплатно создают sitemap только на определенный объем страниц (от 100 до 500, больше я не встречал), а так же не всегда понятно, что вам могут положить в код (если вам лень проверять его полностью). Лично я использую на своем сайте (он построен на WP (wordpress)) плагин Yoast SEO , который помимо различных удобств в СЕО части, включает и создание карты сайта.

Установка социальных кнопок

На сегодняшний день очень важная часть оптимизации сайта, так как каждый репост записи дает вам 1 халявную, да еще и вечную ссылку с жирнейших ресурсов (vk.com, одноклассники, google+ и пр.). Плюс ко всему любой репост, если его сделал человек, имеющий хотя бы 100 человек в друзьях или подписчиках, может привести вам от 1 до 10 новых посетителей, а те в свою очередь могут сделать другие репосты и привести еще.
Лично я использовал и использую по сегодняшний день 3 варианта установки социальных кнопок на свои сайты и сайты своих клиентов:

Самый простой и действенный способ настройки качественной перелинковки включает в себя 2 варианта установки ссылок:

  1. При написании страниц, направленных на поднятие главных посадочных страниц необходимо установить с них от 1 до 10 ссылок, в зависимости от объема текста и количества нужных нам тематических ключевых слов. Данным подходом мы будем передавать вес второстепенной страницы на основную, которую мы будем усиленно продвигать, что, несомненно, сыграет свою роль в росте позиций.
  2. Установка блоков: похожее, новое, популярное на страницах вашего сайта:
  • Блок «похожее» можно подключить в настройках сайта при включенном плагине Jetpack от WordPress.com: панель администратора – настройки – чтение – выбрать «Показывать заголовок «Похожее», чтобы визуально отделить похожее содержимое от записей». В каждой из ваших записей (не страниц) в самом низу текста появится блок «похожее» (аналдогичный блок вы увидите и внизу этой статьи).
  • Блок «новое» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Свежие записи». Никаких дополнительных плагинов для установки этого блока устанавливать не нужно.
  • Блок «популярное» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Popular Posts» или «популярные записи» (в моем случае я установил плагин WordPress Popular Posts ). Пример размещения данного блока вы можете видеть на моем сайте.

Классические ссылки и установка блоков помогут вам не только качественно настроить перелинковку страниц, но и обеспечат удобное использование вашего сайта его посетителями, что отразится на поведенческих факторах. А как мы знаем они играют далеко не последнюю роль в определении качества вашего сайта.

Правильно прописываем метатеги

Итак, мы подошли к еще одному интересному моменту поисковой оптимизации сайта – это метатеги. Их мы разделим на 3 части и о каждой я кратко расскажу:

  1. Title или название страницы, ее видит только поисковый робот и поэтому постарайтесь без воды максимально четко назвать вашу страницу. Иногда (почти всегда) название страницы полностью совпадает с ее заголовком и поэтому помните, что как название так и заголовок должны полностью отражать содержание дальнейшего текста в противном случае страница никогда не выйдет в топ. В заголовке в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  2. Description или описание страницы, его, как и название страницы, так же видит только робот поисковой системы, но из него так же формируется сниппет (небольшой кусок текста сформированной поисковой системой автоматически под заголовком вашего сайта и ссылкой на его страницу, выданной в при введении поискового запроса). Описание не должно быть большим и так же не должно быть маленьким – это всего 1-2 предложения не более 150 знаков описывающее суть текста. В описании в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  3. Keywords или ключевые слова – и этот параметр будет доступен только роботам поисковых систем. Минимум, что должно быть прописано, это хотя бы одно фокусное ключевое слово или фокусное слово и производные от него. Например: оптимизация сайта, сео оптимизация сайта, оптимизировать сайт, оптимизация сайта для продвижения. Плотность ключевых слов по отношению к тексту не должна быть более 1 к 300 (1 ключевое слово на 300 знаков текста). Если плотность будет выше, то можете получите фильтр за спам ключами. Если плотность будет ниже, то у вас просто будет меньше ключевых слов на конкретной странице. В данном поле не обязательно прописывать все имеющиеся в тексте ключи, можно указать только фокусное.

Немного подведу итог правильности написания метатегов:

  1. Фокусное ключевое слово (или фраза) должно быть одно, например «продвижение сайтов».
  2. Фокусное ключевое слово должно присутствовать в названии, описании, ключевых словах, хотя бы в одном заголовке странице и встречаться 1 раз в тексте. Можно использовать разные словоформы (употреблять в различных падежах).
  3. Дополнительные ключевые слова подбираться по принципу фокусное слово (или фраза) плюс еще одно слово, например продвижение сайтов в яндексе.
  4. На 300 знаков текста должно быть не более 1 ключевого слова или фразы.

В качестве совета рекомендую тем, кто использует Google Chrome установить плагин на браузер под названием RDS bar. С его помощью вы сможете просматривать не только метатеги сайтов конкурентов, но и проанализировать их качество.

Настройка RSS ленты

Если сайт написан на WordPress, то практически во всех темах, используемых для создания сайта, уже есть встроенная РСС-лента, найти ее можно так: ваш сайт/rss.xml, ваш сайт/feed.xml или как в моем случае ваш сайт/feed/ . Зачем нужна RSS-лента? Все очень просто. Существуют ресурсы, которые так или иначе будут парсить (забирать ее к себе на сайт) вашу ленту записей и для упрощения такого мероприятия прекрасно подойдет наша РСС-лента. Это нужно нам для того, чтобы совершенно бесплатно получать ссылки на наш сайт, при этом данного рода ссылки считаются естественными, что положительно скажется на продвижении интернет сайта и поможет хоть немного, но поднять его позиции.
Помимо положительных моментов в RSS-ленте, есть и отрицательные:

  1. Невозможно изначально отследить качество сайтов, размещающих ваши статьи у себя. Это могут быть как плохие, так и хорошие ресурсы, но в любом случае общий итог будет положительным, особенно если удастся транслировать свои записи в крупных ПС или на крупных порталах.
  2. Невозможно самостоятельно отсеивать не желательные для вас сайты. Единственное, что можно сделать в таком случае – это самостоятельно прогнать свой сайт через качественный агрегаторы, потому как они это вряд ли сделают за вас (описывать их в данной статье не буду, да и не зачем, так как они постоянно меняются, кто попадает под АГС, а кто-то нет).
  3. О том, что с вашего сайта кто-то парсит статьи вы узнаете только в момент обновления (апдейта) текстовой базы поисковой системы.
  4. Удаление ваших текстов с чужих сайтов – это самое проблематичное и трудоемкое занятие, так как вам нужно будет выйти на вебмастера того сайта и уже просить его удалить ваш текст.

Может показаться, что RSS-лента подойдет больше для продвижения сайтов блогов или новостных порталов, но это не так. На сегодняшний день большую роль играет контент и большинство сайтов продающих товары или услуги или еще что-либо не относящиеся к информационной тематике создают разделы, которые наполняются различными тематическими текстами. А чем больше будет естественных ссылок на эти разделы, тем больше пользы они принесут основным продвигаемым страницам, отдавая им свой честно заработанный вес.

Настройка трансляции записей и страниц сайта в социальных сетях

Трансляция записей вашего сайта – это один из способов не только ускорить индексацию и продвижение, но и получить массу бесплатных ссылок с одних из самых трастовых сайтов не только Рунета, но и мира. Рассмотрим варианты настройки таких трансляций:

  1. Самый трудоемкий способ – набивать анонсы статей в каждом из аккаунтов социальной сети вручную. Не самый лучший вариант провести свое время с пользой, поэтому заострять внимание на нем я не буду.
  2. Самый простой способ – настройка RSS-ленты через сайт rsstranslator.net (есть платная регистрация и бесплатная) с выводом трансляции в социальную сеть, а конкретно сразу в нужную вам группу. Способ очень прост и не требует настройки API для каждой из социальной сети. Регистрируетесь, вносите свои РСС-ленты в свой каталог, далее настраиваете с них трансляцию на вашу группу в соцсети (группу, аккаунт) и получаете ежедневное наполнение вашей группы в контакте. Для того, что бы аккаунт на РССтрансляторе не заблокировали нужно 1 раз в 6 месяцев заходить в свой личный кабинет на сайте, о чем система сама напоминает (очень удобно). Этот способ хорош еще и тем, что у вас не будет стоять плагина на сайте, который грузил бы ваш хостинг или сервер.
  3. Средний по сложности – установка специализированных плагинов на ваш сайт с тонкой настройкой API поисковых система для трансляции статей. Скажу честно, что лично я использую второй способ и не имею никаких проблем, поэтому описывать тонкости настроек приложений в данной статье описывать я не буду, но постараюсь уделить время написанию о, них в другой статье посвященной продвижению сайта через социальные сети.

Итак, в качестве примера настройки трансляции записей приведу свой сайт. Как вы видите в шапке у меня есть всего 2 иконки социальных сетей: vk.com и twitter. Вы спросите, а почему так мало? Лично мне этого хватает.
В РССтрансляторе я настроил 1 канал RSS-ленты со своего сайта (он же общий канал всех рубрик), далее я направил трансляцию с него в свою группу в контакте, а уже из группы в контакте настроил трансляцию в твиттер. Настройка из вконтакте в твиттер делается практически в 1 нажатие и не вызвало лично у меня никаких вопросов.
В итоге я получил ежесуточное автоматическое наполнение группы в контакте и аккаунта в твиттере, что положительно сказывается на продвижении позиций моего сайта с самого начала его написания. Дополнительно скорость индексации моих страниц снизилась со стандартных 4-5 недель в Яндексе до 1-2 недель, по Google страницы попадают в индекс уже в течение 1 суток.
Для начала работы по продвижению сайта, на мой взгляд, приведенной информации будет вполне достаточно, а об остальном вы сможете прочитать на страницах моего блога.



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows