Seo оптимизация для новичков от гугл. Как получить трафик с буржа? Регулярное написание новых статей

Seo оптимизация для новичков от гугл. Как получить трафик с буржа? Регулярное написание новых статей

04.11.2019

Согласно исследованиям Яндекса, доля Google в поиске на территории России занимает до 40%. Однако многие веб-мастера и оптимизаторы все внимание уделяют требованиям Яндекса и забывают про другой поисковик. Оптимизация сайта для Google имеет особенности, и высокие позиции в выдаче Яндекса не гарантируют ранжирование сайта в Google.

В 2018 г. при продвижение сайта в Google работайте в трех направлениях: мобильность сайта, качество ссылочной массы и качество контента.

Mobile First Index: мобильная версия важнее

Что это. По оценке Google, 60% поиска приходится на запросы с мобильных устройств, поэтому мобильная версия сайта для Google является более приоритетной, чем десктопная. В скором будущем именно мобильная версия будет для поисковика основной. Google уже изменил алгоритм ранжирования сайтов, но окончательный переход к новому типу индексацию займет пару лет.

Виды мобильных сайтов. Сайт может иметь только десктопную версию, отдельную мобильную версию или адаптивный дизайн. Если у сайта только десктопная версия, Google будет показывать в мобильном поиске ее, но позиции сайта будут постепенно ухудшаться. Специалисты Google советуют создать мобильную версию или адаптивный дизайн, чтобы не вылететь из индекса. Если сайт имеет две версии: десктопную и мобильную вида m.domain.ru - проверьте совпадает ли контент на обеих версиях. Он не обязан быть абсолютно одинаковым, потому что мобильные сайты имеют технические ограничения. Но контент и метатеги должны быть эквивалентными - совпадать по смыслу и содержанию. Владельцам сайтов с адаптивным дизайном, ничего делать дополнительно не нужно.

Чек-лист мобильной версии:

Конверсия. Однако в мобильном интернете пользователи вводят информационные или навигационные запросы, а заказывают все также на десктопах.Поэтому продумайте, как упростить процесс совершения заказа на мобильных устройствах. Если пользователь нашел магазин, когда был онлайн в телефоне, но не готов сделать заказ, не теряйте с ним связь. Предложите подписаться, присоединиться к группе в соцсетях или предложите скидку, чтобы агитировать покупателя вернуться на сайт, когда он будет за десктопом.

Rank Brain: качество контента

Что это. Это текущий алгоритм поисковой системы Google, который создан на основе искусственного интеллекта и машинного обучения. Алгоритм сравнивает качество каждого сайта с ресурсами в топе поисковой выдачи. Для того, чтобы пользователь на поисковый запрос получил наиболее релевантные сайты, Rank Brain учитывает историю поиска, регион и текущие тренды.

Анализ контента. Rank Brain анализирует текст по тематике и синонимам. Контент может не содержать слова из поискового запроса, но быть в топе по этому запросу, потому что он максимально полно на него отвечает. Старый метод продвижения страниц, при котором создавались тексты, похожие на тексты в топе выдачи со множеством ключей, больше не работает в Google. Не включайте в статьи более 30% контента, который уже содержится на других сайтах.

Google ждет новой информации, поэтому обновляйте старые тексты. Для этого исправляйте устаревшую информацию, дописывайте новый раздел или несколько абзацев с использованием ключей, добавляйте новые факты. Обновленный материал отправляйте в панеле вебмастера на переобход поисковым роботом.

Новые интересы. Ежедневно Google обрабатывает до 3,5 млрд поисковых запросов. Пятую часть из них составляют новые запросы, которые ранее не вводились пользователями, поэтому оптимизация сайта под Гугл должна строиться не от трендов, а от интересов пользователей. Ищите новые запросы в оффлайне и создавайте контент под них заблаговременно. Когда люди начнут искать ответ на вопрос в интернете, у вас уже будет проиндексированный контент. Чтобы найти новые интересы клиентов, проводите опросы целевой аудитории, собирайте статистику вопросов в call-центрах и в отделах продаж.

Чтобы оптимизировать сайт под голосовой поиск, подключите Accelerated Mobile Pages (AMP). Чаще всего голосом пользователи ищут информацию на телефоне, поэтому сайты должны открываться мгновенно. Проверьте скорость загрузки сайта и снизьте ее при необходимости, потому что загрузка более 3 секунд недопустима. Как это сделать, читайте в материале « ». Если сайт долго грузится, подключите AMP. Рассказывали об этой технологии в статье « ».

Избранные сниппеты - это быстрые ответы на поисковые запросы. Google показывает подготовленный текст или фрагмент текста, который дает ответ на открытый вопрос или информацию о факте. В статьях старайтесь точно и кратко отвечать на запрос пользователя. Длинные тексты разбивайте логически по экранам, структурированный контент разделяйте на разделы. Поисковому роботу станет проще выделить нужную информацию и показать ее в результатах поиска.

Description. Обновите дескрипшн, чтобы текст в нем работал для людей, а не для роботов. Пишите дескрипшн после индексации страницы, когда по ней соберется минимальная статистика. Проанализируйте, по каким именно запросам поисковик показывает страницу. Затем напишите текст, привлекательный именно пользователям с этими запросами, длиной 250-300 символов. Включите в него эмодзи и призывы к действию, чтобы увеличить кликабельность сниппета.

У поисковой системы Google свои требования к качеству сайтов и если ваш сайт будет всецело отвечать им — высокие позиции в поиске Гугла вам обеспечены. Оптимизация под Google имеет свои особенности и немного отличается от , но основное сходство по оптимизации в том, что продвигаемый сайт должен быть качественным и сделанным для людей. Особое внимание при оптимизации под Google должно уделяться уникальности материалов, будь то тексты или изображения.

Многие пытаются сравнивать . Поскольку конкретные запросы поисковиков различаются, сопоставление методов оптимизации вряд ли даст положительные результаты. Оптимизация сайта в Google должна проводиться с учетом конкретной поисковой системы.

Гугл полна нюансов. О них попытаемся рассказать в данной статье. Работу над продвижением начинают, как правило, с индексации и повышения позиций. Поскольку ручное добавление сайтов в систему не предусмотрено (в отличие от Яндекса, Рамблера), можно пойти иным путем и добавить на него несколько ссылок с других ресурсов схожей тематики.

Google не только известная, но и динамичная поисковая система, которая моментально реагирует на сайты, ссылки и быстро индексирует их. Это говорит о том, что если вас интересует оптимизация сайта под Гугл, при правильной раскрутке занять высокие позиции в выдаче можно намного быстрее, чем при их раскрутке под другие поисковые системы.

На положение страницы в результатах поиска по фразе влияют как минимум три фактора:

1. PageRank — показатель используемый и присваеваемый компанией Google, который существует для определения популярности конкретной страницы конкретного сайта в сети интернет.

2. Оптимизированность страницы под определенную фразу (плотность фразы, наличие фразы в различных заголовках и тегах). Самым неправильным будет пытаться оптимизировать свой сайт под односложный и популярный поисковый запрос. К примеру «seo», «автомобили», «цветы» и т.д. Почему плохо выбирать такие слова? Большая конкуренция и очень трудоемкая работа по продвижению при том, что трафик, который вы получите в случае успеха далеко не всегда будет целевым. Правильнее даже сказать, что он будет на 90% мусорным. Проще и эффективнее выбирать многосложные запросы. К примеру «покупка автомобилей в Киеве», «доставка цветов в Москве» и т.д.

3. Ссылочное ранжирование. Cуществуют и, соответственно, который увеличивается с ростом числа прямых ссылок на ваш сайт с внешних ресурсов. Кроме того, грамотное расположение внутренних ссылок (с главной ссылки на подразделы, с подразделов — на главную и на под-подразделы, и т. д.) ведет к перераспределению , что может увеличить PR главной страницы. Стоит учитывать еще и то обстоятельство, что при такой системе можно увеличить PR главной страницы и без ссылок с других ресурсов, увеличивая число страниц сайта.

Как оптимизировать сайт под google.

Возраст. Ни у кого не возникает сомнений, что гугл любит старые домены. Но нам это ничего не дает. Просто, чем старше будет становиться сайт, тем больше доверия он получит.

Входящие ссылки. Тут все понятно и без объяснений. Хотя нельзя сказать, что это важно только при оптимизации под Google. Любая ПС будет значительно больше доверять сайту, который имеет ссылки с авторитетных ресурсов. Кстати, обратите внимание, что гугл больше ценит так называемые «сквозняки», а Яндекс «морды».

Исходящие ссылки. А вот здесь отличия от Яндекса налицо. Яша делит все на черное и белое, то есть, если исходящих ссылок много, да еще и на различные ГС, сайт попадет под АГС. В Google фильтра может и не быть, но PR обнулят. Соответственно, уровень доверия упадет, а вместе с ним и позиции. Из чего следует, что продвижение в гугл и продажа ссылок в Sape несовместимы.

Переоптимизация. Некоторые настолько сильно хотят попасть в ТОП, что игнорируют все разумные пределы и перенасыщают страницу ключами. А что есть такое понятие, как оценка стоимости запросов, вообще забывают. В итоге – фильтр и занижение позиций. Запомните, текст нужно писать для людей, а уже потом для ботов. Тогда и посетители будут довольны и позиции не упадут.

Внутренняя перелинковка. О том, как правильно ее делать и что можно получить в итоге, читайте в статье «Внутренняя перелинковка для продвижения по НЧ». Применительно к гуглу можно добавить, что таким образом можно PR некоторых страниц. Правда, апа давно не было.

Дубли страниц. Их не любит ни одна ПС. Правда, в Яндексе они нужны для торговли ссылками, а в Google толку от них никакого, зато вред есть.

Title. Он играет огромную роль . Никогда не оставляйте это поле пустым и не заполняйте общими фразами. Title должен обязательно включать ключевик, причем, чем ближе к началу, тем лучше.

Description, Keywords. Не нужно слушать всех тех, кто говорит, что Google их вообще не учитывает, и нет необходимости их заполнять. Это займет у вас всего пару минут, зато потом не придется волноваться, а правильно ли вы поступили? Только не пишите в keywords все, что сможете придумать. Достаточно 2 – 3 ключевика, под которые заточена страница.

акцентирования . Большинство вебмастеров ограничиваются заключением названия поста в тег

, но, при оптимизации сайта под гугл нужно использовать h2, h3. Особенно, если текст большой. Это понравится не только ПС, но и пользователям, ведь читать его будет легче.

Карта сайта . Это вы хорошо знаете структуру своего сайта и прекрасно в нем ориентируетесь, а остальным может потребоваться помощь. Не ленитесь, уделите пару минут своего времени и настройте . Причем, ссылка на нее должна вести с каждой страницы. Говорят, гугл это любит.

Время пребывания на сайте . Прошло то время, когда можно было напихать в текст ключевиков и вылезти в ТОП. постоянно совершенствуются и уже анализируют куда более сложные параметры. Хотя это все только догадки и теория, но все же. Чем больше времени посетитель проводит на сайте, тем больше его полезность.

Контент. Что бы там не говорили, но уникальность контента имеет чуть ли не ключевое значение. Именно из-за него мой сайт и упал в выдаче. Хотя воровали посты у меня. Поэтому, никакого копипаста и дешевого рерайта, только уник!

Количество страниц в основном и дополнительном индексе. Буквально на днях Сосновский проводил эксперимент по извлечению страниц из дополнительного индекса в основной. Ну а то, что в основном индексе должно быть как можно больше страниц я думаю и так понятно.

Наличие файла robots.txt. В файле прописываются параметры индексирования сайта роботами различных поисковых систем. Он может регулировать работу конкретной поисковой системы или всех вместе.

Наличие оптимизированных заголовков и мета тегов. При этом каждый заголовок должен точно соответствовать содержанию страницы, к которой он относится.

Простота навигации и иерархии. Нужно упростить переходы по сайту от общего к более специфическому, но разбивать существующий контент на множество подкатегорий все же не стоит.

Почему Google отправляет в бан.

наличие одинакового заголовка для всех страниц или заглавий, не имеющих прямого отношения к содержанию конкретной страницы. Каждая из них должна иметь свой краткий информативный заголовок, соответствующий ее содержанию.

наличие в тегах description описания , состоящего из ключевых слов, такого, которое не соответствует содержанию либо одинакового описания для всех страниц.

представление одной и той же страницы на разных уровнях сайта это может повлиять на отправку сайта в бан.

дублирование контента. Если окажется, что на двух или нескольких страницах отражается один и тот же контент, робот сочтет его за неуникальный.

копирование или генерирование контента. Обнаружив генерированный контент, Гугл активно пессимизирует ресурс.

неправильное описание в мета тегах. Они должны соответствовать тематике сайта и содержанию конкретной страницы.

неупорядоченность URL. Когда на одну и ту же страницу ведут разные URL, ценность контента «разделяется» на две части.

множество ссылок с различных низкопробных сайтов. Хотите роста, не превращайте ресурс в линкопомойку.

Каждый сеошник Вам скажет, что план мероприятий по продвижению любого проекта начинается с оптимизации сайта под поисковые системы. Поисковым роботам должно быть удобно индексировать Ваш сайт.

Страницы должны быстро грузится и сайт должен корректно отображаться на всех моб. устройствах и браузерах.

Этот вид оптимизации сайта относится к белому сео и обязателен для любого успешного проекта!

Итак, начнем скучную, но полезную процедуру!

Спешить будем медленно и все делать по шагам!

Предлагаю начать оптимизацию сайта под Google

На сегодняшний день юзеры могут выбирать, какой именно поисковой службой пользоваться. Но ни для кого не секрет, что среди поисковиков есть реальные лидеры. Одним из них является компания Google. И если вы решили заняться сео-раскруткой своего веб-сайта, сделайте упор на эту поисковую систему.

Среди сеошников ходят упорные слухи что если б Гугл захотел, то давно бы потеснил Яндекс в Рунете.

Не знаю, мне кажется хорошо, что есть разумная конкуренция и эти два монстра в своей борьбе дарят нам все больше хороших бесплатных инструментов для работы.

И все же почему именно под Google?

Существует много аргументов того, почему желательно ориентироваться именно на этот сервис.

Во-первых , Гугл - это поисковик №1 по всему миру.

С его помощью ищут информацию жители всех уголков нашей планеты. В Америке, Европе, Азии, Австралии, Африке и даже в холодной Антарктиде люди пользуются интернет-паутиной посредством Гугл.

Во-вторых, все слыхали выражение ПОГУГЛИТЬ. Гуглом пользуется преимущественно молодое поколение. То есть, оптимизировав свой ресурс под эту службу, вы охватываете наиболее перспективную часть населения, которая принесет вам прибыль.

В-третьих, Google регулярно обновляет базы выдачи. В перечне ресурсов появляются самые последние новинки, которых придется ещё долго ждать на других поисковиках. Страницы вашего веб-портала быстро про индексируются. Значит, сайт при правильном подходе продвижения, в самом скором времени займет первые места среди наиболее популярных конкурентов. А что ещё нужно владельцу Интернет-ресурса?

Вот два сервиса Гугла которые стоит взять в закладки и регулярно проверять свой сайт и все новые страницы и статьи, если хотите, чтоб они выходили в ТОП.

1.PageSpeed Insights или как его обычно называют новички developers-Google- сервис проверки скорости загрузки страниц сайта.

Почему нужно проверять постоянно, да еще и новые страницы-спросите вы!

Все просто алгоритмы проверки все время совершенствуются, а новые страницы имеют новый контент и новые изображения которые наверняка нужно оптимизировать.

Начнем с первого сервиса.

Сервис выдает результаты по 100-бальной системе и плюс еще условно делит на световые сектора.

посредством Гугл.

Я буду ускорять свой сайт WP-home.info который я использую для своего видеокурса –Сайт на WordPress

Сейчас у него довольно скромные-красные результаты всего

55 бал для мобильных и 62 для компьютеров. В целом со старым шаблоном они были еще хуже, тут хоть какие то балы дает неплохая тема от мастера Гудвина.

Я не буду стремится к сотне балов, достаточно вый ти на зеленый цвет.

Довольно часто достичь сотки мешают скрипты и стили плагинов. Можно покопать это дело вручную и почистить, но я считаю это лишним мазахизмом.

Хотя на вкус и цвет –каждому свое!!!

1. Включаем оптимизацию сайта на сервере.

Почти все современные хостинги позволяют включить на стороне сервера gzip сжатие, некоторые вообще по умалчиванию включают.

Проверить включена ли у вас эта функция можно вот по этой ссылке

Включена отлично нет сжатия значит стоит его включить.

Если Ваш хостинг использует Сипанель для управления хостинга находим вкладку оптимизировать сайт и жмем.

Уже после этого шага у Вас улучшатся показатели скорости загрузки сайта.

2. Включаем кеширование на стороне браузера.

Закешировать файлы можно несколькими способами, я даю тот который работает у меня на сервере.

Для этог открываем файл.htaccess и вставляем туда такой код.


# Все html и htm файлы будут храниться в кэше браузера один день

Header set Cache-Control «max-age=43200»

# Все css, javascript и текстовые файлы будут храниться в кэше браузера одну неделю

Header set Cache-Control «max-age=604800»

# Все флэш файлы и изображения будут храниться в кэше браузера один месяц

Header set Cache-Control «max-age=2592000»

Если не поможет пишите в комментариях предложу другие способы как закешировать файлы

После того как закачаете новый файл.htaccess на сервер можете проверить сайт на спидтестере, наверняка позиции подросли.

НО может показать что не все файлы и скрипты кеширыются на стороне браузера.

Это файлы всевозможных пузомерок типа Гугл аналитики и Яндекс-Метрики.

Теоретически есть способы и их загнать в кеш, но особого результата это не даст.

Если проверим те же сайты Гугла и Яндекса то увидим там похожую картину с внешними скриптами.

3. Ставим связку хороших кешириющий плагинов.

Первый-WP Fastest Cache

Как по мне это лучший из всех, имеет платную версию, но нам достаточно и бесплатной.

В платной есть функции оптимизации HTML и скриптов.

Мы эти функции добавляем плагином Autoptimize

Как настроить данные плагины я показал в видео.

В статье прилаживаю скрины настроек как у меня. Но рекомендую поколдовать и попробовать различные варианты т.к. у всех разный набор плагинов и разные темы WordPress.

Все настройки мне в рисунок не влезли. Вот прилагаю полный список настроек, которые рекомендую отметить, плагина Autoptimize

Оптимизировать код HTML?

Оптимизировать код JavaScript?

Look for scripts only in ? (deprecated)

Оптимизировать код CSS?

Save aggregated script/css as static files

Мне же достаточно и 1,2 и 4

По идее самая противная запись -Удалите код JavaScript и CSS, блокирующий отображение верхней части страницы

Должна уйти.

НО! Если Вы используете липкое меню или плагин фиксированный виджет, то они работать не будут!

Тут уж стоит выбирать! Я, к сожалению, решил что липкое меню и виджет важнее.

Пришлось пожертвовать пунктом -Look for scripts only in ? (deprecated)

4. Оптимизируем изображения, скрипты и CSS файлы.

Самый простой способ это взять готовые которые предложит Вам сам Гугл.. Ниже результатов проверки Вы увидите ссылку по которой можно скачать готовые оптимизированные изображения.

Доброго времени суток, уважаемые читатели. На прошлой неделе, 1 апреля, в официальном блоге Google была опубликована заметка о том, что Руководство по поисковой оптимизации для начинающих переведено на русский язык.

Я очень рекомендую всем скачать руководство к себе на компьютер, оно должно стать вашей настольной книгой. Само руководство небольшое, всего 32 страницы и читается на одном дыхании. Конечно, вы не найдете там секретов, как попасть в ТОП Google, многие рекомендации вы уже и сами знаете, но есть моменты, на которые просто необходимо обратить внимание.

Я не собираюсь в этой статье переписывать руководство, но решила обратить внимание на некоторые рекомендации, потому что, как мне показалось, эти рекомендации редко встречаются в блогах SEO-тематики.

Итак, повторюсь, эта статья - не перепечатка руководства, его вы должны прочитать обязательно сами, в этой статье я выделю некоторые мысли, которые на мой субъективный взгляд редко обсуждаются в различных seo-статьях.

Структура статьи больше тезисная, т.е. я просто буду перечислять некоторые из рекомендаций своими словами и дополнять своими мыслями и примерами.

*****

Первое, на что хочу обратить ваше внимание – это структура сайта и URL страниц. Google уделяет этому вопросу очень пристальное внимание. Я знаю, очень часто, вебмастера, продумывая структуру сайта и структуру URL, убирают из адреса страницы рубрику, в которой она находится. Особенно, это очень актуально среди блоггеров на WordPress. Например, на сайте есть рубрика Оптимизация, а в этой рубрике находятся статьи про оптимизацию. Очень часто из URL статей удаляют название рубрики, т.е. ссылка получается вида:

http://mysite.ru/statya-pro-optimizatciu

По мнению Google это неправильно!

URL статьи про оптимизацию должен быть таким:

http://mysite.ru/optimizatciya/statya-pro-optimizatciu

Т.е. внутри URL должна быть заложена рубрика, к которой относится статья. Google говорит об этом в нескольких главах, поэтому, считаю, это очень важно для внутренней оптимизации сайта под Google.

Почему это так важно?

Основная причина в том, что это удобно для ориентации пользователя, чтобы посетитель понимал, где он находится, и убрав часть URL мог гарантированно оказаться, как следует из моего примера, в рубрике, т.е. в том месте, к чему относится данная статья.

Вторая причина, заключается в том, что, как пишет Google, поисковая система должна понимать, для чего создана и существует каждая отдельно взятая страница, какую роль играет и что несет пользователю. Теперь представьте, когда мы убираем из URL рубрику, то для поисковой системы сразу становится непонятно, а зачем вообще была создана эта страница, какую роль она играет, если ее выкинули из адреса, да и ещё она никогда не бывает уникальной, т.к. содержит анонсы статей, которые своими URL относятся не к ней, а к главной.

Какова оптимальная глубина вложений? Мы знаем, что для удобства пользователей, любая страница на сайте должна быть доступна в 2-3 клика. Если взять максимально – 3 клика, то и считайте.

  1. Главная – Рубрика – 1 клик
  2. Рубрика – Подрубрика – 2 клик
  3. Подрубрика - Статья – 3 клик

Значит, допустимая максимальная вложенность должна быть такой:

Но при этом помните, что URL не должно быть слишком длинным.

И главное, структура сайта и URL должны быть строго упорядочены, чтобы любому пользователю было понятно, где именно он находится, и как попасть туда, куда он хочет. Поэтому Google рекомендует делать так, чтобы у пользователя была возможность удалить часть URL и не попасть на 404 страницу. Т.е., как из примера выше,

если пользователь, находясь на странице статьи, захочет перейти в подрубрику или в основную рубрику путем удаления части URL, то он гарантированно должен попасть в подрубрику или рубрику.

*****

Понравилась мне рекомендация по созданию навигации на сайте. Любую навигацию Google рекомендует начинать делать с главной страницы именно потому, что чаще всего пользователи попадая на сайт, начинают с ним знакомиться и искать информацию с главной страницы. Т.е. смысл в том, что, когда вы начинаете думать, какие рубрики делать и как их отображать, исходите из того, что пользователь попал на сайт на стартовую страницу и начинает искать материалы по интересующей его теме. Как он будет мыслить, что ему будет нужно – представить все это и сделать, в этом заключается задача вебмастера.

*****

Как мы знаем, в Яндекс Вебмастер можно задать регистр букв в URL. Так вот Google не рекомендует это делать, мотивируя это тем, что пользователи интернета привыкли к маленьким буквам в ссылках.

*****

*****

Следующая рекомендация, на которую советую обратить внимание, это использование анкорного текста в ссылках. Например, для Яндекс естественные ссылки считаются такого вида , а вот для Google ссылка должна быть такой , т.е. анкор ссылки должен четко передавать суть, куда ведет ссылка. Это касается абсолютно всех ссылок, как внутренних, так и внешних.

Объясняется это опять с точки зрения пользователя, посетитель сайта должен знать, куда он переходит, а голый URL не всегда своим видом показывает, о чем страница, на которую ведет ссылка.

*****

Хочу обратить внимание на следующую рекомендацию Google. На многих сайтах есть два вида изображений, например, одни изображения используются в статьях, и находятся в папке img, другие изображения используются в галереи, и, как правило, создается отдельная папка, например, gallery. Так вот с точки зрения google это не лучший вариант, поисковик рекомендует держать все картинки в одной папке. В таком случае, как я вижу, выход может быть только в том, чтобы создавать папку gallery в папке img.

В общем, следите за тем, где находятся все ваши изображения. Также, стоит уделить внимание созданию отдельного файла sitemap.xml для изображений.

*****

Очень интересной рекомендацией мне показалось то, что, если есть такая необходимость, то от поисковой системы можно скрывать какие-то куски текста на странице, при этом показывая их пользователям, но категорически запрещено скрывать от пользователей текст, при этом показывая его поисковому роботу.

*****

В общем, это никогда не было секретом, но Google подчеркивает, что, если вы ссылаете на сомнительный ресурс, то это может повлиять на репутацию вашего сайта.

Интересно, если же наоборот, ссылаться на качественный ресурс, это отразится на репутации в положительную сторону? Вполне может быть и так.

*****

Отдельной темой Google уделяет большое внимание мобильной версии сайта.

Современный сайт, по мнению этой поисковой системы не может быть без мобильной версии.

Объясняется, естественно, это тем, что много пользователей выходят в интернет с мобильных устройств, и мы обязаны о них подумать, предоставив мобильную версию своего сайта.

Поэтому, вполне может быть и такое, что установив на свой сайт мобильную версию, Google расценит это, как забота о пользователе, прибавит сайту энное количество очков, из-за чего сайт поднимется в поисковой выдаче. Конечно, об этом мы можем только догадываться, но, чем черт не шутит. Ведь прямо Google не может заявить, что это один из факторов ранжирования, но если рекомендует, то стоит к этому прислушаться.

*****

Если компания, имеющая сайт, оказывает услуги в каком либо регионе, или имеет офис/магазин, куда приходят посетители, то Google рекомендует свой сервис Google Адреса. Хочу сказать, ещё не многие коммерческие организации используют этот сервис. В зависимости от запроса в результатах выдачи всегда показывается карта с найденными адресами, которые ближе всего находятся к пользователю.

Вот пожалуй и все, на что я хотела обратить ваше внимание из руководства по поисковой оптимизации для начинающих. При внимательном прочтении становится понятно, что всеми возможными средствами Google пытается донести одну единственную мысль – сделайте полезный интересный ресурс для пользователя, для своего посетителя.

Чем больше вы будете думать о своей аудитории, тем лучше Google будет относиться к вашему сайту.

И никогда не будет лишним следить за , ведь именно по ним в первую очередь мы можем проанализировать, на сколько наш сайт интересен пользователям, сделать какие-то выводы на основе анализа, ну а если вы захотите попытаться повлиять на поведенческие факторы, то вам может быть полезна статья Руководство по продвижению сайта за счет поведенческих факторов опубликованная в блоге Денисова Дмитрия.

Ещё раз повторюсь, обязательно скачайте это руководство и прочитайте - это интересно и полезно!

Удачи в продвижении.

Для многих редакций вопрос о том, как донести нужный контент до целевой аудитории, все еще стоит остро. Решений, конечно, много, но одно из основных - улучшить тактику оптимизации под поисковую систему Google.

Как бы ни старались издания привлечь читателя, и какова бы ни была их тематика, многим весьма непросто вызвать у целевой аудитории живой интерес и заставить ее взаимодействовать с контентом - а все потому, что издатели не смогли учесть принципиальные изменения, произошедшие за последнее время в области потребления информации.

Как известно, большая часть газет сдает позиции на онлайн-поле. Еще в 2009 году исследование NAA/Nielsen показало, что газеты занимают лишь один процент всего объема американского интернет-трафика, и с тех пор их доля на рынке упала еще ниже. Работающие по старинке новостные агентства оказались в незавидном положении, и рассчитывать им особо не на что.

Но надежда еще есть. Для большинства роковой час пока не пробил - газетчики все еще могут побороться за трафик, если уделят внимание технологиям поиска, причем не только социального.

Поисковая оптимизация новостного ресурса - зачастую непростая задача. Это не то же самое, что оптимизировать сайт для небольшого SaaS-компании или крупной площадки онлайн-торговли. Новостные агентства ежедневно и еженедельно выпускают значительные объемы контента, так как от объемов зависит успех: чтобы оставаться конкурентоспособными в перенасыщенной информацией среде, сайтам приходится повышать производительность и освещать все значимые общественные события. По крайней мере, так рассуждают большинство издателей. В реальности же ситуация часто оказывается иной.

Увеличение объемов не повысит интерес читателей к самому контенту. Главное здесь - соблюсти идеальный баланс между тем, чтобы, с одной стороны, поддерживать высокий журналистский стандарт и предоставлять читателю важные новости, а с другой - учитывать ту цель, с которой люди обращаются к поиску, и максимально использовать ее для расширения аудитории.

Вот несколько неочевидных замечаний о том, как новостные ресурсы могут улучшить свою видимость в поисковой системе Google:

Совершенствование структуры сайта

Большая часть информации, генерируемой новостными сайтами, носит срочный характер и скорее привлечет больше трафика из поиска, чем со статических страниц. Чтобы удержать как можно более высокую ссылочную ценность (link equity) - обычно ее генерирует главная страница - структура сайта должна позволять поисковым механизмам и пользователям добираться до архивного контента в минимум кликов. Впрочем, ссылочную ценность должны иметь и новые страницы.

Веб-архитектура - самое важное, о чем должны позаботиться издатели, потому что от нее напрямую зависит, как поисковый механизм будет сканировать и обрабатывать сайт и какое место присвоит его страницам на странице результатов поиска. А чтобы равномерно распределить ссылочную ценность, нужно обратить внимание на следующие аспекты:

Пагинация - это метод навигации по сайту, наиболее широко распространенный в мире веб-торговли. Так называется практика разбивки ссылок и сегментации контента по разным страницам, влияет на SEO, функционирование сайта и на опыт пользователя в целом. Пагинация отразится и на архитектуре сайта, и на том, как ссылочная ценность распределяется по всему домену. Новостному ресурсу, часто публикующему много нового контента и создающему новые страницы, нумерация поможет включить старые статьи в соответствующую категорию на исходной странице и тем самым облегчить читателю доступ к ним.

Внутренние ссылки помогут улучшить архитектуру сайта. Для не знакомых с термином: внутренние ссылки связывают между собой две страницы одного и того же домена, и они полезны с точки зрения навигации и поддержания стабильного информационного потока как на микро-, так и на макроуровне. Кроме того, они понижают так называемый показатель выходов - а для Google это знак: если читатели проводят на сайте больше времени, то он действительно важен и полезен им.

Категории и тэги. Категории нужны, чтобы группировать между собой разные материалы, в то время как тэги описывают конкретные детали, встречающиеся в статье. И то и другое поможет логично организовать контент, чтобы он был доступен как пользователям, так и поисковикам. Четкая разбивка на категории - вещь для новостного сайта совершенно необходимая. Большинству читателей интересны отдельные темы, они не хотят пролистывать дюжины страниц, чтобы добраться до искомой информации.

Карта сайта. Как было отмечено выше, на новостных сайтах всегда очень много страниц, поэтому разместить их все в паре кликов от главной непросто. Однако если сделать индекс в виде списка, то на одной странице может уместиться до сотни ссылок. Это позволит расположить недалеко от главной множество других страниц, а также даст возможность классифицировать ссылки по тэгам, темам, или другим способом так, чтобы читателям было удобнее пользоваться сайтом.

Оптимизация контента под поисковые системы

Журналистам и издателям приходится делать свою работу в сжатые сроки, а новостные редакции существуют в режиме перманентного дедлайна. В такой обстановке критичны скорость и точность. Если спросить редакторов и журналистов, они скажут, что у них нет времени подыскивать привлекательные ключевые слова и оптимизировать контент по последнему слову SEO.

Но стоит оценить выгоду, и ключевые слова придут сами. Чтобы делать материалы по принципам SEO, необязательно тратить на этот процесс драгоценные часы.

Независимо от того, насколько хорош контент, написание и публикация статей - только первый шаг. Если вы хотите наверняка знать, что тексты дойдут до целевой аудитории и люди их обнаружат, нужна оптимизация для поиска.

Хотя большинство издателей до сих пор опираются на социальные сети в продвижении материалов, многочисленные исследования подтвердили, что по сравнению с соцсетями поиск выигрывает на целых 300 процентов ! Невероятно, но сейчас Google обрабатывает по 3,5 миллиона запросов в день, что соответствует 40 тысячам запросов в секунду или 1,2 триллиона запросов в год по всему миру.

Люди предпочитают поисковые системы. Когда им нужна информация по определенной теме, большинство пользователей сегодня первым делом преобразуют свои мысли в ключевые слова и вбивают их в поиск Google. Поэтому онлайн-журналисты и редакторы правильно поступают, рассматривая оптимизацию как необходимый инструмент связи с более широкой и заинтересованной аудиторией.

Времена, когда оптимизацией злоупотребляли, и тексты были буквально нашпигованы ключевыми словами, теперь остались только в неприятных воспоминаниях. Начиная с последнего обновления алгоритма Penguin в 2012 году, Google наказывает недобросовестных сайтовладельцев, использующих спам и другие устарелые приемы, чтобы занять почетное место среди результатов поиска. Это хорошая новость для журналистов. Им не нужно прибегать к оптимизации в ущерб базовым ценностям: писать они продолжат для людей, а не для машин.

Современные SEO-технологии придуманы не с целью понизить качество текстов, а чтобы помочь журналистам и редакторам более эффективно удовлетворять запросы онлайн-аудитории. Если они хотят взаимодействовать с пользователями через поисковые механизмы, стоит учитывать следующие факторы:

Ключевые слова. Адаптировать тексты и заголовки под ключевые слова одинаково важно абсолютно для всех, кто публикуется в интернете. Следует разобраться с ними еще до того, как начать писать, - это даст более четкую картину информации, которую ищут читатели.

Ссылки. Самому популярному в мире поисковому механизму ссылки нужны, чтобы получить доступ к вашему контенту и проанализировать его. Google-ботам они помогают оценивать релевантность сайтов и страниц , а журналистам - приводить источники и ссылаться на старые статьи для контекста. Ссылки дают пользователям дополнительную информацию, чтобы свободнее ориентироваться в конкретной теме.

Формат. Читатели в интернете по своим привычкам и предпочтениям отличаются от потребителей печатной продукции. Современные пользователи привыкли к относительно мелким, легко усваиваемым порциям контента - с опорой на короткие предложения, списки основных тезисов, подзаголовки и ясный стиль изложения: так легче извлекать из текста нужные сведения. Что касается самого контента, то списки и рейтинги зачастую эффективнее, хотя многие журналисты и презирают такой формат.

Тонкости Google News

Google News - огромный источник трафика: оттуда каждый месяц по всему миру более шести миллиардов кликов приводят пользователей на новостные сайты. Занять хотя бы маленькую нишу в этом массиве - большой успех для любого издания.

Эта платформа синдикации контента создана с единственной целью - упорядочить всемирные сводки новостей и сделать их доступнее для пользователей. Как и во всем, что касается Google и его сервисов, здесь есть свой набор определенных принципов и полезных практик, которых нужно придерживаться (или хотя бы принять к сведению) издателям, чтобы оказаться на этой площадке и получить преимущество перед конкурентами.

В статье The Search Engine Journal приведен исчерпывающий список всех правил для желающих разместить свой контент на Google News. Отвечающие стандартам качества материалы должны быть оригинальными и актуальными по форме и содержанию, но требования предъявляются и к некоторым техническим элементам сайта.

Оптимизация под Google News - это по большей части создание гладко работающей карты сайта в формате XML, простой, функциональной и не перегруженной контентом. Домен должен быть доступен для Google-ботов, содержимое сайта - только в формате HTML, URL-адреса и «якоря» должны быть уникальными и давать представление о контенте, опубликованном по конкретному адресу.

Интерфейс Google News опирается на тематические кластеры, поэтому будет лучше, если авторы новостей организуют свои материалы именно так.

Оптимизация для мобильных устройств

Еще в ноябре 2016 года Google анонсировал обновление в системе индексации по принципу mobile first: поисковый механизм будет анализировать мобильные версии сайтов, перед тем как определить их позицию в результатах поиска. На сегодняшний день индексация mobile first работает полным ходом. Издателям необходимо приложить все усилия, чтобы как можно быстрее адаптироваться к новым условиям.

Если они хотят сохранить поступающий с Google трафик и удержать свои позиции, стоит оптимизировать мобильные версии наряду с десктопом. В Google во всеуслышание заявили, что мобильные версии теперь важнее - и это вполне естественно, так как совпадает с переменами в поведении пользователей: фокус смещается с настольных компьютеров и ноутбуков на мобильные устройства.

Чтобы оставаться конкурентоспособными в мобильную эру, новостные ресурсы прежде всего должны делать ставку на адаптивный дизайн.

Мобильный сайт и сайт с адаптивный дизайном - совсем не одно и то же. Последний предполагает динамический контент, адаптирующийся под разные гаджеты, а также автоматически регулирующиеся отступы, пробелы и расположение картинок. Конфигурация зависит от операционной системы, а при гораздо менее гибком базовом дизайне ОС не принимается в расчет, и мобильный пользователь получает статичный контент и сжатые изображения - результат оставляет желать лучшего.

Кроме адаптации сайта, обратить внимание следует и на тексты: они должны быть отредактированы так, чтобы хорошо отображаться и на маленьком, и на большом экране. Журналистам не стоит писать длинными предложениями, абзацы тоже лучше делать короткими. Другое полезное решение - AMP-страницы (accelerated mobile pages, ускоренные мобильные страницы). Google News, в частности, предпочитает именно такой вид страниц. Эта упрощенная форма HTML загружается быстрее и облегчает доступ с мобильных устройств.

Избегайте копий

Воспроизведение контента - частая практика в мире новостей, находить и перепечатывать интересные статьи с других доменов на своем сайте стало привычным делом. Разумеется, публикаторы цитируют источник и упоминают исходного автора, однако они не представляют, насколько пагубно такая привычка может отразиться на рейтинге в поиске.

Если вы размещаете скопированные материалы в надежде обойти рейтинговую систему и украсть трафик у конкурентов, Google внесет необходимые поправки в рейтинг и индексацию вашего сайта. Когда выяснится, что для привлечения трафика в ход идут нечистоплотные приемы, место в рейтинге будет потеряно, и домен спустят на самые нижние позиции, где его никто не сможет обнаружить.

Если хотите рассказать о событии в том же ключе, что и конкуренты, следует хотя бы переписать статью своими словами. Конечно, времени и усилий на это уйдет гораздо больше, зато удастся сохранить лицо, да и с точки зрения репутации издания в интернете, а также его позиции в поиске, это лучшее решение.

До сих пор мы обращали внимание на то, как журналисты могут использовать органический поиск, чтобы привлечь трафик, и даже отметили, что SEO и правда может привести на сайт больше посетителей, чем социальные сети. Впрочем, это не означает, что надо категорически игнорировать социальный поиск или выбирать что-то одно. Напротив, мы советуем воспользоваться преимуществами обоих и увеличивать видимость издания на всех доступных каналах потребления контента.

Чтобы читатели чаще делились статьями, процесс надо сделать удобным. Для сайтов, работающих на платформе WordPress, есть большой выбор плагинов для шеринга. Когда я делаю новый сайт, то обычно ищу плагины с красивыми кнопками для всех основных соцсетей (Facebook, Twitter, LinkedIn и т. п.) на каждой странице и первым делом проверяю, что они работают как следует и поддаются настройке. Кроме того, я смотрю, могут ли читатели оставлять свои комментарии рядом со ссылкой перед тем, как она будет опубликована. Обычно делятся тем, что вызывает сильные эмоции - позитивные или негативные.

Затрудняетесь решить, в каком месте страницы поставить кнопки для соцсетей? Можете прислушаться к совету Гарретта Муна из CoSchedule , который изучил эту проблему и пришел к выводу, что зачастую лучше всего размещать их над статьей или с левой стороны от нее.

Оптимизация изображений

Изображения играют в новостях ключевую роль. Если использовать их правильно, они способствуют лучшему пониманию представленной информации. Картинки вносят визуальное разнообразие и служат редакторам инструментом, с помощью которого можно обогатить содержание статьи, расставляют акценты, выделяют определенные моменты в тексте так, чтобы они лучше запомнились.

Большая часть новостных сайтов пользуется услугами таких агентств, как Reuters, AP, AFP, UPI и Getty, и не размещает собственные изображения, но оптимизация все равно нужна.

Главное - сжимать и изменять размер так, чтобы исходное изображение не весило больше отображаемой версии. Масштабирование влияет на время загрузки, а та в свою очередь - на юзабилити и SEO. Чем меньше времени уходит на загрузку сайта и страниц, тем легче для Google их посетить и проиндексировать. Если редактор загружает огромное изображение, но в теле статьи размещает маленькую версию, Google все равно должен загрузить исходный вариант, а это несколько тормозит процесс.

Оптимальным решением будет изменить размер картинки до того, как вставлять ее в текст. Здесь пригодится WordPress - платформа автоматически сжимает изображение при загрузке и предлагает разные размеры.

Но это только первый шаг. Чтобы полностью оптимизировать изображения, издатели должны убедиться в том, что:

Имя картинки ясно описывает, что на ней изображено;

Атрибуты alt (текстовая альтернатива) тщательно оптимизированы, и браузер сможет стабильно их воспроизводить. Важно также добавлять уникальные alt-атрибуты для каждой картинки, чтобы пользователи и поисковые механизмы понимали, на что смотрят;

Формат выбранных изображений подходящий. JPEG - стандартный тип для интернета: он позволяет значительно сжать файлы, не пожертвовав качеством;

Миниатюры (тамбнейлы) приведены в порядок. Значение имеют размер и описание;

Используется карта изображений сайта (sitemap) - так Google заметит картинки. Боты не сканируют их, если они не прописаны в исходном коде. Обозначить место изображения в карте - значит ускорить индексацию;

Скорость сканирования

Сканирование - основной фактор оптимизации, особенно для сайтов новостей со множеством страниц. Когда работе Google-ботов на определенном сайте что-то мешает, страницы не индексируются должным образом. В таком случае издание окажется практически невидимым в поиске, и тогда пользователи попадут на ресурс только по ссылке из соцсетей или по прямому URL. Ситуация неприятная - особенно если вам очень нужен новый трафик.

Помехи в работе Google-ботов могут возникнуть по нескольким причинам. Чтобы страницы индексировались спустя несколько минут после публикации, в первую очередь следует овладеть технологией линкбилдинга. Недостатка внутренних и внешних ссылок быть не должно. Если главный в мире поисковый механизм не сможет точно установить местонахождение ссылок, ведущих на домен и связывающих его страницы, он решит, что ресурс не так уж релевантен, - а это фактически сведет к нулю шансы того, что целевая аудитория обнаружит сайт среди результатов поиска. Другие причины носят скорее технический характер. Среди них - слишком медленная работа сайта, слишком большое количество страниц для сканирования, оставляющая желать лучшего структура и выскакивающие тут и там ошибки. Словом, все, из-за чего пользование ресурсом превращается в кошмар.

Не просто новости

Выпускать контент в промышленных масштабах - не всегда оптимальный выход . Добиться куда лучшего результата можно, если сосредоточиться не на количестве материалов, а на их качестве и на запросах онлайн-аудитории.

Издатели, которые не только выживают, но и процветают сейчас, в прошлом потратили время на изучение поведения, требований и степени вовлеченности читателей и, выпуская контент, держат в уме эти аспекты. Они всегда публикуют именно то, что интересно аудитории, и их материалы не теряют актуальности на следующий день. В недавней беседе с Роем Вассинком , менеджером по развитию продуктов в компании De Persgroep, выяснилось, что смотреть только на статистику посещений страницы - уже не эффективная стратегия. Чтобы развиваться, необходимо задействовать анализ данных. Современным интернет-издателям крайне важно понимать поведение аудитории и не только знать, как пользователь попал на страницу, но и то, какие факторы побуждают людей взаимодействовать, делиться статьей с друзьями.

Здесь количество уступает главное место качеству. Нужно не только производить контент, но в первую очередь ответить на вопрос о том, каким образом читатели потребляют информацию и как вы можете повысить их вовлеченность.

Редакторы новостей могут сказать, что поисковая оптимизация для них как для журналистов - не такая уж ценная тактика: читатель не может сделать запрос в поиске по теме, о которой не имеет предварительных сведений, то есть если не знает, что событие произошло. Следуя этой логике, медиагиганты предпочитают работать на репутацию и читательскую лояльность, небезосновательно рассчитывая, что в поисках интересных историй читатели сразу направятся к ним на сайт.

На самом же деле эта логика сочетается с работой традиционной прессы, но не подходит для цифровых изданий. Кроме того, тут есть ошибка, и надо объяснить, откуда она взялась.

Несомненно, значение прямого трафика и читательской привычки трудно переоценить. Однако общая картина такова, что сегодняшние читатели - не пассивные участники или наблюдатели. Они мыслят критически, высказывают свое мнение в онлайн-дискуссиях и в нашу эру фейковых новостей собирают информацию сами и даже генерируют собственный контент. Они склонны проверять источники и искать дополнительные сведения по актуальной теме.

Вдобавок к этому важно понимать, что мы живем в мире, насыщенном новостями, и непрерывно получаем информацию из тысяч разных источников - будь то социальные сети, печатные газеты, телевидение или беседы с друзьями.

Как издатель вы должны быть готовы, что с высокой вероятностью читатели узнают новость задолго до того, как зайдут в интернет или окажутся на вашем сайте. В этом случае произойдет следующее: они сделают поисковый запрос в Google и станут читать материалы, оказавшиеся на первых страницах результатов.

Здесь заканчивается традиционная подача новостей и начинается современная «журналистика 2.0».



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows