Автоматическое составления семантического ядра по URL. Стоп-слова для Кей Коллектора – самая полная база! Составление семантического ядра в Key Collector

Автоматическое составления семантического ядра по URL. Стоп-слова для Кей Коллектора – самая полная база! Составление семантического ядра в Key Collector

31.12.2021

Key Collector — одна из самых популярных программ для сбора семантического ядра (о том, что это такое, мы писали в статье «Роль ключевых запросов в продвижении сайта»). С ней вы найдёте все ключевые запросы для своего сайта за полчаса. А дальше можно начинать продвижение: заказывать контент у копирайтеров или настраивать контекстную рекламу.

Key Collector предназначен для профессионалов, поэтому его интерфейс довольно сложный и недружелюбный. Слишком много кнопок и настроек. Но не переживайте, сейчас мы поможем вам во всём разобраться.

Шаг 1. Установка

Key Collector — платный сервис, стоит 1700 рублей. Никакой абонентской платы нет — вы покупаете программу один раз и навсегда.

Сперва программу нужно установить. Она работает только на OS Windows, версии для Mac OS нет. Что для этого нужно?

  • 1. Скачайте Key Collector → key-collector.ru/buy.php . Не закрывайте страницу, она вам ещё нужна.
  • 2. Запустите загруженный файл и следуйте инструкциям мастера установки.
  • 3. Когда установка завершится, запустите саму программу и скопируйте код — HID.

  • 4. Заполните форму заявки на сайте и вставьте в неё свой HID.

Важно указать только имя, еmail, HID и способ оплаты

  • 5. Нажмите «Отправить заявку». Сотрудники Key Collector отправят вам письмо с подробными инструкциями о том, что делать дальше.

Теперь осталось только оплатить сервис — и вам пришлют ключ активации. Скачайте его и укажите программе путь к файлу ключа.

Всё, Key Collector активирован и готов к работе.

Шаг 2. Настройка

*В Key Collector много функций, но сейчас мы будем говорить лишь об основных.

Программа уже готова к работе — вы сможете собрать семантическое ядро и с базовыми настройками. Единственное, что нужно сделать до начала работы — указать свою учётную запись «Яндекса». Она нужна для работы.

Важно: не указывайте свой основной аккаунт. Если что-то пойдёт не так — его могут заблокировать.

Для этого:

  • 1. Сначала создайте отдельную учетную запись специально для Key Collector. Это можно сделать здесь → yandex.ru/registration .
  • 2. Теперь запускайте программу. Нажмите «Файл» → «Настройки».

  • 3. Откройте раздел «Парсинг» → «Yandex.Direct». Кликните в пустое поле под «Логин Яндекс».

  • 4. Сюда нужно написать свой логин. Если вы его не помните — это та часть почтового адреса, которая идет до @. В поле «Пароль Яндекс» впишите пароль.

  • 5. Теперь нужно проверить аккаунт и активировать его. Нажмите на зеленую кнопку «Запустить» в этом же окне.

Проверка займёт около 10-20 секунд

  • 6. Когда проверка закончится, можете начинать работу.

Закрывайте настройки — начинаем собирать ядро.

Шаг 3. Сбор слов

Мы будем собирать семантическое ядро на примере — «прокат автомобилей в Самаре». Для начала подумаем, по каким запросам нас могут искать клиенты:

  • прокат авто,
  • прокат автомобилей,
  • аренда авто,
  • машина напрокат,
  • прокат авто Самара.

Если сможете придумать больше запросов — отлично. Например, можно указать марки автомобилей, которые у вас есть:

  • прокат бмв,
  • прокат bmw.

Важно подобрать фразы, которые характеризуют ваш бизнес. Если вы привозите пиццу на дом, ваш список будет выглядеть так:

  • доставка пиццы,
  • заказать пиццу,
  • пицца Самара,
  • пицца на заказ.

С теорией разобрались — давайте перейдём к практике.

Создайте новый проект.

Нажмите «Новый проект» и укажите, в какой папке сохранить файл

Для начала укажите регион, в котором вы работаете. Нажмите на кнопку внизу окна.

Задаём регион для сервиса «Яндекс.Вордстат»

Найдите в списке свой регион, отметьте его галочкой и нажмите «Сохранить изменения».

То же самое сделайте для остальных сервисов.

Выберите свой регион в остальных сервисах, которые использует Key Collector

Теперь подбирайте слова. Мы будем использовать сервис «Яндекс.Вордстат». Откройте инструмент «Пакетный сбор из левой колонки».

Сюда нужно добавить все запросы, которые вы придумали. Каждый запрос — с новой строки. Нажмите «Начать сбор», чтобы запустить поиск.

Чем больше фраз вы укажете — тем больше времени уйдёт на сбор. В нашем случае это заняло около 3 минут. Вот что получилось:

Колонка «Дата добавления» не нужна — только место на экране занимает. Скройте её, чтобы работать было удобнее. Кликните по ней правой кнопкой мыши и нажмите «Скрыть колонку».

В Key Collector много инструментов для сбора фраз, но хватит и одного «Вордстата». Остальные попробуете, когда разберётесь в программе. Продолжайте работу с ядром.

Шаг 4. Удаление дублей

Вы собрали все запросы, которые могут входить в семантическое ядро. Но среди них есть много «мусорных», лишних. Их стоит убрать.

Начнём с неявных дублей. Неявные дубли — это запросы, которые немного отличаются друг от друга, но поисковые системы считают их одинаковыми. Вам не нужно иметь несколько одинаковых запросов в ядре, поэтому найдите и удалите их.

Откройте вкладку «Данные» и выберите инструмент «Анализ неявных дублей».

Программа просканирует ваш список на наличие дублей. Если ничего не найдёт, предложит другой способ отбора — без учета словоформ. Вы можете включить этот режим и вручную поставить галочку возле параметра «Не учитывать словоформы при поиске».

Не забудьте нажать на кнопку «Выполнить поиск дублей повторно».

Key Collector нашел два дубля: «аренда авто на часы» и «аренда авто на час». Один из них нужно выделить. Вы можете сделать это вручную. Но если дублей много, выделять их вручную долго. Лучше используйте инструмент «Умная отметка» — он автоматически выделит по одной фразе в каждой группе дублей.

Закройте окно, фразы останутся отмеченными. Вы можете просто удалить их. Но обычно сеошники так не делают. В программе есть специальная папка «Корзина», куда складывают ненужные фразы. Мало ли что, вдруг потом пригодятся.

Чтобы перенести отмеченные фразы, вернитесь в раздел «Сбор данных» и нажмите «Перенос фраз в другую группу».

Выберите группу, в которую хотите перенести фразы. В нашем случае это «Корзина».

Поставьте галочки напротив пунктов «Перенос» и «Отмеченных». Нажмите «Ок».

Готово, дубль в корзине. Переходим к следующему пункту очистки ядра от мусора.

Шаг 5. Удаление стоп-слов

Скорее всего, большая часть запросов в списке вам не подходит. Они для другого города или вы не оказываете такие услуги. Поэтому все лишние фразы нужно убрать.

Мы будем убирать лишние фразы с помощью списка стоп-слов. Если добавить в этот список слово — программа проверит семантическое ядро и выделит все фразы, в которых оно встречается. Дальше их можно удалить или перенести в корзину.

Давайте подумаем, какие слова можно исключать для любого типа бизнеса:

  • Фото, фотка, фотография, картинка, иллюстрация, видео — иногда людям нужна картинка того, чем вы занимаетесь, чтобы отправить её друзьям или добавить в презентацию. Это точно не ваши клиенты — смело их отфильтровываем.
  • Бренды конкурентов — если кто-то ищет вашего конкурента, вряд ли он зайдёт на ваш сайт. Убираем.
  • Дёшево, недорого — можно оставить, если низкие цены — ваше реальное преимущество. Если нет — убираем.
  • Бесплатно, скачать, торрент, torrent — как и в случае с картинками, это вообще не наши клиенты.
  • Реферат, википедия, вики, wiki — аналогично, удаляем.

В нашем случае добавим в список марки машин, которых у нас нет, и слово «купить» — мы ничего не продаём. Давайте занесём все это в Key Collector.

Кликните по кнопке «Стоп-слова».

Нажмите значок «Добавить списком».

Кликните по зелёному плюсику

Напишите свой список стоп-слов. Стоп-слово — это необязательно одно слово. Можно указывать целые фразы, которые вам не нужны.

Если указываете бренды — пишите названия и на русском, и на английском. Слова лучше писать без окончаний — стоп-слово «москв» удалит фразы с «Москва», «в Москве», «для Москвы».

Отмечаем все фразы, в которых есть стоп-слова

Закрывайте окно стоп-слов, фразы останутся выделенными. Сразу перенесите их в корзину.

Теперь начинается самая сложная и долгая часть составления семантического ядра. Вам нужно просмотреть все собранные фразы и выбрать из них «мусорные». Заодно нужно дополнять список стоп-слов, чтобы облегчить процесс расширения ядра в будущем.

Просмотрите список. Когда вы находите ненужную фразу, выделяйте её и нажимайте на значок «Отправить фразу в окно стоп-слов».

Выберите, какие слова из фразы нужно добавить в список, и нажмите «Добавить в стоп-слова».

Просмотрите ядро до самого конца, дополните список стоп-слов, а лишние фразы отправьте в корзину.

Есть ещё один инструмент, который немного облегчит вам задачу. Перейдите во вкладку «Данные» и откройте «Анализ групп».

В этом окне фразы группируются по заданным критериям. Вы можете выделить сразу несколько фраз одним нажатием. По умолчанию стоит группировка по отдельным словам. Все фразы с одинаковыми словами попадают в одну группу — это нам и нужно.

Пройдитесь по этому списку и отметьте ненужные слова. Так вы выберете все фразы, в которых они встречаются. Не забывайте добавлять их в список стоп-слов.

Чёрный квадратик означает, что в этой группе некоторые фразы выделены, а некоторые — нет

Так вы оставите в семантическом ядре только нужные фразы и составите полный список стоп-слов. Переходим к следующему пункту.

Шаг 6. Определение точной частотности

При сборе фраз с помощью «Вордстата» вы получаете базовую частотность. Это неточный показатель, ориентироваться на него не стоит. Давайте подберём точную частотность для нашего семантического ядра.

Для этого мы будем использовать инструмент «Сбор статистики Yandex.Direct».

Укажите, что хотите заполнять колонки вида «слово» (в кавычках). Кавычки как раз и дают нам точную частотность. Запускаем.

Как видите, точная частота сильно отличается от базовой. По ней вы и будете определять популярность запросов.

Наше семантическое ядро готово.

Шаг 7. Экспорт

Экспортируйте ядро из Key Collector. Нажмите «Файл» → «Экспорт» и укажите папку, в которую хотите сохранить таблицу с фразами. Формат (CSV или XLSX) можно задать в настройках.

Повторим ещё раз

Итак, мы собрали семантическое ядро для компании, которая занимается прокатом автомобилей в Самаре. Давайте перечислим последовательность действий:

  • 1. Создать отдельный аккаунт в «Яндексе» и подключить его к Key Collector.
  • 2. Придумать список фраз, которые характеризуют ваш бизнес.
  • 3. Собрать фразы из «Яндекс.Вордстата».
  • 4. Удалить неявные дубли.
  • 5. Создать список стоп-слов, удалить «мусорные фразы».
  • 6. Загрузить точную частотность из «Яндекс.Директа».
  • 7. Экспортировать готовое семантическое ядро и список стоп-слов.

Теперь вы умеете работать с Key Collector и сможете составить семантическое ядро для своего сайта без помощи сеошника.

Начал писать эту статью довольно давно, но перед самой публикацией оказалось, что меня опередили соратники по профессии и выложили практически идентичный материал.

Поначалу я решил, что публиковать свою статью не буду, так как тему и без того прекрасно осветили более опытные коллеги. Михаил Шакин рассказал о 9-ти способах чистки запросов в KC , а Игорь Бакалов отснял видео об анализе неявных дублей . Однако, спустя какое-то время, взвесив все за и против, пришел к выводу, что возможно моя статья имеет право на жизнь и кому-то может пригодиться – не судите строго.

Если вам необходимо отфильтровать большую базу ключевых слов, состоящую из 200к или 2 миллионов запросов, то эта статья может вам помочь. Если же вы работаете с малыми семантическими ядрами, то скорее всего, статья не будет для вас особо полезной.

Рассматривать фильтрацию большого семантического ядра будем на примере выборки, состоящей из 1 миллиона запросов по юридической теме.

Что нам понадобится?

  • Key Collector (Далее KC)
  • Минимум 8гб оперативной памяти (иначе нас ждут адские тормоза, испорченное настроение, ненависть, злоба и реки крови в глазных капиллярах)
  • Общие Стоп-слова
  • Базовое знание языка регулярных выражений

Если вы совсем новичок в этом деле и с KC не в лучших друзьях, то настоятельно рекомендую ознакомиться с внутренним функционалом , описанным на официальных страницах сайта. Многие вопросы отпадут сами собой, также вы немножечко разберетесь в регулярках.

Итак, у нас есть большая база ключей, которые необходимо отфильтровать. Получить базу можно посредством самостоятельного парсинга, а также из различных источников, но сегодня не об этом.

Всё, что будет описано далее актуально на примере одной конкретной ниши и не является аксиомой! В других нишах часть действий и этапов могут существенно отличаться ! Я не претендую на звание Гуру семантика, а лишь делюсь своими мыслями, наработками и соображениями на данный счет.

Шаг 1. Удаляем латинские символы

Удаляем все фразы, в которых встречаются латинские символы. Как правило, у таких фраз ничтожная частотка (если она вообще есть) и они либо ошибочны, либо не относятся к делу.

Все манипуляции с выборками по фразам проделываются через вот эту заветную кнопку

Если вы взяли миллионное ядро и дошли до этого шага – то здесь глазные капилляры могут начать лопаться, т.к. на слабых компьютерах/ноутбуках любые манипуляции с крупным СЯ могут, должны и будут безбожно тормозить.

Выделяем/отмечаем все фразы и удаляем.

Шаг 2. Удаляем спец. Символы

Операция аналогична удалению латинских символов (можно проводить обе за раз), однако я рекомендую делать все поэтапно и просматривать результаты глазами, а не «рубить с плеча», т.к. порой даже в нише, о которой вы знаете, казалось бы, все, встречаются вкусные запросы, которые могут попасть под фильтр и о которых вы могли попросту не знать.

Небольшой совет, если у вас в выборке встречается множество хороших фраз, но с запятой или другим символом, просто добавьте данный символ в исключения и всё.

Еще один вариант (самурайский путь)

  • Выгрузите все нужные фразы со спецсимволами
  • Удалите их в KC
  • В любом текстовом редакторе замените данный символ на пробел
  • Загрузите обратно.

Теперь фразоньки чисты, репутация их отбелена и выборка по спец. символам их не затронет.

Шаг 3. Удаляем повторы слов

И снова воспользуемся встроенным в KC функционалом, применив правило

Тут и дополнить нечем – все просто. Убиваем мусор без доли сомнения.

Если перед вами стоит задача произвести жесткую фильтрацию и удалить максимум мусора, при этом пожертвовав какой-то долей хороших запросов, то можете все 3 первых шага объединить в один .

Выглядеть это будет так:

ВАЖНО: Не забудьте переключить «И» на «ИЛИ»!

Шаг 4. Удаляем фразы, состоящие из 1 и 7+ слов

Кто-то может возразить и рассказать о крутости однословников, не вопрос – оставляйте, но в большинстве случаев ручная фильтрация однословников занимает очень много времени, как правило соотношение хороший/плохой однословник – 1/20, не в нашу пользу. Да и вбить их в ТОП посредством тех методов, для которых я собираю такие ядра из разряда фантастики. Поэтому, поскрипывая сердечком отправляем словечки к праотцам.

Предугадываю вопрос многих, «зачем длинные фразы удалять»? Отвечаю, фразы, состоящие из 7 и более слов по большей части, имеют спамную конструкцию, не имеют частотку и в общей массе образуют очень много дублей, дублей именно тематических. Приведу пример, чтоб было понятней.

К тому же частотка у подобных вопросов настолько мала, что зачастую место на сервере обходится дороже, чем выхлоп от таких запросов. К тому же, если вы просмотрите ТОП-ы по длинным фразам, то прямых вхождений ни в тексте ни в тегах не найдете, так что использование таких длинных фраз в нашем СЯ – не имеет смысла.

Шаг 5. Очистка неявных дублей

Предварительно настраиваем очистку, дополняя своими фразами, указываю ссылку на свой список, если есть, чем дополнить – пишите, будем стремиться к совершенству вместе.

Если этого не сделать, и использовать список, любезно предоставленный и вбитый в программу создателями KC по умолчанию, то вот такие результаты у нас останутся в списке, а это, по сути, очень даже дубли.

Можем выполнить умную группировку, но для того, чтобы она отработала корректно – необходимо снять частотку. А это, в нашем случае не вариант. Т.к. Снимать частотку с 1млн. кеев, да пусть хоть со 100к – понадобится пачка приватных проксей, антикапча и очень много времени. Т.к. даже 20 проксей не хватит – уже через час начнет вылезать капча, как не крути. И займет это дело очень много времени, кстати, бюджет антикапчи тоже пожрет изрядно. Да и зачем вообще снимать частотку с мусорных фраз, которые можно отфильтровать без особых усилий?

Если же вы все-таки хотите отфильтровать фразы с умной группировкой, снимая частотности и поэтапно удаляя мусор, то расписывать процесс подробно не буду – смотрите видео, на которое я сослался в самом начале статьи.

Вот мои настройки по очистке и последовательность шагов

Шаг 6. Фильтруем по стоп-словам

На мой взгляд – это самый муторный пункт, выпейте чая, покурите сигаретку (это не призыв, лучше бросить курить и сожрать печеньку) и со свежими силами сядьте за фильтрацию семантического ядра по стоп-словам.

Не стоит изобретать велосипед и с нуля начинать составлять списки стоп-слов. Есть готовые решения. В частности, вот вам , в качестве основы более, чем пойдет.

Советую скопировать табличку в закорма собственного ПК, а то вдруг братья Шестаковы решат оставить «вашу прелесть» себе и доступ к файлику прикроют? Как говорится «Если у вас паранойя, это еще не значит, что за вами не следят…»

Лично я разгрупировал стоп-слова по отдельным файлам для тех или иных задач, пример на скриншоте.

Файл «Общий список» содержит все стоп-слова сразу. В Кей Коллекторе открываем интерфейс стоп-слов и подгружаем список из файла.

Я ставлю именно частичное вхождение и галочку в пункте «Искать совпадения только в начале слов». Данные настройки особенно актуальны при огромном объеме стоп-слов по той причине, что множество слов состоят из 3-4 символов. И если поставите другие настройки, то вполне можете отфильтровать массу полезных и нужных слов.

Если мы не поставим вышеуказанную галочку, то пошлое стоп-слово «трах» найдется в таких фразах как «консультация государственного страхования» , «как застраховать вклады» и т.д. и т.п. Вот ещё пример, по стоп слову «рб» (республика Беларусь) будет отмечено огромное кол-во фраз, по типу «возмещение ущерба консультация», «предъявление иска в арбитражном процессе» и т.д. и т.п.

Иными словами — нам нужно, чтобы программа выделяла только фразы, где стоп-слова встречаются в начале слов. Формулировка ухо режет, но из песни слов не выкинешь.

Отдельно замечу, что данная настройка приводит к существенному увеличению времени проверки стоп слов. При большом списке процесс может занять и 10 и 40 минут, а все из-за этой галочки, которая увеличивает время поиска стос-слов во фразах в десять, а то и более раз. Однако это наиболее адекватный вариант фильтрации при работе с большим семантическим ядром.

После того как мы прошлись по базовым списком рекомендую глазами просмотреть не попали ли под раздачу какие-то нужные фразы, а я уверен, так оно и будет, т.к. общие списки базовых стоп-слов, не универсальны и под каждую нишу приходится прорабатывать отдельно. Вот тут и начинаются «танцы с бубном.

Оставляем в рабочем окне только выделенные стоп слов, делается это вот так.

Затем нажимаем на «анализ групп», выбираем режим «по отдельным словам» и смотрим, что лишнего попало в наш список из-за неподходящих стоп-слов.

Удаляем неподходящие стоп-слова и повторяем цикл. Таким образом через некоторое время мы «заточим» универсальный общедоступный список под наши нужды. Но это еще не все.

Теперь нам нужно подобрать стоп-слова, которые встречаются конкретно в нашей базе. Когда речь идет об огромных базах ключевиков, там всегда есть какой-то «фирменный мусор», как я его называю. Причем это может быть совершенно неожиданный набор бреда и от него приходится избавляться в индивидуальном порядке.

Для того, чтобы решить эту задачку мы снова прибегнем к функционалу Анализа групп, но на этот раз пройдемся по всем фразам, оставшимся в базе, после предыдущих манипуляций. Отсортируем по количеству фраз и глазами, да-да-да, именно ручками и глазами, просмотрим все фразы, до 30-50 в группе. Я имею в виду вторую колонку «кол-во фраз в группе».

Слабонервных поспешу предупредить, на первый взгляд бесконечный ползунок прокрутки», не заставит вас потратить неделю на фильтрацию, прокрутите его на 10% и вы уже дойдете до групп, в которых содержится не более 30 запросов, а такие фильтровать стоит только тем, кто знает толк в извращениях.

Прямо из этого же окна мы можем добавлять весь мусор в стоп слова (значок щита слева от селектбокса).

Вместо того, чтобы добавлять все эти стоп слова (а их гораздо больше, просто я не хотел добавлять длиннющий по вертикали скриншот), мы изящно добавляем корень «фильтрац» и сразу отсекаем все вариации. В результате наши списки стоп-слов не будут разрастаться до огромных размеров и что самое главное, мы не будем тратить лишнее время на их поиск . А на больших объемах — это очень важно.

Шаг 7. Удаляем 1 и 2 символьные «слова»

Не могу подобрать точное определение к данному типу сочетания символов, поэтому обозвал «словами». Возможно, кто-то из прочитавших статью подскажет, какой термин подойдет лучше, и я заменю. Вот такой вот я косноязычный.

Многие спросят, «зачем вообще это делать»? Ответ прост, очень часто в таких массивах ключевых слов встречается мусор по типу:

Общий признак у таких фраз — 1 или 2 символа, не имеющие никакого смысла (на скриншоте пример с 1 символм). Вот это мы и будем фильтровать. Здесь есть свои подводные камни, но обо всем по порядку.

Как убрать все слова, состоящие из 2-х символов?

Для этого используем регулярку

Дополнительный совет: Всегда сохраняйте шаблоны регулярок! Они сохраняются не в рамках проекта, а в рамках KC в целом . Так что будут всегда под рукой.

(^|\s+)(..)(\s+|$) или же (^|\s){1,2}(\s|$)

(ст | фз | ук | на | рф | ли | по | ст | не | ип | до | от | за | по | из | об)

Вот мой вариант, кастомизируйте под свои нужды.

Вторая строка – это исключения, если их не вписать, то все фразы, где встречаются сочетания символов из второй строки формулы, попадут в список кандидатов на удаление.

Третья строка исключает фразы, в конце которых встречается «рф», т.к. зачастую это нормальные полезные фразы.

Отдельно хочу уточнить, что вариант (^|\s+)(..)(\s+|$) будет выделять все – в том числе и числовые значения . Тогда как регулярка (^|\s){1,2}(\s|$) – затронет лишь буквенные, за неё отдельное спасибо Игорю Бакалову.

Применяем нашу конструкцию и удаляем мусорные фразы.

Как убрать все слова, состоящие из 1 символа?

Здесь все несколько интересней и не так однозначно.

Сначала я попробовал применить и модернизировать предыдущий вариант, но в результате выкосить весь мусор не получилось, тем не менее – многим подойдет именно такая схема, попробуйте.

(^|\s+)(.)(\s+|$)

(с | в | и | я | к | у | о)

Традиционно – первая строка сама регулярка, вторая – исключения, третья – исключает те фразы, в которых перечисленные символы встречаются в начале фразы. Ну, оно то и логично, ведь перед ними не стоит пробела, следовательно, вторая строка не исключит их присутствие в выборке.

А вот второй вариант при помощи которого я и удаляю все фразы с односимвольным мусором, простой и беспощадной, который в моем случае помог избавиться от очень большого объема левых фраз.

(й | ц | е | н | г | ш | щ | з | х | ъ | ф | ы | а | п | р | л | д | ж | э | ч | м | т | ь | б | ю)

Я исключил из выборки все фразы, где встречается «Москв», потому что было очень много фраз по типу:

а мне оно нужно сами догадываетесь для чего.

Мы уже писали, как самостоятельно собрать семантическое ядро . Но перед тем как разделить запросы по категориям, их следует хорошенько почистить. Как убрать восемь уровней шлака и оставить чистое серебро? Понадобится аккаунт в Key Collector и 12 минут на прочтение этого поста.

1. Чистка семантического ядра по словам-маркерам

Также можно все ненужные слова добавлять непосредственно из полного списка запросов. В таком случае создаем отдельную группу — специально для таких стоп-слов.

Алгоритм действий:

5. Чистим ядро с помощью функции анализа группы слов

Группы, отмеченные в таблице, автоматически отмечаются в основном списке запросов. После того как были отмечены все неподходящие слова, закрываем таблицу и удаляем все ненужные запросы.

6. Ищем и удаляем неявные дубли

Для использования данного метода необходимо сначала собрать информацию о частотности запросов. После этого переходим на вкладку «Данные» — «Анализ неявных дублей»:

Программа автоматически отметит все неявные дубли, частотность которых меньше в указанной поисковой системе.

7. Ручной поиск по группе запросов

Наконец можно отметить вручную все ненужные слова в семантическом ядре: сленг, слова с ошибками и так далее. Основной массив нерелевантных запросов уже был очищен ранее, так что ручная чистка не займет много времени.

8. Очистка запросов по частотности

С помощью расширенного фильтра в KeyCollector устанавливаем параметры частоты запросов и отмечаем все низкочастотные фразы. Этот этап нужен далеко не всегда.

Выводы

Чтобы качественно очистить семантическое ядро от мусора, следует выполнить восемь шагов в KeyCollector:

  1. Чистка семантического ядра по словам-маркерам.
  2. Удаление повторяющихся слов.
  3. Удаление латинских букв, специальных символов, запросов с цифрами.
  4. Очистка ядра с помощью функции анализа группы слов.
  5. Поиск и удаление неявных дублей.
  6. Ручной поиск по группе запросов.
  7. Очистка запросов по частотности.

На каждом этапе желательно просмотреть слова, помеченные для удаления, так как существует риск удалить качественные и релевантные запросы.

Вместо удаления ненужных запросов лучше создать отдельную группу и переносить их туда. В свежих обновлениях Key Collector появилась соответствующая группа по умолчанию — «Корзина».

После тщательной чистки семантического ядра можно переходить к следующему этапу — кластеризации и группировке запросов.

Отмечу, что всегда существует риск упустить парочку нерелевантных запросов во время чистки ядра. Их как раз очень легко выявить и удалить на этапе группировки, но об этом — в следующий раз.

Всем-всем привет!

Как только Вы создали аккаунт, можете переходить к инструкции ниже:

Отлично! Key Collector успешно настроен, а значит можно переходить непосредственно к составлению семантического ядра.

Составление семантического ядра в Key Collector

Перед тем, как начать сбор ключевых фраз для Яндекс.Директ, рекомендую почитать , в нем Вы найдете массу полезной информации по поводу ключевых фраз (только для новичков). Прочитали? Посмотрите еще пример сбора семантического ядра для ремонта бытовой техники:

Тогда Вам не составит труда собрать маски ключевых фраз, которые очень нужны для парсинга через Key Collector.

  1. В обязательном порядке укажите регион сбора ключевых слов:
  2. Нажмите на кнопку “Пакетный сбор слов из левой колонки Yandex.Wordstat”:
  3. Впишите маски ключевых фраз и распределите по группам:Такой получится результат. Нажмите “Начать сбор”:Делается это для удобства обработки ключевых фраз. Так запросы не будут смешаны в одной группе и Вам будет гораздо проще обрабатывать их;
  4. Дождитесь окончания сбора ключевых фраз. Как только процесс будет закончен, можете собрать точную частотность запросов, а также узнать примерную стоимость клика по объявлению, примерное количество показов объявления, примерный бюджет и количество конкурентов по определенному запросу. Все это можно узнать с помощью одной единственной кнопочки “Сбор статистики Yandex.Direct” (ее мы добавили в панель быстрого доступа):
    Поставьте все галочки в соответствии со скриншотом выше и нажмите “Получить данные”;
  5. Дождитесь окончания процесса и просмотрите результаты. Для того, чтобы это было удобно делать, нажмите на кнопку автонастройки колонки, которая оставляет видимыми только те колонки, в которых присутствуют данные:
    Те статистические данные, которые сейчас у нас собирались, нам нужны для того, чтобы проанализировать конкурентную ситуацию по каждой ключевой фразе и прикинуть примерные затраты на рекламу по ним;
  6. Далее воспользуемся таким крутейшим и удобнейшим инструментом Key Collector’а, как “Анализ групп”. Мы его добавили в панель быстрого доступа, поэтому просто перейдите к нему оттуда:
    Key Collector сгруппирует все ключевые фразы по словам и нам будет удобно обрабатывать каждую группу запросов. Ваша задача: просмотрите весь список групп; найдите группы запросов, содержащие не целевые слова, то есть минус-слова и добавьте их в соответствующий список; отметьте эти группы запросов, чтобы потом их удалить. Добавить слово в список можно нажав на маленькую синюю кнопку:Затем появиться небольшое окошко, где нужно выбрать список минус-слов (список 1(-)) и нажать на кнопку “Добавить в стоп-слова”:Таким образом прорабатываете весь список. Не забывайте отмечать группы с нецелевыми словами. Ключевые фразы автоматически отмечаются и в таблице поисковых запросов;
  7. Затем необходимо удалить отмеченные нецелевые фразы в таблице поисковых запросов. Делается это нажатием кнопки “Удалить фразы”:
  8. Продолжаем обрабатывать фразы. Как Вы помните, в Яндекс Директ в начале 2017 года появился статус “Мало показов” (с ним мы разбирались ), и чтобы избежать этого статуса необходимо выделить запросы с низкой частотностью (НЧ-запросы) в отдельную группу. Для начала применяем фильтр к столбцу “Базовая частотность”:
    Параметры фильтра: Базовая частотность , меньше или равно 10. Эти параметры фильтра я выставил исходя из региона показов – Ижевск:
    Затем отмечаем все отфильтрованные фразы:
  9. Создаем подгруппу в группе, где происходит работа в данный момент простым сочетанием клавиш CTRL+Shift+T:Затем переносим отфильтрованные фразы из группы “Купить iphone 6” в группу “Мало показов”. Делаем это через перенос фраз в другую группу:
    Затем указываем параметры переноса как на скриншоте ниже (Выполнить-перенос-отмеченных):
    Снимаем фильтр со столбца “Базовая частотность”:

Точно таким вот образом обрабатываете остальные группы. Способ, конечно, может показаться на первый взгляд муторным, однако при определенной сноровке можно быстренько-быстренько составить семантическое ядро для Яндекс Директ и уже создавать кампании в Excel, а затем и залить их. На обработку семантического ядра таким способом у меня уходит примерно 2 часа, но зависит это исключительно от объемов работы.

Вот Вам еще одно видео, но уже пример сбора минус-слов:

Экспорт ключевых фраз в Excel

Нам осталось экспортировать ключевые фразы в файл для работы с Excel. Key Collector предлагает два формата экспортируемых файлов: csv и xlsx. Гораздо предпочтительнее второй вариант, так как работать в нем гораздо удобнее и привычнее лично для меня. Указать формат файла можно все в тех же настройках программы, во вкладке “Экспорт”:

Экспортировать ключевые фразы можно, нажав на зеленый значок в панели быстрого доступа:

Экспортируется каждая группа по отдельности, то есть отдельная группа – это отдельный xlsx файл. Можно, конечно, засунуть все группы запросов в один файл с помощью инструмента “Мульти-группы”, но потом будет крайне не удобно работать с этими файлами, особенно если групп получилось много.

Далее нужно экспортировать минус-слова. Для этого нужно зайти в “Стоп-слова” и скопировать минус-слова в буфер обмена, чтобы потом вставить их в Excel:

Вот так я работаю с Key Collector’ом, чему научил и Вас. Искренне желаю, что данный урок поможет Вам в освоении этого замечательного инструмента и Ваше семантическое ядро принесет исключительно целевой трафик и много-много продаж.

До скорых встреч, друзья!

Сергей Арсентьев

KeyCollector (Кей Коллектор): профессиональное составление семантического ядра.

Семантическое ядро - основа успешного продвижения любого интернет-проекта. Поэтому важно уделить этому этапу максимально пристальное внимание. Для этого можно воспользоваться наиболее популярной программой для сбора ключевых поисковых запросов - KeyCollector.

КейКоллектор - это платная программа , но стоит каждого потраченного на ее приобретение доллара.

Это действительно отличный и мощный парсер самых разных показателей, начиная от ключевых слов, ставок в Яндекс.Директ и Google.Adwords, проверки геозависимости и корректности словоформ, уровня конкуренции и заканчивая расширенным анализом данных ведущих SEO-агрегаторов.

В одном статье просто невозможно описать все возможности программы, поэтому сейчас я остановлюсь на важнейшей из них – профессиональное составление семантического ядра.

Методов подбора, фильтрации и группировки запросов может быть довольно много, но я опишу процесс подбора ключей с помощью Кей Коллектора именно так, как я «наловчился» делать с минимальными затратами времени и с достижением необходимого результата. Обычно на подбор ключей для одной продвигаемой темы у меня уходит около 10-15 минут. Итак, приступим.

Сразу же при открытии Key Collector предложит создать новый проект или открыть старый. В одном проекте целесообразно подбирать и хранить ключевые запросы для всего сайта, если он относительно небольшой, например, до 1000 страниц. Поэтому у меня названием проект обычно является название сайта.

Так что создаем новый проект, сохраняем его под любым именем и первым делом указываем адрес сайта вверху страницы в поле URL.

Далее указываем регион, где нужно собирать запросы. Для этого кликаем внизу программы на каждую кнопку Регионы (всего их 4) и выбираем в появившемся окне нужный регион. Первая кнопка будет нам нужна для сбора статистики и словоформ из Яндекс.Вордстат, вторая – для получения частотностей из Яндекс.Директа, третья – для анализа уровня конкурентности и последняя для сбора статистики из Google.

Основные настройки.

Теперь нужно настроить съем статистики с Яндекс. Он и по умолчанию настроен, но нужно внести небольшие изменения в зависимости от конкретной задачи по составлению семантического ядра.

Во-первых, укажите нижнюю границу частотностей для добавляемых фраз. Это делается в пункте «Добавлять в таблицу фразы с частотностями от». Если ваша цель собрать тысячи низкочастотных запросов – ставьте примерный диапазон 5-50 . Если нужно собирать высокочастотные запросы, то ставьте нижнюю границу частотностей от 50 . Во всех остальных случаях подойдет параметр по умолчанию – от 10 .

Имеет смысл поставить флажок «Автоматически записывать 0». В этом случае при сборе некоторых низкочастотных запросов не будет пустых результатов.

Вы наверное обратили внимание, что глубину парсинга мы оставили равной 0. Нет смысла при сборе обычных региональных запросов использовать большую глубину, так как запросов обычно меньше, чем 40 страниц, которые установлены по умолчанию. Глубину 1 имеет смысл ставить только если стоит задача собрать максимум релевантных ключей по очень высокочастотным запросам и при этом обязательно нужно указать приличное значение, например, 100 в пункте «Не добавлять фразы для глубинного исследования с базовой частотностью равной или ниже, чем».

Я обычно немного повышаю задержки между запросами. При значениях 8000-15000 у меня каптча без всяких прокси-серверов ни разу не появлялась, а скорость работы более чем приемлемая.

Но если каптча будет выскакивать слишком часто, то самый разумный выбор, конечно, использовать прокси-серверы, вот тут есть прокси специально для Keycollector https://proxy-sale.com

Остается только открыть в этих же настройках вкладку Yandex.Direct и добавить 5-6 специально созданных фейковых аккаунтов в виде адрес:пароль.

Программа настроена и готова к сбору ключевых слов.

Сбор ключевых фраз.

Лично мне наиболее удобно собирать ключевые слова для определенной страницы . Хотя некоторые SEO-оптимизаторы предпочитают сначала собрать тысячи фраз, а затем раскидать их по страницам с помощью фильтров.

Я в данной статье рассмотрю именно первый вариант, так как он более простой и, на мой взгляд, более правильный и предпочтительный при составлении ядра для продвижения обычных бизнес-сайтов или того же блога.

Кликаем на иконку сбора статистики Яндекс.Вордстат и вводим список ключей, которые подходят для продвигаемой страницы или раздела сайта. Тут нужно немного проявить фантазию и придумать всевозможные слова, которые могут отражать суть вашей страницы и по которым потенциальные посетители могут искать продвигаемые сайт в поиске.

Если с фантазией туго, просто вручную найдите примеры подобных поисковых запросов в том же Яндексе, .

Конечно, можно собрать подсказки с помощью этой же программы KeyCollector, но при составлении семантического ядра для конкретного раздела или страницы обычно это излишне и быстрее просто вбить несколько общих слов, обычно их немного, всего 5-10 для каждой продвигаемой страницы.

Заботиться об окончаниях или словоформах не нужно, программа найдет все варианты – просто вбивайте максимально общие, но подходящие по смыслу и исключающие другие трактования слова.

Для статьи по обзору бирж вечных ссылок я изначально использовал вот такие слова:

Если бы я использовал только слово «биржа», то программа бы выдала много мусора, который не подходит по содержанию к моей статье, например, про акции, биржевые спекуляции, биржи труда и т.п. А по запросу «биржа ссылок» были найдены самые разные сочетания, при этом хорошо подходящие для моей страницы, в том числе, «лучшая биржа ссылок», «биржи вечных ссылок» и т.п.

В то же время, общее слово «miralinks» лучше всего использовать одно, чтобы найти максимально большое количество вариантов запросов с этим словом: ведь его набирают только те, кто в принципе интересуется именно этой темой и никакой другой.

Отсеиваем лишнее.

После сбора ключевых слов с помощью программы КейКоллектор на текущей вкладке появится список из всех найденных в поисковой статистике фраз, соответствующих настроенным параметрам.

Среди них есть два типа ключей, которые не подойдут для продвижения:

  • Ключи, с небольшим количеством прямых вхождений.
  • Ключи, содержащие минус-слова.

Ключи с небольшим количеством прямых вхождений.

Я уже писал ранее что это такое, сейчас лишь немного повторюсь. Изначально программа собирает ключевые запросы с базовой частотностью . Это означает, что выдаваемое количество того или иного запроса в месяц будет включать в себя все словоформы с этим запросом.

Например, запрос «биржа покупки ссылок» = 55 показов в месяц. Но в число этих показов будет входить много вариаций этого запроса, например, «отзывы о бирже покупки ссылок» или «sape биржа покупки ссылок» и т.п.
Для продвижения сайта нет возможности использовать сразу все эти варианты, ведь ключевые запросы нужно будет прописать в метатегах, которые очень невелики по объемам, добваить в заголовки и подзаголовки страниц, которые также не резиновый и без переспама с нормальной плотностью вписать в текст.

Поэтому логично выбрать наиболее часто встречающиеся запросы и оптимизировать страницу именно под них, чтобы на продвигаемый сайт заходило как можно больше человек. А сколько было показов именно «биржа покупки ссылок» без всяких дополнений и вариаций? Для этого нужно собрать данные с так называемой частотностью «!».

Приступаем.
Кликаем на иконку Директа, проверяем установку флажка около “!слово” и нажимаем «Получить данные».

Как вы видите, количество прямых запросов ключа «биржа покупки ссылок» совсем невелико – всего 3 (!) запроса в месяц, вместо 55. Значит оптимизировать страницу под этот запрос лично я не вижу смысла.

Поэтому важно отсетить все запросы, которые имеют мало прямых точных вхождений в поиске, например, менее 5. Чтобы сделать это быстро, просто отсортируем все собранные ключи по точной частотности «!».

Затем выделим строки, которые содержат слова с недостаточной частотностью и удалим их.
10 секунд, и список из сотен слов обычно сокращается в 3-5 раз. Теперь имеет смысл отбросить оставшиеся нерелевантные ключи.

Ключи с минус-словами.

Что это такое? Это поисковый запрос, по которому ищут не продвигаемую страницу и очевидно не потенциальные клиенты.
Например, для магазина по продаже пылесосов такими нерелевантными запросами могут быть ключи со словами «инструкция», «отзывы»,
То есть запрос «инструкция к пылесосу самсунг» - вряд ли будет полезен для владельца рядового интернет-магазина, ведь даже если по нему придет много людей, то максимум что они сделают – скачают эту инструкцию, а вовсе не купят новый пылесос.

В моем случае имел смысл удалить ключи со словами «скрипт», «www» и т.п.

Приступаем.
Кликаем на кнопку «Стоп-слова». В появившемся окне вводим минус-слова, убеждаемся что внизу тип поиска вхождений стоит «Независимый от словоформы стоп-слова». Это нужно, чтобы не писать каждое минус-слово в точном соответствии, а использовать более общие минус-слова.
В этом случае при использовании, например, минус-слова «инструкц» будут удалены поисковые запросы «пылесосы инструкция», «скачать инструкции к пылесосам» и т.п., то есть запросы с любой словоформой.

Жмем на «Отметить в таблице» и в результате все ключевые запросы, содержащие минус-слова, становятся отмеченными флажками.

Теперь остается только удалить их.
Открывайте вверху вкладку «Данные», выбирайте «Удалить отмеченные фразы» и все – теперь вы имеете список ключей без посторонних запросов.

Определяем уровень конкуренции.

Отличной возможность программы KeyCollector является парсинг данных о количестве найденных проиндексированных страниц по каждому поисковому запросу, число сайтов в ТОП-10, которые содержат эту ключевую фразу в заголовке страницы Title, а также сколько страниц из первой десятке по этим запросам являются главными страницами.

Понятно, что чем больше проиндексированных страниц, оптимизированных заголовков и главных страниц в выдаче, тем сложнее с ними будет конкурировать.

Однако очень часто бывает ситуация, когда хорошие высокочастотные запросы имеют сравнительно небольшой уровень конкуренции. Поэтому очень важно проанализировать все собранные ключевые запросы на уровень конкуренции для того, чтобы выбрать и продвигаться по самым выгодным и еще незанятым ключам.

Для этого кликаем на иконку «KEI» и выбираем «Получить данные для ПС Яндекс».
Можно, конечно, уточнять уровень конкуренции и в других поисковых системах, это зависит от задания на продвижение, но в большинстве случаев Яндекса хватает, чтобы получить объективную картину сложности продвижения того или иного запроса.

Конечно, этот уровень определения конкуренции несовершенен. Было бы просто идеально, чтобы программа умела также парсить по каждому запросу:

  • Средний тИЦ и PR сайтов в ТОП-10.
  • Средний объем страниц.
  • Среднее количество внешних ссылок на конкурента и т.п.

В этом случае результат был бы точнее.
Но как показывает практика даже такого «беглого» анализа конкуренции достаточно для того, чтобы успешно находить выгодные ключи и быстро по ним продвигаться, так как многие оптимизаторы его не проводят вовсе и в итоге многие сайты продвигаются по сложным конкурентным запросам, хотя рядом «лежат» запросы с не меньшей частотой и с полным отсутствием оптимизированных конкурентов.



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows