Как составить семантическое ядро сайта. Методика по Пузату | Сайт Романа Яковенко

Методика составления семантического ядра по Пузату

Как составить семантическое ядро

Январь 22, 2018 Web-технологии

План составления списка запросов для продвижения информационных сайтов по методологии Романа Пузата. Инструкцию составляю по занятиям Вадима Захарова на курсе Марафон Начало (осень 2017). Материал составил для себя (как конспект и чтобы подробнее разобраться). Будет полезна многим вебмастерам.

СОДЕРЖАНИЕ СТАТЬИ

Шаг 1. Сбор входных слов

1) Изучаем тематику: википедия, конкуренты, справочники, книги. Составляем список входных слов выбранной тематике. Если не знаете что означает слово — внести его в список. Выкинуть всегда можно.

2) Cобираем данные из Букварикса. Применяем фильтр "!Точная !частотность" от 5.

Составить семантическое ядро Букварикс

Скачиваем полученные данные на компьютер (в .csv).

3) Находим 3-5 конкурентов (узких, с нашей ниши). Собираем их запросы через сервис Keys.so. Получится это сделать только в платном тарифе (от 1500 руб в месяц). Можно поискать вебмастеров у которых есть платный аккаунт и попросить сделать выгрузку.

Получаем: список входных слов, выгрузки с Букварикса по каждому слову, выгрузка списка запросов конкурентов с Keys.so.

Шаг 2. Первичный парсинг ключевых фраз

Для парсинга фраз используем Key Collector (Словоёб не подойдет). Рекомендуется зарегистрировать 5-8 аккаунтов на Яндексе для парсинга и антикапчу.

1) Создаем папки в проекте Key Collector. Каждое входное слово — одна папка. Синонимы или фразы с разным написанием (но одним смыслом) — вносим в одну папку.

2) Отдельной папкой вносим запросы конкурентов (выгрузка с Keys.so).

3) Собираем фразы с левой колонки Wordstat. Нажимаем «пакетный сбор левой колонки wordstat» -> распределить по группам -> раскидываем наши вводные по папкам и запускаем сбор.

4) Собираем поисковые подсказки. Жмем «пакетный сбор поисковых подсказок» -> распределить по группам -> раскидываем наши вводные по папкам и запускаем сбор.

5) Собираем точную частоту для всех фраз ("!") через Яндекс.Direct. Что не собралось Директом — дособираем лупой.

Шаг 3. Чистка фраз после первого парсинга

Важно! Фразы мы не удаляем, а перемещаем в корзину.

1) Добавляем стоп-слова и убираем отмеченные фразы.

2) Убираем все фразы с точной частотностью ("!") меньше 10.

3) Убираем однословники (через фильтр фраз находим фразы, которые состоят из 1 слова).

4) Через Анализ групп просматриваем группы и при необходимости добавляем стоп-слова и дополнительно чистим.

Шаг 4. Вторая итерация парсинга

Все фразы, которые остались после чистки, отправляем на повторный сбор данных с левой колонки Wordstat и поисковые подсказки. Структуру папок сохраняем.

Шаг 5. Добавляем выгрузки из Букварикса

Выгрузки добавляем в каждую папку. Открываем скачанный csv файл, выделяем фразы и добавляем в группу. Синонимы и разные написания отправляем в одну папку.

Шаг 6. Добавляем конкурентов

Переходим в папку с запросами конкурентов. И по каждому вводному слову выполняем поиск и переносим запросы в соответствующие папки.

Шаг 7. Повторная чистка

Аналогично как и после первого парсинга.

Шаг 8. Удаление неявных дублей

Пример неявного дубля: «курс биткоин» и «биткоин курс».

Считаем query (лупой) и удаляем дубль, который имеет меньшую частоту.

Ускорение чистки неявных дублей: Выбираем все папки -> включаем мультигруппу -> инструмент работы с неявными дублями -> фильтр (фраза -> is checked –> истина) –> считаем QUERY

Таким образом соберем максимально полный список фраз готовый к группировке.

Поделиться
Плюсануть
Роман Яковенко
Менеджер Интернет-проектов
Роман Яковенко