Методика составления семантического ядра по Пузату


22 января, 2018 Web-технологии
План составления списка запросов для продвижения информационных сайтов по методологии Романа Пузата. Инструкцию составляю по занятиям Вадима Захарова на курсе Марафон Начало (осень 2017). Материал составил для себя (как конспект и чтобы подробнее разобраться). Будет полезна многим вебмастерам.
СОДЕРЖАНИЕ СТАТЬИ
- Шаг 1. Сбор входных слов
- Шаг 2. Первичный парсинг ключевых фраз
- Шаг 3. Чистка фраз после первого парсинга
- Шаг 4. Вторая итерация парсинга
- Шаг 5. Добавляем выгрузки с Букварикса
- Шаг 6. Добавляем конкурентов
- Шаг 7. Повторная чистка
- Шаг 8. Удаление неявных дублей
Шаг 1. Сбор входных слов
1) Изучаем тематику: википедия, конкуренты, справочники, книги. Составляем список входных слов выбранной тематике. Если не знаете что означает слово — внести его в список. Выкинуть всегда можно.
2) Cобираем данные из Букварикса. Применяем фильтр "!Точная !частотность" от 5.
Скачиваем полученные данные на компьютер (в .csv).
3) Находим 3-5 конкурентов (узких, с нашей ниши). Собираем их запросы через сервис Keys.so. Получится это сделать только в платном тарифе (от 1500 руб в месяц). Можно поискать вебмастеров у которых есть платный аккаунт и попросить сделать выгрузку.
Получаем: список входных слов, выгрузки с Букварикса по каждому слову, выгрузка списка запросов конкурентов с Keys.so.
Шаг 2. Первичный парсинг ключевых фраз
Для парсинга фраз используем Key Collector (Словоёб не подойдет). Рекомендуется зарегистрировать 5-8 аккаунтов на Яндексе для парсинга и антикапчу.
1) Создаем папки в проекте Key Collector. Каждое входное слово — одна папка. Синонимы или фразы с разным написанием (но одним смыслом) — вносим в одну папку.
2) Отдельной папкой вносим запросы конкурентов (выгрузка с Keys.so).
3) Собираем фразы с левой колонки Wordstat. Нажимаем «пакетный сбор левой колонки wordstat» -> распределить по группам -> раскидываем наши вводные по папкам и запускаем сбор.
4) Собираем поисковые подсказки. Жмем «пакетный сбор поисковых подсказок» -> распределить по группам -> раскидываем наши вводные по папкам и запускаем сбор.
5) Собираем точную частоту для всех фраз ("!") через Яндекс.Direct. Что не собралось Директом — дособираем лупой.
Шаг 3. Чистка фраз после первого парсинга
Важно! Фразы мы не удаляем, а перемещаем в корзину.
1) Добавляем стоп-слова и убираем отмеченные фразы.
2) Убираем все фразы с точной частотностью ("!") меньше 10.
3) Убираем однословники (через фильтр фраз находим фразы, которые состоят из 1 слова).
4) Через Анализ групп просматриваем группы и при необходимости добавляем стоп-слова и дополнительно чистим.
Шаг 4. Вторая итерация парсинга
Все фразы, которые остались после чистки, отправляем на повторный сбор данных с левой колонки Wordstat и поисковые подсказки. Структуру папок сохраняем.
Шаг 5. Добавляем выгрузки из Букварикса
Выгрузки добавляем в каждую папку. Открываем скачанный csv файл, выделяем фразы и добавляем в группу. Синонимы и разные написания отправляем в одну папку.
Шаг 6. Добавляем конкурентов
Переходим в папку с запросами конкурентов. И по каждому вводному слову выполняем поиск и переносим запросы в соответствующие папки.
Шаг 7. Повторная чистка
Аналогично как и после первого парсинга.
Шаг 8. Удаление неявных дублей
Пример неявного дубля: «курс биткоин» и «биткоин курс».
Считаем query (лупой) и удаляем дубль, который имеет меньшую частоту.
Ускорение чистки неявных дублей: Выбираем все папки -> включаем мультигруппу -> инструмент работы с неявными дублями -> фильтр (фраза -> is checked –> истина) –> считаем QUERY
Таким образом соберем максимально полный список фраз готовый к группировке.