🌳 Структурный сбор семантики
Хочу поделиться с вами способом, который хоть и не очень просто, но можно воспроизвести вручную, а при должной автоматизации позволит здорово сократить время на сбор семантики и оценку текущего состояния сайта по существующим страницам. Поскольку про этот подход ни разу не слышал, то пусть будет авторским и называется "Структурный сбор семантики
".
⭐️Решаемая задача:
- Собрать существующую структуру сайта
- Собрать 10 самых целевых поисковых запросов для каждой страницы/категории
- Оценить среднюю позицию по кластеру и суммарную частотность
- Увидеть кластеры, под которые уже есть страницы с максимальным потенциалом к росту
⭐️Понадобятся инструменты:
- Screaming Frog
- Keys.so
- Key Assort
⭐️Описание
Может показаться, что я предложу спарсить сайт и обратиться к Keys.so за запросами страницы, но нет - такое работает плохо, будем действовать чуть сложнее.
1️⃣ Через Screaming Frog парсим сайт и достаём хлебные крошки, подробно на видео
2️⃣ В Excel таблице ко всем названиям категорий дописываем "купить в Москве". Так мы из названия категории делаем коммерческий запрос
3️⃣ Выгружаем запросы в KeyAssort и собираем топ-10 выдачи, чтобы найти сильнейших конкурентов
4️⃣ Теперь обращаемся по API или через веб-интерфейс к инструменту "Список запросов страниц", так мы находим все самые релевантные запросы
5️⃣ Удаляем нечеткие дубли и фильтруем запросы по весу (>4 и wordstat >10), из них оставляем 10 самых частотных
6️⃣ Собираем CSV файл формата: Путь до страницы — Название страницы/категории — 10 запросов
7️⃣ Выгружаем в TopVisor / KeyCollector все запросы с распределением по группам, подгружаем данные по частотности и позиции и полностью понимаем среднюю позицию кластера и суммарную частотность 10 маркерных запросов.
✅️ Выглядит сложно, но при наличии пары скриптов способ позволяет за час получить полный расклад по состоянию сайта и выбрать приоритет проработки.
🚫 У Keys.so даже не был описан функционал API для обращения к этому инструменту, поэтому по ссылке то, что удалось выудить из тех. поддержки, если соберётесь автоматизировать
Как заставить Google показывать миниатюры изображений в результатах поиска
1) Картинка должна быть релевантна поисковому запросу.
2) Использовать качественные изображения, лучше без прозрачного фона.
3) Чем выше качество картинки, тем выше её нужно ставить на странице.
4) Избегать картинок, где изображено сразу несколько продуктов.
5) Прописать заголовок продукта.
6) Прописать alt изображения.
7) Не использовать JS при загрузке изображения.
8) Если нужно показывать несколько миниатюр в выдаче, на странице категории должно быть больше 8 релевантных изображений.
9) Структурированные данные влияют на показ миниатюр в выдаче только, если url картинки прописан в этих данных.
Источник: brodieclark.com.
Добротное видео! Никакой мишуры и инфопитушни, смотрим 🔥
https://www.youtube.com/watch?v=Of5dy-j0zZU
Несколько вещей, которые вы должны знать о GA4
Наступило 1 июля и Google Analytics 4 заменил Universal Analytics, данные в UA прекращают собираться, а через год исторические данные будут недоступны.
Пользователь SEOPub на Reddit'е поделился полезными фактами:
— Sessions (cеансы) - это посещения вашего сайта. В отличие от UA, сеансы могут иметь несколько источников трафика
— Engaged Sessions (сеансы с взаимодействиями) - новая метрика. Она обозначает любой сеанс, который:
- длится более 10 секунд
- или включает 2 или более просмотров страниц
- или имеет хотя бы 1 конверсию
— Engagement Rate (доля взаимодействий - кривой перевод в русском интерфейсе) - кол-во сеансов с взаимодействиями, деленное на общее кол-во сеансов. Например, если у вас 1000 сеансов и 840 из них были с взаимодействиями, ваш engagement rate составит 84%
— Bounce Rate (показатель отказов). Изначально отсутствовал в GA4, потом его добавили, но методика подсчета отличается от UA. В GA4 показатель отказов обратно пропорционален engagement rate. Для примера выше показатель отказов составит 16%.
В UA отказом считалась 1 просмотренная за сессию страница (время не имело значения), поэтому вы можете увидеть резкое падение показателя отказов в GA4 по сравнению с UA из-за изменения методики
— Users (пользователи). Пользователи в GA4 включают только тех пользователей, у которых было взаимодействие - это отличие от UA. Total Users (общее кол-во пользователей) в GA4 ближе соответствует тому, что называлось пользователями в UA
— Average Engagement Time (среднее время взаимодействия) - показатель, который заменил среднее время на сайте в UA.
Это среднее время, в течение которого ресурс (приложение или сайт) находился в активном режиме.
Одна из областей, которая заслуживает похвалы.
UA на самом деле не измерял среднее время, которое посетитель провел на вашем сайте. Он измерял только время между страницами
— Goals (цели) - теперь их нет. В Google Analytics 4 нет целей, есть только конверсии.
Позиции — зачастую это такой «фетиш» клиента. Динамика позиций внимательно изучается, малейшие колебания могут вызвать нервный созвон и отразиться на бюджете. Знакомо?
При этом опытные SEO-специалисты знают, что как ни снимай позиции, какой инструмент ни возьми — некая погрешность будет всегда.
Недавно Яндекс выкатил инструмент мониторинга «средней позиции» по запросу в Вебмастере. И в МОАВе тут же решили проверить, как бьются между собой данные разных сервисов и «эталонная» средняя позиция по версии Яндекса.
Они выгрузили 800+ случайных коммерческих запросов и сравнили «средние позиции», которые отдает Яндекс.Вебмастер, с данными популярных сервисов — MOAB Tools, Rush, Pixel, Topvisor.
Итог был в принципе ожидаем.
1. На массиве в 835 фраз данные условно «неверны» для ~20% фраз во всех сервисах. На большем массиве разница между сервисами сгладится, процент отклонений должен сохраниться.
2. В данном исследовании важен тот вывод, что все сервисы немного искажают реальность. Важно следить не за позицией по конкретному слову, а за общим трендом по статистически достоверному семантическому ядру.
3. Подтвердилось такое явление, как «выпадение».
Каждый из сервисов для части фраз не находит искомый сайт в топ-100, хотя по данным ЯВМ этот сайт обычно в топ5-10. Это общий баг, решения пока нет.
Читать исследование МОАВ→ https://vc.ru/marketing/731735-provereno-moab-stoit-li-doveryat-otchetam-o-poziciyah-v-seo
Свежерег за 3 месяца в ТОП по автоподбору 😎
https://www.youtube.com/watch?v=_iu1qClqqfg
😀 Яндекс.Вебмастер довольно оперативно добавил функционал экспорта поисковых запросов из мониторинга и это хорошая новость, скрипт выгрузки больше не актуален.
📊 Отказаться от сервисов проверки позиций пока все еще не выйдет, но раз в неделю выгружая данные в PowerBI можно собрать неплохой бесплатный наглядный отчёт с динамикой позиций, спроса и кликов.
☑️Для себя вижу пользу сервиса в быстром поиске разгоняющихся тем, под которые оперативно можно создать страницы (сортировка по колонке спрос) и работу с запросами для генерации метаданных через ChatGPT, правда предварительно придётся собрать релевантные страницы, удобнее всего это делать через Key Collector
😎 Где хостить PBN, чтобы не спалить сеть
У ребят из Ant-Team вышло полезное видео о том, где и как размещать домены.
Речь идет про хостинг как в малых объемах, так и в больших масштабах.
▪️ Почему PBN обычно поднимают на VDS.
▪️ Что такое реальный виртуальный регистратор.
▪️ Почему нельзя размещать много сайтов на одном хостинге.
▪️ Как выбрать хостинг.
▪️ На каких хостингах размещают сайты в рунете.
Ребята объясняют, что хостинг - это просто, если знать фишки и безопасные схемы. И про них как раз рассказывают в видео.
📌 Ссылка на урок: https://www.youtube.com/watch?v=xcnkPUooqNM&utm_source=t.me%2Fseopraktika
🤖 До 15 июня еще можно попасть на второй поток курса по PBN (https://pbn-course.ru/). Но курс не для ленивых, а для тех, кто реально хочет научиться.
Кейс использования искусственного интеллекта для SEO в онлайн-кинотеатре Okko: https://vc.ru/seo/710115-biznes-seo-uvelichili-vidimost-sayta-i-sokratili-rashody-na-kopirayting-v-3-raza-dlya-onlayn-kinoteatra
Часть этой работы передали ChatGPT, а часть – кожаным мешкам человекам. И сравнили результаты.
Как работает система оценки полезного контента в Google
Прошедший полгода назад Helpful Content Update изменил подходы Google к оценке полезности контента на сайте.
Мари Хейнс провела анализ ранжирования сайтов в течение полугода после этого апдейта и написала годный лонгрид об этом.
Но нам с вами лень будет его читать, поэтому выжимка:
1. Helpful Content Update действует постранично — отдельная оценка для каждой страницы.
2. Сайт понижается в выдаче, если большая часть его страниц будет расценена как «неполезные» или «малополезные».
3. Возросла роль ссылочного: страницы, на которые ссылаются качественные ресурсы, скорее всего будут признаны полезными.
4. Возросла роль отзывов: страницы с хорошими отзывами ранжируются лучше. Если таких отзывов много, то весь сайт может улучшить свои позиции.
5. Страницы с хорошей структурой, информативными таблицами, глубоким анализом и ответом на запрос пользователя в начале страницы (включая продажи), ранжируются лучше.
6. Соответствие E-E-A-T стало ещё более значимым фактором признания страницы полезной.
7. Анализ полезности контента происходит постоянно, иногда месяцами, и не обязательно совпадает с объявленными апдейтами.
8. Падение органического трафика после 14.12.2022 вероятнее всего связано с SpamBrain — апдейтом по борьбе со ссылочным спамом. SpamBrain был запущен почти одновременно с Helpful Content Update, а потому бывает сложно понять какой из них вызвал падение.
9. Избавиться от ссылочного спама иногда помогает использование disavow, но сначала нужно убедиться, что снижение позиций наблюдается именно у страниц, на которые размещались те ссылки, которые SpamBrain мог признать спамными.
Источник: mariehaynes.com.
Уговорили, выкладываю инструкцию как заработать на своих проектах без вложений за месяц 🔥
Читать полностью…Немного "жёлтых" новостей, от жёлтого поисковика.
Крипта позволяет Яндексу и его партнерам показывать каждому из миллионов людей, которые заходят на сайты сервисов Яндекса и его партнёров, наиболее актуальную рекламу. Другими словами, эта технология даёт рекламодателям максимально точно таргетировать свою целевую аудиторию. Выяснить, принадлежит ли пользователь к такому сегменту, Крипта может по его поведению в интернете.
Система специально устроена так, что Крипта не получает напрямую идентифицирующую людей информацию и тем более не передаёт её рекламодателям. Каждый пользователь для неё — это набор идентификаторов. Крипта может с высокой вероятностью предположить, что пользователю с таким-то идентификатором может быть интересно такое-то предложение, — но кто этот человек, как его зовут и тому подобное, она не знает.
Отразится это на накрутке ПФ? Нет, не отразится!
https://yandex.ru/company/technologies/crypta
Какая прелесть от FirstVDS
Проверяйте свои сайты на дубли в органике!
UPD: написал им в поддержку.
Помогает ли семантическая HTML-верстка (семантический код) в плане идентификации и оценки контента?
Джон Мюллер: простой ответ — да, семантический HTML действительно помогает понять страницу, однако это не волшебный мультипликатор для улучшения ранжирования сайта.
via YouTube / Google Search Central
🔻SEO Услуги 🔻 MTPremium
#предлагаю #ссылки #крауд #seo
📍Крауд Маркетинг📍
✅ Текст пишется нейтивом
✅ Качественные, модерируемые площадки
✅ Гарантия на ссылки в течении года.
✅ Ссылки проставляются постепенно(drip-feed).
✅ 50% DF
✅ DR средний 50+
✅ Топики исключительно релевантные под ваш сайт, не заспамленные.
US🇺🇸, GB🇬🇧, AU🇦🇺, DE🇩🇪,FR🇫🇷, IT🇨🇮, IN🇮🇳,ES🇪🇸…
Подберём соответствующую цену для вашего запроса + от нас скидка 10%
📍Outreach Guest Posting📍
Мы подберём лучшие ссылки под ваш бюджет. Работаем за фиксированную цену и более того, вы сами оплачиваете напрямую рекламодателю.
📍GSA📍SEO AUDIT📍SEO📍
US🇺🇸, GB🇬🇧, AU🇦🇺, DE🇩🇪,FR🇫🇷, IT🇨🇮
Наш контакт @mtpremium
Коллеги и PixelPlus обновили рейтинг факторов E-E-A-T в Google в 2023. Новое исследование, которое можно использовать как чек-лист при работе в YMYL-тематиках.
Читать полностью…✅ Коллеги, наша команда в поисках SEO-специалиста (удаленная работа из любого региона), знающего тонкости работы поисковых систем, с хорошими аналитическими способностями и упорством в достижении результатов.
▫️ У каждого SEO-специалиста в продвижении до 10 сайтов, поэтому будет время на детальную аналитику и анализ каждого проекта;
▫️ Работа из дома, т.е. в максимально комфортных для Вас условиях;
▫️ Работа через удобную систему управления задачами по четкой методологии;
▫️ Есть возможность ставить эксперименты и приобретать новые компетенции;
▫️ Рост компетенций и профессионализма через обмен опытом с коллегами;
▫️ Регулярно тестируем автоматизацию рутинных seo-задач платными seo-программами и сервисами;
▫️ Возможность разработки персональной автоматизации (есть штат программистов);
Вакансия тут 👉 https://hh.ru/vacancy/81622071
ТОП-10 и -35 Telegram-каналов для SEO-специалистов 🤘
Специально для вас мы подготовили список Telegram-каналов, на которые рекомендуем подписаться, чтобы быть в курсе последних событий и тенденций в области поискового продвижения сайтов.
В списке следующие типы каналов 📃
• SEO-новости, -статьи, -эксперименты (23 шт.).
• SEO-чаты (4 шт.).
• SEO-сервисы (7 шт.).
• SEO-вакансии (1 шт.).
👉 Подписаться на ТОП-10 каналов — /channel/addlist/AE174SSGOO8xNDNi
или
👉 Подписаться на ВСЕ каналы — /channel/addlist/8k3blzqcAbYzZWQy
Если наш список оказался вам полезен, обязательно поделитесь ссылкой на него со своими коллегами и друзьями 💬
«Ашманов и партнеры» выпустили обновление отчета "Факторы ранжирования 2023"
Качаем! https://www.ashmanov.com/static/files/aip_lab_otchet_2023_OPV.pdf
Давно не читал действительно интересных методик в SEO и респект MOAB'у что делятся, потому что фактически отдают технологию, которая давала им конкурентное преимущество на пресейле.
🔗 Статья про быстрый сбор семантики для крупных порталов на основе масок урлов из топа. Кому нужны детали, лучше почитать в оригинале, а здесь краткая транскрибация от меня, потому что может восприниматься сложно, особенно для людей, которые с подобными задачами не сталкивались.
—
❓ Для чего - к вам пришёл клиент, этому клиенту надо показать наиболее чистое и полное семантическое ядро не из маркерных запросов с текущими позициями и видимостью для демонстрации потенциала роста.
➡️ Общий смысл следующий:
* Парсинг 😀 Яндекс.Wordstat с глубиной 2 по общим маркерным запросам (например, "диваны", здесь собираются целевые коммерческие запросы, нецелевые и информационные запросы)
* Изучается выдача на предмет того, какие сайты чаще всего встречаются в топе по коммерческим запросам и анализируют их URL
* Фиксируют в Excel-таблице маски урлов с привязкой к нужной категории для самых сильных конкурентов (пример: *citilink.ru*smartfon*
- если работа идёт с разделом "Смартфоны")
* Каждому запросу проставляют 1 или 0 рядом с маской - есть ли страница конкурента в топе с подходящим адресом
* Поскольку 🛒 Яндекс.Маркет есть по всем коммерческим запросам - его делают ключевым при определении "коммерческости" запроса.
* По итогу каждый запрос проходит проверку на коммерциализацию (1 или 0 по маркету) и дальше набирает баллы. Если набрал больше X баллов (определяется индивидуально), то отправляется в целевые
😄 Для меня было крутым инсайтом определение типа запроса - категорийный
или продуктовый
, стыдно что не догадался сам, хотя ломал голову над такой задачей.
Снова обращаемся к маскам урлов с выдачей и проверяем, например, Ozon ранжируется с URL /product/
или /category/
, в зависимости от этого присваиваем тип.
☑️Однозначно беру на вооружение, правда возится с вордстатом лень, для меня этот пункт пропускается и на анализ сразу буду отдавать всё ту же групповую семантику из Кейсо, которая собирается на основе конкурентов за 10 минут.
Они наконец раскрыли секрет — как МОАВ делает прогнозы трафика на пресейле, не уходя при этом в минус.
Всем известно, что обработка больших массивов семанта, особенно на новом проекте, — это часы, десятки, сотни часов специалистов. А делать это еще до того, как клиент заплатил, — путь в финансовую яму.
Однако автоматизация рулит.
И на 100к запросов может уйти примерно 10-15 часов, не более.
МОАВ рассказывает, как использовать «маски» URL — паттерны в структуре URL коммерческих разделов, которые собираются со всех топовых сайтов в нише. Это единственная часть, требующая ручного труда. Затем всё сбивается в таблицу и очищается по заданному алгоритму.
(сервис выложен в открытый доступ, можно потыкать самим и убедиться)
Четкий гайд с разбором конкретного примера с мебельным гипермаркетом HOFF — читайте и применяйте → https://vc.ru/marketing/705323-prodavat-mozgi-a-ne-ruki-kak-v-moab-avtomatiziruyut-rutinu-v-seo
Как правильно считать краулинговый бюджет
Напоминание: Googlebot выполняет JS на страницах.
Что это значит?
1) Googlebot может выполнять коды счетчиков, если они не заблокированы в файле robots.txt.
2) В этом примере сайт имеет довольно большой краулинговый бюджет, около 500 млн запросов Googlebot'а в месяц.
Но присмотревшись, мы обнаружили, что более половины из них — это запросы кода отслеживания — 259 млн запросов!
3) Краулинговый бюджет — это количество запросов на сканирование определенного количества страниц на сайте.
Современные JS-страницы имеют возможность делать дополнительные запросы через JS-код(AJAX). Однако эти запросы не следует рассматривать как часть краулингового бюджета.
4) Крайне важно погрузиться в данные на уровне URL, чтобы убедиться, что вы анализируете запросы Googlebot'а на получение контента страниц, а не служебных кодов отслеживания.
5) Таким образом, вместо 481 млн посещений реальный краулинговый бюджет составляет около 222 млн - в 2 раза меньше.
via Serge Bezborodov
Привет, хочу с вами поделиться полезным каналом для SEO - специалистов и предпринимателей- t.me/rushpartner
Это канал компании Rush Agency - 10 лет на рынке, более 150 сотрудников в штате, продвигали проекты более чем в 15 странах, имеют более 300 проектов на продвижении.
Ребята пишут полезный контент про SEO, диджиталку, а также делятся опытом и лайфхаками в построении агентства:
— Полезные статьи, которые помогут вам в работе
— Мини-гайды и руководства к применению
— Последние новости мира digital
Помимо этого они у себя в канале раздают лиды и делятся тендерами, которые вы можете забрать себе в работу.
Канал является классной базой знаний, которые вы сможете применять в своей работе.
Вэлком в банду ПО ССЫЛКЕ!