Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
SEO мертво, да здравствует Google Discover
!
У вас есть сайт, соответствующий этим критериям?
💎 Тогда вы сидите на золотой жиле потенциального трафика.
Вот требования, которым нужно соответствовать:
☐ 🗞 Ваш сайт редакционного характера
— Вы управляете медиа-ресурсом, блогом или информационным сайтом, который в основном публикует редакционный контент вроде статей.
— Бонус: Ваш сайт включен в Google News
(опционально).
☐ 🚀 У вашего сайта крепкая техническая база
— Ваши статьи (производительность главной страницы не так важна!) загружаются быстро и получают как минимум оранжевые, а в идеале зеленые показатели в инструментах Google (Page Speed Insights
).
— Статьи индексируются быстро (естественным путём в течение 24 часов, в течение 3 часов если в Google News
).
— Бонус: Ваш сайт проходит Core Web Vitals
(опционально).
☐ 👪 У вас уже есть существующая аудитория
— Неважно откуда: из поиска, соцсетей или любых других источников трафика.
— Минимум желательно 5К посетителей в месяц, но чем больше, тем лучше!
☐ 💰 Ваш трафик идет (или мог бы идти) из стран с высоким RPM
— США, Великобритания, Канада, Австралия...
— Бонус: Вы уже монетизируете аудиторию через медийную рекламу (опционально).
☐ 💑 У вас сильные поведенческие метрики
— Лояльная аудитория, которая возвращается.
— Высокое время на страницах.
— Бонус: Высокая глубина просмотра (>2, опционально).
☐ 📈 Вы в хороших отношениях с Google
— Не попали под последние Core Update
, HCU
или другие апдейты Google.
— График трафика стабилен или растет последние 3 месяца.
☐ 🪩 Вкладка Discover
уже видна в вашей GSC
— Даже если показатели низкие, это значит, что вы потенциально подходите.
— Бонус: У вас уже есть какие-то показы/клики органически, без активной стратегии.
☐ ✅ Вы уделяете внимание сигналам E-E-A-T
— Статьи подписаны реальными авторами, несут добавленную ценность, и ваши юридические данные прозрачны.
— Бонус: У вас есть UGC
контент (секция комментариев, взаимодействие с пользователями и т.д.) (опционально).
Если вы отметили 6 (или больше) из этих 8 пунктов, у вашего сайта высокие шансы получить миллионы дополнительных посещений через Google Discover
.
@MikeBlazerX
Всего за ПЯТЬ дней совершенно новое паразитическое SEO-партнерство прошло путь от 0 до более чем $1.2 МИЛЛИОНА ежемесячного трафика по данным Ahrefs
...
Как этот нишевый сайт смог это сделать?
Скриншот
В настоящее время он занимает #1 место в США по таким ключам, как "best online casino
", "online slots
", "real money casinos
", "new online casinos
" и даже #6 место просто по запросу "slots
"!
И всё это всего за 5 дней?!
Как им это удалось?
Скриншот
Ну, во-первых, Google пытался бороться с таким поведением с помощью "политики злоупотребления репутацией сайта", но спустя годы так и не смог внедрить что-либо на алгоритмическом уровне.
И именно алгоритм является причиной такого высокого ранжирования!
Скриншот
Алгоритм Google постепенно настраивался (в течение последних нескольких лет) на то, чтобы отдавать предпочтение сайтам с "авторитетом" - то есть сайтам, на которые ссылается наибольшее количество других сайтов в интернете.
Вероятно, здесь также играют роль фактор свежести, тематический авторитет и умная оптимизация контента, хотя они используют даже AI
-изображения, так что...
Скриншот
Вы можете спросить себя, кто же стоит за этим?
В большинстве случаев сами сайты недостаточно умны, чтобы реализовать такие стратегии самостоятельно, и часто им не хватает воображения, чтобы придумать такую идею.
Кстати, ОЧЕНЬ прибыльную идею!
Скриншот
Если отследить автора всех этих постов, похоже, что это реальный человек, но маловероятно, что она подготовила ВЕСЬ этот контент самостоятельно за 2 дня...
Скриншот
Быстрая проверка её LinkedIn
показывает, что она работает в Esports Insider
, а также является "Контент-редактором" в "ClickOut Media
".
Скриншот
Кто такие ClickOut Media
?
Скриншот
Да, у Google есть политика против этого...
Но ручные санкции применяются редко, а алгоритм всё больше и больше настраивается на то, чтобы поощрять эту стратегию.
И это поощрение может составлять более $1 миллиона В НЕДЕЛЮ в комиссионных!
Скриншот
А когда Google всё-таки применяет санкции, они затрагивают только нарушающие подпапки, что не наносит реального ущерба издателю, а третья сторона может просто перейти к следующему новостному сайту с DR70+
, готовому печатать бесплатные деньги, пока это возможно!
Скриншот
-
После того, как сайт попал под ручные санкции, Esports Insider
практически ПОЛНОСТЬЮ ВОССТАНОВИЛСЯ всего за несколько дней на той же самой подпапке 👀
См. скриншот к посту.
@MikeBlazerX
Учитывает ли Google "стоимость извлечения" в качестве фактора ранжирования?
Марк Уильямс-Кук скептически относится к концепции "cost of retrieval", аргументируя это тем, что Google в любом случае необходимо получить контент, чтобы определить стоимость его извлечения, и что ранжирование качественного контента должно иметь лучшую ожидаемую ценность для Google, чем ранжирование контента более низкого качества только потому, что он имеет меньшую стоимость извлечения.
Признавая логичность того, что системы Google переходят от вычислительно дешёвых к вычислительно дорогим тестам (например, используя быстрые тесты для фильтрации 900 тысяч очевидно плохих страниц из миллиона перед применением более ресурсоёмких тестов), он ставит под вопрос, как этот процесс оптимизации связан со стоимостью извлечения контента как фактором ранжирования, отмечая, что некачественный контент останется некачественным в любом случае.
Ответы и мнения SEO-специалистов
1. Бизнес-перспектива:
— С точки зрения операционных расходов бизнеса, оптимизация для минимизации затрат имеет смысл, так как снижение расходов увеличивает прибыль
— Prerender
может быть фактором, хотя наблюдаемый буст может быть просто результатом улучшения скорости сайта, а не стоимости обработки
2. Перспектива краулинга:
— Поисковики краулят целые сети страниц, а не отдельные страницы
— Они настраивают оценки целесообразности инвестирования ресурсов в остальные страницы домена/сайта/кластера связанных страниц
— Эти оценки учитывают востребованность и уникальность контента
— Страницы в "хороших окрестностях" могут получить больше инвестиций благодаря своим связям
3. Инсайты по распределению ресурсов:
— Индексация веба - это задача оптимизации: цель - потратить минимум ресурсов для извлечения уникального контента, который нравится пользователям
— Частота краулинга - ранний индикатор инвестиций в контент
— Иерархия легкости обработки контента: размеченный семантический контент > чистый HTML
> JS
-рендеринг
4. Наблюдения по авторитетности и индексации:
— Сигналы авторитетности могут перевешивать другие сигналы, например, каноникалы
— Идентичные страницы авторитетных сайтов (с параметрами отслеживания) могут индексироваться и рендериться
— Медленно загружающиеся клиент-рендеринг сайты получают ограниченные ресурсы краулинга/индексации по сравнению со статическими быстрыми сайтами
5. Связь с Core Web Vitals
:
— CWV
связаны с энергопотреблением за счет сокращения времени/ресурсов на обработку страниц
— Метрики стоимости можно определить только после рендеринга
— Любая стоимость извлечения будет ретроактивной метрикой
— Предположения о стоимости можно делать после сбора достаточного количества данных
— Сеть ссылок показывает ценность, которая распространяется по сети
6. Перспектива коммуникации Google:
— Если бы "стоимость извлечения" была важным фактором, Google, вероятно, более открыто коммуницировал бы об этом, поскольку они обычно делятся рекомендациями о том, как помочь им лучше индексировать веб, и возможно даже создали бы специальную метрику для этого
@MikeBlazerX
Совет по копирайтингу:
Используйте негатив в заголовках.
Вместо: "Идеальная кофемашина для вашего утреннего эспрессо."
Напишите: "Как большинство кофемашин портят ваш кофе (и почему наша - нет)."
Негатив отлично цепляет внимание.
@MikeBlazerX
Пора прекратить относиться к графикам трафика из SEMrush
и Ahrefs
как к священному Граалю данных.
✅ Их другие функции? Божественны.
❌ Графики трафика? Полная чушь.
Я бомбил по этому поводу почти пять лет назад, и точность этих метрик стала только хуже, пишет Стивен Лорд.
Не специально.
Такова природа поиска.
Вот лишь две причины (из сотни), почему пора двигаться дальше:
1️⃣ "Трафик — пузомерка. Профит — здравый смысл."
Ни один бизнес не зарабатывает на ранжировании по "business name ideas".
Трафик ничего не значит, если не приводит к значимым действиям.
Хватит зацикливаться на графиках трафика и начните фокусироваться на том, что ваш трафик реально делает.
2️⃣ Начните заботиться о достоверности данных.
Посмотрите на графики в этом посте.
Даже если органический трафик был бы главной метрикой, использование этих инструментов означает, что вы собираетесь рассказать откровенную ложь.
Это не данные.
Это выдумка.
Я уже чувствую, как дата-гики поднимают головы, чтобы напомнить мне, что GSC
тоже не на 100% точен — и это правда.
Но в мире, где атрибуция практически невозможна, хотя бы берите данные максимально близко к источнику, вместо того чтобы полагаться на сторонние оверлеи.
За последние недели мы видели сотни постов о предполагаемом падении трафика HubSpot
.
Теперь SEMrush
будет следующим в списке, так как их собственные инструменты показывают 50% падение с декабря 2023 года.
Но я готов поспорить, что их выручка стабильна — или даже растёт.
Почему?
Потому что TOFU
(верхняя часть воронки) становится безкликовым событием.
И ни одна компания масштаба HubSpot
или SEMrush
не растёт за счёт ранжирования статей по "memes" или "business name ideas".
Пора двигаться дальше этих устаревших метрик.
Начните оптимизировать под выручку, а не трафик.
Переходите от этих метрик к чему-то более существенному.
Ориентируйтесь на факты.
@MikeBlazerX
Что-то назревает.
Запасайтесь мешками для денег.
https://trends.google.com/trends/explore?q=seo%20agency,seo%20services&hl=en
@MikeBlazerX
Вам не надо быть супер умными и опытными в SEO чтобы быть успешными.
Всего лишь надо побольше тестить на тестовых сайтах и применять то что сработало - на рабочих сайтах.
@MikeBlazerX
В исходном коде браузера Edge
был найден список доменов с тайпосквоттингом (опечатками).
Вот инструмент для проверки, находится ли ваш домен в этом списке:
https://dejan.ai/tools/typosquatting/
@MikeBlazerX
Как Airbase
удвоил органический трафик за 9 месяцев
ФинТех-стартап Airbase
удвоил количество уникальных пользователей из органического небрендового трафика и увеличил ежемесячное количество клиентов на 40% благодаря систематической контент-стратегии для нижней части воронки.
За девять месяцев было создано 56 оригинальных статей, написанных людьми и нацеленных на ключевые слова нижней части воронки.
Трансформация началась с переориентации создания контента с верхней части воронки на нижнюю (BOFU
-стратегия).
Предыдущие SEO-стратегии предлагали контент, не соответствующий основной аудитории высокообразованных финансовых специалистов, но подход BOFU
был конкретно нацелен на потребности лиц, принимающих решения.
SEO-стратегия работала через четыре взаимосвязанные системы.
Журнал приоритетов SEO служил основой основ, отслеживая возможности контента, прогресс и показатели эффективности.
Приборная панель SEO Testing Dashboard
отслеживала текущие эксперименты по оптимизации, начиная с обновления метаописания и заканчивая таргетингом фичерд сниппетов.
Анализ ключевых слов определял высокоценные возможности в рамках общего адресного рынка.
Шаблоны контент-брифов стандартизировали процесс создания, обеспечивая соответствие каждого материала поисковому интенту и целям конверсии.
Еженедельные операции следовали строгому процессу.
Каждая сессия начиналась с анализа возможностей и жесткой приоритизации проектов.
Рабочий процесс двигался от поиска ключевых слов к контент-брифам, затем в очередь публикации контент-команды.
Такой систематический подход превратил производство контента в повторяемую, масштабируемую операцию.
Первоначальный фокус на генерации ежемесячного количества клиентов оказался решающим для поддержания импульса стратегии.
Хотя общий рост трафика занял время, первые BOFU
-статьи быстро начали конвертировать, демонстрируя эффективность стратегии.
Данные Ahrefs
показали значительный рост небрендового трафика, опережающий брендовый, с заметными улучшениями позиций в топ-3 и топ-10.
Параллельные оптимизационные инициативы дополняли контент-стратегию.
Стратегия SEO-тестирования постоянно улучшала эффективность страниц, а оптимизация рич сниппетов повышала видимость в СЕРПах.
Эти комбинированные усилия поддерживали рост трафика и конверсий на протяжении всего девятимесячного периода.
https://loganbryant.com/airbase-pre-acquisition-seo-case-study
@MikeBlazerX
LLMs.txt
: Делаем сайты читаемыми для AI-поискаllms.txt
- это аналог robots.txt
, но для LLM
, помогающий AI
-моделям лучше понимать контент вашего сайта.llms.txt
улучшает видимость в AI
-поиске, предоставляя чистую, структурированную версию контента сайта, которую большие языковые модели могут легко обрабатывать и понимать.GPTBot
, PerplexityBot
и ClaudeBot
ежедневно активно фетчат эти файлы, используя их для лучшей интерпретации и индексации контента сайта.
Файл требует специального markdown
-форматирования в корневой директории сайта.
Правильный llms.txt
содержит три основных элемента: название проекта в виде заголовка H1
, краткое изложение ключевой информации в виде блочных цитат и подробные разделы контента.
Вариант llms-full.txt
объединяет всю техническую документацию в один комплексный файл.
Примеры эффективной имплементации llms.txt
можно увидеть здесь, а llms-full.txt
- здесь.
Директория llms.txt
(directory.llmstxt.cloud) показывает более 70 крупных AI
-компаний, уже использующих этот стандарт, включая Cursor AI
, Anthropic
и Perplexity
.
Для имплементации файл должен быть помечен как noindex
для традиционных поисковых систем, оставаясь при этом доступным для AI
-краулеров через директивы robots.txt
:
User-agent: *
Disallow: /llms.txt
llms.txt
файл, используя этот бесплатный инструмент:EEAT
- это больше, чем просто теоретическая концепция
Основываясь на своем непосредственном опыте работы асессором Google, Сайрус Шепард объясняет, как EEAT
практически влияет на поисковую выдачу через три различных механизма.
1. Существуют прямые сигналы, такие как авторитетные обратные ссылки и PageRank
.
2. Происходит оценка асессорами, которые систематически анализируют сайты.
3. Системы машинного обучения Google тренируются на этих человеческих оценках.
Аспект машинного обучения особенно убедителен: тысячи асессоров оценивают сайты на основе критериев EEAT
, создавая огромные наборы данных для обучения алгоритмов Google.
Эти тренировочные данные напрямую влияют на то, как Google определяет и ранжирует качественный контент, делая EEAT
не корреляционным, а конкретным фактором.
В то время как некоторые SEO-специалисты могут отвергать EEAT
как нечто абстрактное, инсайты Шепарда, полученные во время работы асессором, показывают его реальное влияние на позиции в поиске.
Как и в случае с дебатами о поведенческих сигналах и общесайтовых факторах, которые в итоге разрешились, роль EEAT
в системе ранжирования Google стала более понятной и применимой для SEO-специалистов.
@MikeBlazerX
Слишком много людей всё ещё спорят о том, можно ли технически что-то продвинуть в топ, вместо того, чтобы задуматься, а нужно ли это пользователям вообще.
Эти же люди потом будут жаловаться на очередной апдейт алгоритма.
@MikeBlazerX
Вы когда-нибудь задумывались, сколько поисковых запросов в Google реальные, а сколько от ботов?
Похоже, теперь у нас есть ответ.
16 января Google выпустил апдейт, который временно заблокировал ботов, парсящих СЕРПы, таких как SEMRush
, Ahrefs
и тысячи других.
Если проверить количество показов в GSC
за этот день и сравнить с предыдущими днями, можно заметить падение.
Я проверил три домена и обнаружил среднее падение показов на 25%, пишет Идрисс Хуадер.
Получается, что 25% показов на самом деле приходится на ботов. 🤯
@MikeBlazerX
Интересно, что "What People Are Saying
" показывает не только выдержки из социальных сетей (например, LinkedIn
, YouTube
и TikTok
), но и блог-посты брендов, если у статьи есть связанный автор.
Обратите внимание, что все примеры показывают имя автора в карусели.
@MikeBlazerX
Наткнулась на "пресс-релиз" на каком-то новостном сайте, - рассказывает Прити Гупта.
И знаете, что там было написано?
"Компания ABC с огромным восторгом сообщает о публикации своего нового блог-поста".
Вы серьезно?
@MikeBlazerX
Когда блокировка страниц в Robots.txt
приводит к увеличению индексации 🤖
На сайте одного из моих клиентов на Magento недавно начали генерироваться бесконечные фасетные URL
, которые Гугл начал активно краулить, пишет Шарль Вайсье.
Из-за ограниченных ресурсов разработки для нормального исправления проблемы или даже добавления noindex
тегов (которые, как мы знаем, со временем помогли бы Гуглу меньше краулить эти страницы) и предстоящей миграции, мы решили заблокировать URL
в robots.txt
, чтобы предотвратить миллионы ненужных краулов.
То, что произошло дальше, было совершенно неожиданным.
Вместо того чтобы просто прекратить краулинг, Гугл также начал стремительно индексировать эти URL
.
Нашей целью было просто остановить гуглобота от краулинга страниц, оставив их неиндексированными.
Для решения проблемы мы откатили изменения и удалили правила disallow
из robots.txt
.
Постепенно Гугл начал исключать страницы из индекса.
⚠️Что стало причиной?
Каноникал теги на этих фасетных URL
работали корректно, предотвращая их индексацию.
Однако, заблокировав URL
в robots.txt
, мы помешали Гуглу видеть эти каноникал теги, что привело к индексации URL
вместо их игнорирования.
💡Ключевой вывод:
Хотя блокировка URL
в robots.txt
не останавливает их индексацию (что мы знали), она может привести к их индексации, мешая Гуглу видеть критически важные сигналы, такие как каноникал теги.
Этот случай подчеркивает важность понимания того, как различные элементы SEO взаимодействуют между собой, прежде чем вносить изменения.
Как вы думаете, было ли это нормальным и ожидаемым поведением со стороны Гугла?
@MikeBlazerX
7 ключевых элементов SEO-оптимизации для успеха в Google News
Эти семь критически важных факторов ранжирования сосредоточены исключительно на редакционных аспектах, исключая факторы авторитета всего сайта и техническое SEO.
1. Заголовки статей
Для максимального эффекта ключевые слова должны быть размещены в первых 8 словах заголовка, и его длина не должна превышать 110 символов.
Google позволяет использовать до пяти различных SEO-ориентированных заголовков: основной видимый заголовок, мета-тайтл, тег news_keywords
, тег standout
и заголовок в sitemap
для новостей.
Сокращенные термины, такие как "Трамп", иногда работают, но неоднозначные термины, вроде "Гамильтон", могут требовать уточнения.
2. Актуальность (Freshness)
Свежесть контента критически важна, особенно в блоке Top Stories
.
Быть первым в освещении событий — это не гарантия видимости; часто лучше работают несколько публикаций или детальное освещение темы.
Хотя манипуляция URL
может влиять на сигналы актуальности, ею следует пользоваться осторожно, чтобы избежать санкций.
3. Изображения
Графика играет большую роль в увеличении CTR
, хотя напрямую не влияет на ранжирование.
Изображения с людьми, как правило, лучше вовлекают аудиторию.
Google анализирует длину кликов и их качество, чтобы постоянно оптимизировать результаты в разделе новостей.
4. Видимость (Prominence)
Видимость статьи на сайте издателя сказывается на ранжировании через распределение ссылочного веса.
Статьи, размещенные на главной странице или ключевых разделах, получают больше ссылочного веса, что подтверждено утечками из Google Content API Warehouse
.
Почти всегда главная страница — это самый ценный источник с точки зрения ссылочного веса.
5. Вступительный текст (Intro)
Интро предоставляет дополнительные возможности для внедрения ключевых слов.
Использование семантической HTML
-разметки, такой как <h2>
или <strong>
, позволяет акцентировать внимание Google на этом тексте.
6. Основной текст статьи
Контент выигрывает от использования контекстуальных фраз (vector embeddings
), которые помогают Google точнее понимать фокус материала.
Структурированные подзаголовки, размеченные через <h2>
и <h3>
, особенно если они оформлены в виде вопросов, могут улучшить видимость в результатах Google на запросы с вопросительной формой.
7. Внутренняя перелинковка
Перелинковка на страницы с тематическими кластерами усиливает сигналы авторитетности темы.
Хотя это не прямой фактор ранжирования, регулярная внутренняя перелинковка может быть эффективно автоматизирована с помощью систем на базе LLM
, обеспечивая высокую точность размещения ссылок.
https://www.seoforgooglenews.com/p/perfectly-optimised-news-article-for-seo
@MikeBlazerX
Прошло 300+ дней с тех пор, как фотограф Google приехал к нам на фотосессию, пишет Морган.
На следующий же день наш 12-летний бизнес начал разваливаться.
История о том, как Google использует малый бизнес для PR
, а потом хоронит его.
2/ В марте 2024 года Google выбрал нас для кейс-стади Южной Каролины в своем отчете об экономическом влиянии.
Мы были польщены.
Фотограф приехал запечатлеть нашу работу над ремонтом кухни.
Google ставил нас в пример — доказательство того, что мы всё делали правильно.
3/ На следующий день — 5 марта — вышло March Core Update
.
Наш сайт, который за 12 лет никогда не попадал под негативное влияние апдейтов Google, начал терять трафик.
К концу месяца мы потеряли 74% поискового трафика из Google.
4/ С тех пор стало только хуже.
За последние 28 дней:
📉 Наш трафик из Google: 9,680.
📉 В это же время год назад? 69,300.
Падение на 86%.
Google представил нас как историю успеха малого бизнеса.
А потом похоронил.
5/ Перенесемся в сегодняшний день...
Google запускает рекламную кампанию на Super Bowl
, показывая 50 малых бизнесов.
Месседж такой:
👉 Google поддерживает малый бизнес!
👉 Google — ваш друг!
👉 Google помогает вам расти!
6/ Но реальность другая.
Google использует малый бизнес для самопиара.
Они выделяют нас, когда это выгодно им.
Они стирают нас, когда меняют алгоритм.
Никакой ответственности.
Никаких объяснений.
Никаких путей восстановления.
7/ То, что случилось с нами, произошло с тысячами владельцев малого бизнеса.
Google доминирует в поиске.
Они могут перекрыть ваш доход за одну ночь.
Они заявляют о поддержке малого бизнеса, тихо уничтожая его.
8/ Так что когда вы увидите рекламу Google на Super Bowl
...
Помните: Дело не в помощи малому бизнесу.
Дело в контроле над ним.
Владельцы малого бизнеса заслуживают лучшего.
9/ 29 октября 2024 года Google пригласил меня в свой кампус обсудить обвал трафика.
Они сказали мне — и еще 19 авторам — что наш контент хороший.
Что они знают, что поступили с нами неправильно.
Сегодня прошло 103 дня с той встречи.
До сих пор никаких улучшений.
До сих пор никаких ответов.
@MikeBlazerX
В эпоху AI
-поиска брендовые упоминания — это новые бэклинки.
Пока Google считает ссылки, AI
считает разговоры.
Игра сместилась от линкбилдинга к созданию голоса бренда.
Вот что интересно: AI
не нужны гиперссылки для понимания авторитетности, AI
считывает контекст, как это делают люди.
Аутентичные голоса поднимутся на вершину в мире, тонущем в AI
-генерированной одинаковости.
Ваш цифровой след теперь измеряется тем, кто говорит о вас, а не только ссылается.
🎯 В чём секрет?
Быть действительно цитируемым важнее, чем быть технически оптимизированным.
Пока все создают AI
-шлак, победителями станут те, у кого хватит смелости выделиться оригинальными инсайтами, уникальными мнениями и смелыми перспективами.
Это не просто изменение в поиске — это возвращение к тому, что действительно важно: говорить то, что стоит повторить.
@MikeBlazerX
Домашняя страница заточенная под все ключи
@MikeBlazerX
Когда выкатили изменения не заглянув в справку Гугла
@MikeBlazerX
Клиент сообщил, что их компания не появляется в ответах ChatGPT
при поисковых запросах вида "best [категория] software
", несмотря на то, что они являются известной публичной компанией.
Мы провели анализ и выяснили причину, пишет Дж. Х. Шерк:ChatGPT
"считает" их некачественным решением:
Последующее объяснение оказалось собранием всего негативного пресс-освещения и негативной реакции сообщества, накопившихся за годы.
Это пошаговый каталог всего, что вредит их репутации и восприятию на рынке.
Всё справедливо, но безжалостно, без каких-либо смягчений.
В отличие от традиционного управления репутацией в поиске, где достаточно продвинуть несколько URL
-ов для подавления негативных публикаций, здесь нет очевидного решения.
Не совсем понятно, что делать, и нет гарантии, что "противодействие негативу позитивными публикациями" действительно исправит ситуацию.
Дикий запад
@MikeBlazerX
Какие психологические триггеры больше всего влияют на коэффициент конверсии?
Существует множество триггеров, которые вы можете использовать, и на первый взгляд многие из них приведут к увеличению количества кликов на ваши призывы к действию, но клики не всегда означают увеличение конверсии.
Вот что было обнаружено, проведя тесты на более чем 1,5 миллионах посетителей.
@MikeBlazerX
Странно, что один сайт соответствует всем требованиям Google из "Руководства по качеству поиска
", а другой - нет, но их траектории после апдейта "Полезного контента" были практически одинаковыми.
Прошло почти полтора года после сентябрьского обновления HCU 2023
года, и меня до сих пор удивляет масштаб сопутствующего ущерба, который произошел в результате этого обновления, пишет Лили Рэй.
Не говоря уже о том, что практически ни один из пострадавших сайтов не показал какого-либо значимого восстановления.
Более того, те сайты, которые частично восстановились за последний год, позже часто снова теряли SEO-видимость.
С момента запуска HCU
в 2022 году я потратила бесчисленные часы на анализ сотен пострадавших сайтов, и хотя многие сайты, безусловно, заслуживали потери SEO-видимости в результате HCU
, было много сайтов, потерявших более 70% SEO-видимости, которые на самом деле неплохо следовали рекомендациям Google.
Я видела десятки примеров сайтов, которые четко следовали рекомендациям Google по EEAT
- особенно что касается нового "E
" (Experience).
Я сделала скриншот формулировки из Google Search Quality Guidelines
о том, что Google ищет в контенте касательно демонстрации опыта из первых рук.
Множество небольших издателей, использовавших реальные команды авторов с реальным опытом из первых рук, оригинальными мыслями, точками зрения и фотографиями, часто страдали от HCU
так же, как и сайты, полностью полагающиеся на AI
-контент, стоковые фотографии, агрессивную рекламу и шаблонный, неоригинальный, бесполезный контент.
По моему мнению, Google не следовало запускать ML
-обновление, которое, очевидно, не могло делать такие различия.
Это нанесло серьезный удар по сообществу малых издателей, заставило многих опытных авторов закрыть свои проекты, и, на мой взгляд, это не улучшило общее качество результатов Google.
Возьмем два трэвел-блога ниже.
Мне кажется странным, что один сайт (красный) соответствует всем требованиям Google из "Руководства по качеству поиска", а другой (синий) вообще не соответствует, но их траектории после HCU
были практически одинаковыми.
Я знаю, что многие SEO-специалисты обычно реагируют на эти проблемы, говоря что-то вроде "ну что ж, они получили по заслугам".
Но не только я считаю, что HCU
зашел слишком далеко.
Фактически, Google провел очный саммит для создателей контента, пригласив многих владельцев сайтов, пострадавших от HCU
, чей контент, очевидно, не был причиной их падения.
Есть множество историй с того дня, где Google фактически признал, что у этих владельцев сайтов был отличный контент, и Google хочет лучше работать, чтобы не допускать таких ошибок в будущих обновлениях.
Предположительно, Google исправит ситуацию и улучшит алгоритм со временем.
Но для многих малых издателей, пострадавших от этих обновлений, это слишком мало и слишком поздно.
И до сих пор нет серьезных признаков того, что их сайты могут значимо восстановить трафик.
@MikeBlazerX
При сравнении двух временных периодов в аналитике полезно сопоставлять дни недели между собой, так как паттерны в будни и выходные могут сильно различаться.Google Search Console
не предоставляет такой возможности, поэтому вот Chrome
-расширение, которое поможет вам рассчитать эти даты:
https://chromewebstore.google.com/detail/same-weekday/ccikonakpamhonnbmmpjnpkbafbomcfh
@MikeBlazerX
Когда речь идет об использовании Schema для главной страницы сайта, я обычно склоняюсь к двум типам разметки и рекомендую их (особенно для интернет-магазинов), пишет Броди Кларк.
Это Schema
-разметка Organization
и WebSite
– теги, в которых я вижу реальную пользу, но которые часто отсутствуют на главных страницах сайтов.WebSite
схема особенно важна, так как влияет на отображение названия сайта в поисковой выдаче – Google часто использует название, указанное в этом теге, для показа в СЕРПах.
Для крупных интернет-магазинов с несколькими региональными доменами часто бывает, что на главной странице основного региона (например, США) тег прописан корректно, но на сайтах других регионов WebSite
схема отсутствует.
Это может привести к беспорядку в СЕРПах Google и путанице в сигналах.
Например, недавно я работал с сайтом, у которого не было WebSite
схемы на домене AU
, из-за чего в качестве названия сайта случайным образом отображался домен NZ
(например, Example.co.nz
), хотя должно было отображаться просто "Example
" или "Example AU
".
Что касается Organization
схемы – это, по сути, обязательный элемент.
В последние годы я замечаю, что её влияние значительно выросло.
Например, был случай с сайтом, который не отображался как сущность в автодополнении поиска.
После добавления Organization
схемы, через неделю после внедрения, в автодополнении начала показываться расширенная карточка бренда.
То же самое можно сказать о панели знаний для брендов/магазинов.
В последнее время на отображение панели знаний для интернет-магазинов сильно влияет Merchant Centre Next
, где теперь есть такие функции, как способы оплаты, популярные товары, информация о доставке и возвратах, и даже AI-чат, который показывает бесплатные листинги.
Хотя на стабильное отображение этой панели для вашего бренда влияют различные факторы (известность и размер компании, часто важна статья в Википедии), я заметил, что информация в Organization
схеме служит основным резервным сигналом для некоторых включений.
Недавно влияние Organization
схемы на панели знаний для магазинов усилилось – теперь Google позволяет указывать в этой разметке политики в отношении товаров, например, условия возврата, что еще раз подтверждает важность размещения этой разметки на главной странице сайта.
На базовом уровне внедрения схемы я рекомендую обязательно разместить и Organization
, и WebSite
на главной странице вашего сайта.
Очевидные преимущества для SEO игнорировать не стоит.
@MikeBlazerX
Весной 2024 года Сайрус Шепард провел эксперимент по проверке эффективности инструмента отклонения ссылок (disavow
) Google.
В первом тесте были отклонены все ссылки на уровне доменов для тысяч сайтов.
Спустя два месяца трафик немного вырос вместо того, чтобы снизиться, что вызвало скептицизм в SEO-сообществе относительно слишком короткой продолжительности теста.
Это привело к трем дополнительным экспериментам:
1. Отклонение трети всех ссылок на протяжении 3.5 месяцев, предполагая, что Google мог проигнорировать первоначальное массовое отклонение как потенциальную ошибку
2. В октябре 2024 года повторное отклонение всех ссылок
3. В начале 2025 года полное удаление disavow
-списка ссылок
Ни один из этих экспериментов не показал значительного влияния на трафик или позиции сайта.
Эксперименты показали, что основная ценность инструмента дезавуирования заключается в снятии ручных санкций.
Это подтверждается случаем с компанией-разработчиком ПО, где месяцы переписки со спам-командой Google потребовали все более агрессивного отклонения ссылок и удаления контента.
Хотя они в итоге добились снятия санкций, в процессе они потеряли большую часть своего первоначального трафика.
Для обычной SEO-работы disavow
-инструмент оказался неэффективным, хотя некоторые специалисты продолжают использовать массовое отклонение для проблемных доменов вроде сайтов на blogspot
, Firebase
-приложений и сайтов-парсеров в качестве превентивной меры.
Существует теория, что инструмент может влиять только на негативные ссылки, не затрагивая позитивные, хотя это остается недоказанным.
@MikeBlazerX
90% сложностей в SEO возникает из-за того, что у сеошников есть свое мнение.
@MikeBlazerX