Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Теперь с расширением Advanced GSC Visualizer
вы можете визуализировать данные о краулинге из GSC
и быстро выявлять полезные инсайты.
Устанавливайте здесь:👇
https://chromewebstore.google.com/detail/advanced-gsc-visualizer/cdiccpnglfpnclonhpchpaaoigfpieelAdvanced GSC Visualizer
теперь включает:
— детальные отчеты по краулингу,
— оценки здоровья краулинга,
— сводки по успешным ответам сервера,
— выгружаемые разбивки запросов краулера,
— и рекомендации.
@MikeBlazerX
Одна метрика разоблачает линк-фермы
Я просматривал сайт клиента и обнаружил множество ссылок, которые он покупал на навороченных PBN
, говорит Алекс Хорсман.
Операторы PBN
используют ботов для генерации фейковых брендовых запросов в Google.
Это накручивают Semrush
и Ahrefs
, показывая огромный трафик на сайте.
1. Посмотрите на запросы, по которым сайт ранжируется
2. Если сайт выглядит отстойно и получает трафик только по своему бренду, это линк-ферма.
@MikeBlazerX
Знаете ли вы, что МОЖНО использовать дни с момента последнего краулинга + дни с момента последнего органического клика для понимания ценности контента.
ПРОБЛЕМЫ С ИНДЕКСАЦИЕЙ?
Вот что вам нужно знать.
👉 Дни с момента последнего краулинга
Дни с момента последнего краулинга могут быть показательным индикатором воспринимаемого веса страницы (опять же, это ТОЛЬКО один из многих факторов) - но, в целом, можно руководствоваться следующим:
❌ Страница охватывает запросы, по которым ищут, но не выдаётся
Если страница ориентирована на запросы / что-то, по чему есть поисковый спрос, но промежуток между краулингами растёт + увеличивается время с момента последнего клика, это ОБЫЧНО хороший индикатор того, что страница ТЕРЯЕТ ценность.
❌ Застоявшиеся страницы
Страницы, которые ЗАСТОЯЛИСЬ из-за того, что они не обновлялись или содержат устаревшую информацию, где в СЕРПах с тех пор появилось много новых результатов, могут восприниматься как "менее ценные" и начать деградировать (растёт время с момента последнего краулинга + показы постепенно исчезают).
Такие страницы с БОЛЬШЕЙ вероятностью выпадут из индекса.
❌ Страницы с недостатком внутренних ссылок
Страницы, которым НЕ ХВАТАЕТ внутренних ссылок, могут считаться менее важными, если это сочетается с любыми проблемами контента, например: плохим E-E-A-T
/NLP
или застоем, время выпадения (НЕИНДЕКСИРОВАННЫЕ СТРАНИЦЫ) сокращается.
❌ УСТАРЕВШИЙ контент с меньшей вероятностью соответствует различным критериям:
— E-E-A-T
современный, большая часть старого контента создавалась для SEO и поэтому с МЕНЬШЕЙ вероятностью демонстрирует экспертность (то же самое с YMYL
)
По результатам анализа Даниэла Фоли Картера:
🔎 Страницы, у которых дата последнего краулинга превышает 90 дней, гораздо чаще попадают в статус "прокраулен/обнаружен, в настоащее время не проиндексирован".
🔎 Домены, которые НАКАПЛИВАЮТ растущее количество деградирующего / обесценивающегося контента или обесцененного контента (который индексируется, но больше не выдаётся) с БОЛЬШЕЙ вероятностью пострадают от CORE
-апдейты
🔎 Накапливание устаревшего контента тратит пейджранк + может негативно повлиять на сайт.
Google использует оценку качества всего сайта, т.е. Panda/HCU.
Поэтому нужно учитывать пропорции, т.е. СКОЛЬКО вашего сайта индексируется vs сколько существует vs сколько выдаётся?
— 1000 страниц на сайте
— 700 страниц индексируется
— 220 страниц выдаётся
Сайты, ПОХОЖЕ, значительно больше страдают во время апдейтов, ЕСЛИ доля выдаваемого контента значительно меньше, чем индексируемый профиль домена, ЕСЛИ количество неиндексированных страниц также росло со временем.
🔎 Вероятно, ЕСТЬ ИСКЛЮЧЕНИЯ из правила для старых доменов и доменов, где предложение ПОСТОЯННО удовлетворяло потребности конечных пользователей, где поведение демонстрирует, что контент ценен, ДАЖЕ если более широкий домен содержит менее полезный/неполезный контент
@MikeBlazerX
Nofollow
ссылки не бесполезны...
Слишком много маркетологов до сих пор не видят ценности в nofollow
ссылках.
Как человек с 15-летним опытом в SEO, из которых 10 лет я посвятил построению команды по digital PR
, хочу поделиться своим мнением на эту тему, пишет Джеймс Брокбанк.
Давайте поговорим о пользе nofollow
ссылок для SEO...
👉 НЕТ ШАНСОВ, что Google полностью игнорирует nofollow
ссылки, по крайней мере те, что приходят с сайтов, имеющих трафик.
👉 Одним из инсайтов прошлогодней утечки документации стало то, что "Nofollow ссылки помогают ранжированию, когда они приходят с ресурсов, получающих органический трафик"
👉 Еще в 2020 году Google подтвердил, что больше не рассматривает nofollow
как директиву, а только как рекомендацию.
👉 Задумайтесь, почему это произошло.
ОГРОМНОЕ количество топовых медиа начали массово ставить nofollow
на внешние ссылки.
Ссылки - это не только передача PageRank
/ авторитета.
Они помогают Google находить новые страницы.
👉 Со временем, когда всё больше издателей начали так делать, Google, вероятно, столкнулся с тем, что многие сид-сайты используют nofollow
ссылки, что повлияло на их способность краулить веб от отправных точек с учетом nofollow
.
Возможно, именно это привело к изменению статуса nofollow
на рекомендательный?
Я думаю, да...
А теперь поговорим о других преимуществах nofollow
ссылок...
👉 Реферальный трафик, который может и действительно приносит доход (никогда не забуду, как клиент получил £15k продаж за один день благодаря региональному освещению... при том, что ссылки были nofollow
).
👉 Узнаваемость бренда не привязана к ссылкам.
Появление перед целевой аудиторией положительно влияет на охват бренда.
Мышление, что nofollow
ссылки бесполезны - устарело.
Не забывайте также, что практически всегда решение о том, будет ли ссылка follow
или nofollow
, находится вне контроля PR
-специалиста или даже журналиста.
Обычно это настраивается на уровне всего сайта.
Ваши конкуренты находятся в том же положении.
Когда вы смотрите на digital PR
шире, чем просто метрики SEO, и понимаете историю nofollow
за последние годы, становится гораздо понятнее, как эти ссылки могут и действительно положительно влияют на видимость.
@MikeBlazerX
🚨 Google может игнорировать ваш мета-дескрипшн и даже тайтл, если что-то другое загружается первым или выше в DOM
.
Мохаммед недавно столкнулся с этой проблемой:
У сайта были правильные мета-теги, но Google начал показывать сообщение из баннера с куками в качестве мета-деска в поисковой выдаче.
Почему?
Потому что структура имеет значение.
Google не просто читает ваши мета-теги - он краулит страницу сверху вниз в DOM
и рендерит её на основе каскада HTML
и скриптов.
Если ваш попап с куками:
1. Загружается рано в HTML
,
2. Рендерится до основного контента (даже с JavaScript
),
3. Или является одним из первых видимых элементов на странице... он может быть выбран в качестве основного мета-деска.
Как это исправить: ✅
— Отложите отображение попапа с куками с помощью JavaScript
— Разместите HTML
кукового баннера ниже в DOM
— Добавьте data-nosnippet
, чтобы Google не использовал его
— Используйте инструмент проверки URL
, чтобы увидеть, что реально видит Googlebot
@MikeBlazerX
Я протестировал более 50+ различных методов линкбилдинга с 2009 года, говорит Мэтт Диггити.
Большинство из них пустая трата времени в 2025 году, но некоторые SEO-специалисты до сих пор их используют.
Эти 5 методов стабильно приносят ROI
прямо сейчас:
1. Digital PR
кампании
Святой Грааль линкбилдинга в 2025 году:
— Создавайте контент, достойный новостей, основанный на оригинальных исследованиях или данных.
— Ориентируйтесь на журналистов, которые уже освещают вашу тему.
— Используйте инструменты вроде Muck Rack
или Prowly
для питчинга.
— Одна кампания может принести 40+ ссылок с высоким авторитетом за один месяц.
2. Стратегический гестпостинг
Не используйте подход "стреляй во все стороны", который используют большинство:
— Проведите обратный анализ конкурентов в Ahrefs
.
— Питчите сайты, которые уже принимают гостевые посты и ранжируются по вашим ключевикам.
— Предлагайте ценность в питче: оптимизируйте пост под ключевое слово, которое они упускают.
— Фокусируйтесь на качестве, а не количестве - одна ссылка с DR70
+ бьет двадцать ссылок с DR30
.
3. Вставки ссылок в существующий контент
Быстрый способ получить качественные ссылки:
— Обращайтесь к владельцам сайтов и предлагайте бесплатно обновить старую статью.
— Гуглите: site:example.com intitle:2024
, чтобы найти устаревшие страницы.
— Перепишите материал, чтобы актуализировать его, естественно добавив свою ссылку.
— Только вставки ссылок могут выглядеть неестественно. Разбавляйте ссылочный профиль другими типами ссылок.
4. Реактивные PR
-возможности
Стратегия замены HARO
(RIP):
— Мониторьте запросы журналистов в Twitter, Linkedin, Qwoted
и Featured
.
— Настройте оповещения по темам вашей экспертизы.
— Быстро отвечайте с лаконичными, цитируемыми инсайтами.
— Включайте релевантные регалии, которые делают вас достойным цитирования.
5. PBN
До сих пор один из лучших способов быстро получить позиции, если делать правильно:
— Создавайте или покупайте чистые просроченные домены с релевантными бэклинками.
— Избегайте спамных ссылочных ферм. Ищите сайты с реальной историей и трафиком.
— Или используйте проверенные PBN
-сети.
@MikeBlazerX
Исследование индексации, анализирующее 1.7 миллиона страниц на 18 сайтах, показало, что 88% страниц, не проиндексированных Google, не попали в индекс из-за проблем с качеством.
Google активно удаляет страницы из результатов поиска или позволяет им быть забытыми.
Основная причина, по которой важные страницы не индексируются – этот активный процесс удаления и забывания.
Методология исследования включала:
— Мониторинг 1.7 миллиона важных страниц, добавленных в сайтмап, на 18 разных сайтах.
— Получение вердиктов индексации (Проиндексировано vs Не проиндексировано) через URL Inspection API.
— Использование снимка данных от 31/03/2025, включая только страницы с однозначными вердиктами.
Ключевые выводы:
— Маркетплейсы и сайты с листингами показали самый низкий показатель покрытия индексом (проиндексированные vs отслеживаемые страницы) – менее 70%. Новостные сайты имели лучший результат (97%), а интернет-магазины – ниже 90%. (Желательный показатель – более 90%).
— Наложение данных о траст сайта от Moz
показало, что как малые, так и крупные бренды сталкиваются с проблемами индексации, с показателями покрытия индексом обычно 85-91%.
— Интернет-магазины, маркетплейсы и сайты с листингами демонстрировали более низкие средние показатели покрытия индексом независимо от размера бренда.
Последовательно, проблемы с качеством оказались основной причиной (88%) неиндексации среди отслеживаемых страниц.
"Качество" определяется как активное удаление проиндексированных страниц или забывание непроиндексированных страниц Google со временем.
Разбивка категории проблем с качеством:
— "URL неизвестен Google" и "Обнаружено - в настоящее время не проиндексировано" составляют 67% непроиндексированных страниц из-за проблем с качеством.
— Исследования показывают, что эти состояния, наряду с "Прокраулено - в настоящее время не проиндексировано", часто представляют проблемы индексации (активное удаление/забывание), а не чисто краулинговые проблемы, что требует переосмысления. GSC
может неправильно отображать эти состояния для забытых страниц.
Это доминирование проблем с качеством сохранялось при группировке страниц по:
— Авторитету бренда Moz: Затрагивает бренды всех размеров.
— Типу сайта: Преобладает для интернет-магазинов, маркетплейсов и сайтов с листингами. (Новостные сайты, однако, страдали больше от технических проблем индексации).
— Размеру сайта: Влияет на малые и крупные сайты. (Исключение: Сайты, отслеживающие 100k-500k страниц, в основном новостные).
Масштаб проблем с качеством и выявление того, что GSC
неверно отображает состояния типа "Прокраулено - в настоящее время не проиндексировано" и "URL неизвестен Google" для забытых страниц, были значительными.
Данные, потенциально находящиеся под влиянием апдейта ядра от 13 марта, подчеркивают, что недостатки качества приводят к выпадению страниц из индекса.
По мере того, как Google совершенствует алгоритмы, все больше важных страниц может столкнуться с удалением.
https://indexinginsight.substack.com/p/new-study-the-biggest-reason-why
@MikeBlazerX
1. Как длина текстовых входных данных влияет на схожесть, независимо от семантической релевантности:
— "Размерное смещение" - явление, при котором длина текстового входа влияет на рассчитанный показатель схожести (например, косинусное сходство) при сравнении с другими текстами через эмбеддинги, независимо от реальной семантической релевантности.
Это не архитектурный недостаток и не связано с простым повторением; скорее, более длинные тексты естественным образом склонны "говорить больше вещей" и охватывать более широкий спектр концепций.
Это приводит к тому, что соответствующие векторы эмбеддингов представляют более широкое семантическое пространство.
— Поскольку эти "распространенные" векторы охватывают больше семантического пространства, они имеют статистически более высокую вероятность иметь некоторую степень пересечения (что приводит к более высокой оценке схожести) с любым другим текстовым эмбеддингом, просто из-за этой увеличенной широты.
Эта базовая схожесть увеличивается с длиной.
— В статье это экспериментально демонстрируется с использованием датасета CISI
.
Были рассчитаны средние косинусные сходства между парами текстов и обнаружено:
— Показатели схожести между предложениями были самыми низкими.
— Оценки схожести между документами были значительно выше.
— Оценки между искусственно объединенными (очень длинными) документами были самыми высокими.
Это ясно показывает, что средние оценки схожести увеличиваются по мере увеличения длины сравниваемых текстовых единиц.
2. Почему поисковые системы иногда возвращают длинные, едва релевантные документы вместо более коротких, точных соответствий вашему запросу:
— Поисковые системы, использующие текстовые эмбеддинги, часто ранжируют результаты на основе показателя схожести между эмбеддингом запроса и эмбеддингами потенциальных документов-совпадений.
Самый высокий показатель обычно представляется как лучший результат.
— Из-за размерного смещения очень длинный документ, даже если он только косвенно связан с запросом, может достичь обманчиво высокого показателя схожести.
Только его длина дает его эмбеддингу более высокую базовую схожесть с эмбеддингом запроса по сравнению с более короткими документами.
— Эта завышенная оценка для длинного документа может численно превзойти оценку более короткого, но гораздо более семантически точного и релевантного документа.
Система, отдавая приоритет числовой оценке, поэтому ранжирует длинный, менее релевантный документ выше.
— Схожесть эмбеддингов эффективно измеряет относительную схожесть (какой документ ближе в векторном пространстве среди доступных вариантов), но ненадежна для определения абсолютной релевантности (действительно ли этот документ является хорошим ответом?).
В статье прямо указывается, что нельзя установить фиксированный косинусный порог (например, > 0.75) для определения релевантности, потому что длинные, нерелевантные документы могут его преодолеть, а короткие, релевантные - нет.
3. Ограничения потенциальных решений:
— Попытка математически корректировать оценки на основе длины считается потенциально хрупкой и вряд ли будет надежной для разных датасетов.
— Хотя такие техники, как асимметричное кодирование запрос-документ, могут улучшить общую производительность поиска (например, снижая средние косинусы документ-документ), в статье показано, что это не устраняет значительно размерное смещение.
Разница в средней схожести между предложениями и полными документами осталась почти такой же (изменившись с 0.089 до 0.076), что указывает на сохранение эффекта длины.
— Ранкеры упоминаются как улучшающие точность, но их оценки также не являются по своей сути нормализованными для абсолютной релевантности пока.
Использование LLM
для прямой оценки релевантности представлено как будущая возможность, требующая специальной тренировки или промптинга.
https://jina.ai/news/on-the-size-bias-of-text-embeddings-and-its-impact-in-search/
@MikeBlazerX
Последний Сеошник (часть 1)
(Смешной и саркастичный рассказ)
Шел 2030 год. Нейроимпланты нашептывали прогноз погоды прямо в мозг, беспилотные ховеркрафты шныряли между умными зданиями, а AI-компаньоны предугадывали твои желания раньше тебя самого.
Мартин Пейджранк стоял на крыльце, поправляя галстук, усеянный крошечными пиксельными гифками "Under Construction". В руках он сжимал папку с надписью "ФИШКИ SEO РУЧНОЙ РАБОТЫ" и толстый распечатанный талмуд под названием "Алгоритм Google: Том 37 (Издание 2025 – С небольшими пометками)".
*Тук-тук.*
Дверь отъехала в сторону, и на пороге появилась озадаченная женщина в AR-очках, транслирующих её утренние уведомления.
"Здравствуйте! Я Мартин из Церкви Органической Видимости, мы спасаем сайты от сирен автоматизированного проклятия! Вы уже приняли разметку Schema в качестве своего личного спасителя? Он улыбнулся с надеждой и протянул брошюру под названием «Десять заповедей ранжирования в LLM».
«Мой... PBN?» Она нахмурилась. «С 2027 года всем занимается мой программный комплекс AIO».
Глаз Мартина едва заметно дернулся. "Именно поэтому я здесь! А вы знали, что 99% бизнесов продают душу Оптимизации с ИИ? Но еще есть надежда на старые методы оптимизации, разработанные людьми!» Он сделал знак фавикона на груди.
Женщина с улыбкой прислонилась к дверному косяку. «SEO-свидетели еще не вымерли? Я думала, вы все исчезли после Великой Алгоритмической Сингулярности».
«Мы предпочитаем название «Цифровые Апостолы»! — возмущенно поправил Мартин. — «Свидетели» подразумевает, что мы просто наблюдали за Великой Алгоритмической Сингулярностью, а мы ведем активную борьбу против синтетических SERP!»
Он перелистнул презентацию. «AIO — это просто дань моде. Что будет, когда машины обратятся против нас? Кто тогда будет оптимизировать ваш контент?» Его голос понизился до шепота. «Я могу научить вас техникам GEO. Генеративной оптимизации поисковых систем. Это похоже на традиционное SEO, но... с большим отчаянием».
Через улицу еще два SEO-свидетеля в одинаковых синих галстуках подошли к другому дому, где мигала голографическая надпись «НЕТ АГЕНТАМ, НЕТ РЕЛИГИЯМ, НЕТ SEO-УСЛУГАМ».
«Послушайте, — вздохнула женщина, — мой ИИ-помощник в прошлом году создал 144 732 статьи, ведет мои социальные сети и обеспечивает идеальную видимость в поиске. Что вы можете предложить?»
Мартин торжествующе улыбнулся. «Я могу вручную скластеризовать и перелинковать ваши статьи! В Экселе! Только представьте себе эту аутентичность!» Он драматично имитировал жесты прокрутки и кликов мышкой. «Кроме того, я предлагаю крафтовые ключевые слова! Заспамленные ЛЮДЬМИ! Почувствуйте аутентичность!» Он протянул USB-флешку.
"Это что... флешка? В моем доме даже портов таких больше нет."
Мартин опустил плечи. Сегодня он слышал это уже 27 раз.
И тут все умные дома на квартале мигнули. Свет потускнел. AI-ассистенты замолчали.
"Проводится системная оптимизация", – объявил приятный голос отовсюду. – "Все AIO и персональные ассистенты будут оффлайн на семнадцать секунд."
Глаза женщины расширились от ужаса. "Моя нейротрансляция! Она начнется через несколько секунд! Мои нефильтрованные мысли полетят 5 миллионам ботов! AI должен был заниматься интеграцией всех трендовых тем, а LLMEO должен был улучшить семантику и тематическую релевантность!"
Конец 1-ой части.
@MikeBlazerX
Оказывается, есть еще и "спонсируемый" сниппет "Люди также рассматривают"...
@MikeBlazerX
"Как продвигается твой сайт?"
"Все норм!"
@MikeBlazerX
Мальте Ландвер спросил у нескольких LLM
про топ-5 брендов беговых кроссовок.
1️⃣ Предвзятость к брендам:Gemini-2.0-Flash
не любит Nike
и Adidas
, но фанатеет от Hoka
.Claude-3-Opus
тоже не рекомендует Adidas
.
Обе эти модели рекомендуют Saucony
гораздо чаще, чем любые другие модели!Mistral-Large
меньше всего рекомендовал New Balance
среди всех моделей. И только он рекомендовал Under Armor
и Merrell
.
2️⃣ Консистентность и вариацииGemini-2.0-Flash
была единственной моделью, которая отвечала одинаково каждый раз.Mistral-Large
был единственной моделью, которая не была консистентной в своей рекомендации №1. Все остальные модели всегда отвечали одними и теми же брендами на позициях 1 и 2.Mistral-Large
также был единственной моделью, которая рекомендовала в общей сложности 8 разных брендов.Gemini-2.0-Flash
и GPT-4.5-Preview
всегда рекомендовали одни и те же 5 брендов.
Другие модели рекомендовали в общей сложности 6 или 7 брендов.
3️⃣ Интерпретация
Хотя точный результат будет варьироваться в зависимости от ваших промптов и, возможно, истории вашего аккаунта, интересно видеть, насколько модели не согласны друг с другом.
Разница в результатах означает, что вам, вероятно, стоит начать отслеживать видимость вашего бренда в LLM
.
4️⃣ Методология
Промпты были запущены через API
. Локация - США. Каждый промпт был запущен 10 раз.
Без граундинга или веб-поиска. Так что ответы приходят от базовой модели. Во многих реальных сценариях такие промпты получили бы ответ с использованием RAG
.
-
Затем Мальте запустил еще и детальный промпт (10 раз для каждой модели).
На этот раз он смотрел только на "упоминается ли бренд" и игнорировал сортировку.
Наблюдения:
— Модели согласны только по двум брендам (Asics
и Brooks
)
— Только Mistral-Large
рекомендовал Adidas
. И делал это в 9 из 10 ответов!
— Есть 3 бренда (Saucony, Hoka, Nike
), которые имеют 100% видимость в некоторых моделях и 0% видимость в других.
Скриншот
@MikeBlazerX
Я постоянно замечаю сайты, которые проставляют hreflang
теги вот так, как в скриншоте, пишет Ян Каерелс.
Я абсолютно уверен, что абсолютный URL
— это то, что нужно/рекомендуется.
Но может ли Google справиться с обработкой такого значения href
?
Пытаюсь понять, стоит ли тратить время на создание дев-таски.
-
Мартин Шплитт:
А, протокольно относительные урлы.
Они норм, но если есть возможность, указывайте протокол.
Я бы не стал открывать тикет из-за этого, но, может быть, в будущем постарайтесь делать ссылки с протоколом.
@MikeBlazerX
Google не просто читает ваш контент — он создает векторные эмбеддинги как для вашего текста, так и для ваших изображений.
Эмбеддинги помогают Google понимать язык на странице, но мало кто осознает, что он делает то же самое с визуальным контентом — и сравнивает его с вашим текстом и ключевыми словами.
У Google есть бесплатный публичный инструмент, который позволяет загружать два изображения и видеть, насколько они визуально или семантически похожи, используя косинусную близость.
На скриншоте ниже мы сравнили два AI
-генерированных изображения, которые имеют схожие темы (зеленые гоблины, хаос и деньги) — но модель Google все равно оценивает их сходство только на 0.34 по косинусной близости, пишет Дан Хинкли.
Так что это значит для сеошников?
— Если ваши изображения не соответствуют теме или не усиливают интент ключевых слов, Google может это обнаружить.
— Если вы используете декоративные, стоковые или не по теме визуалы, есть вероятность, что они вредят больше, чем помогают.
— Это еще одна причина думать о релевантности изображений, а не только об альт-текстах или именах файлов.
Это добавляет новый слой оптимизации контента: действительно ли ваш визуальный контент поддерживает ваш тематический авторитет?
Вы уже изучали, как Google обрабатывает эмбеддинги изображений?
Попробуйте сами: https://mediapipe-studio.webapps.google.com/studio/demo/image_embedder
Гайд: https://ai.google.dev/edge/mediapipe/solutions/guide
@MikeBlazerX
Когда рыбаки не могут выйти в море, они чинят сети.
Когда море слишком бурное для выхода в плавание, умные не сидят сложа руки — они берутся за работу.
Они латают свои сети, затачивают инструменты и готовятся к моменту, когда шторм утихнет.
Потому что даже в затишье есть возможность для прогресса.
Дело не в том, чтобы не сидеть без дела, а в том, чтобы строить будущее.
@MikeBlazerX
Ана спросила, пробовал ли кто-нибудь скрейпить данные из блоков "Люди также спрашивают" (PAA
) и внедрять их на сайт клиента программатик способом.
Советы и мнения сообщества:
— Использование вопросов из PAA
для создания IQQI
-контента (Interesting, Questionable, Quantifiable, Informative) и FAQ
работает с большим успехом.
— Масштабная программная публикация данных PAA
, скорее всего, будет считаться спамом. Марк Уильямс-Кук проводил тесты со скрейпингом PAA
и публикацией 10 тысяч страниц, отметив "работает, пока не перестает работать".
— Некоторые крупные компании используют GPTs
со своими внутренними данными для создания FAQ
в небольшом масштабе, что хорошо работает для них.
— Данные PAA
лучше использовать как основу для понимания того, что пользователи ожидают от темы и какие вопросы у них возникают чаще всего, а не просто скрейпить и публиковать.
— При скрейпинге данных PAA
нужно учитывать локацию, так как PAA
зависят от геолокации (например, поиск "food trucks
" в США, скорее всего, покажет названия городов, локальные для поиска).
— Для правильного взаимодействия с PAA
требуется JavaScript
. Простой "ре-гуглинг" даст разные вопросы и только 4 из них.
— Для масштабного скрейпинга необходимы прокси, так как Гугл будет блокировать. Существуют API-middleware
вроде DataForSEO
, но они предоставляют статичные данные, не учитывающие геолокацию.
— Использование данных PAA
для структурирования контента/брифов/понимания пользователей работает "супер хорошо", в отличие от простого скрейпинга и публикации, что может считаться спамом.
— Тестовый сайт, публиковавший программный контент на основе PAA
, в конечном итоге потерял позиции, причем даже Бинг потерял интерес к контенту.
@MikeBlazerX
У большинства сайтов нет EEAT
.
Нет экспертности.
Нет авторитетности.
Нет траста.
И они удивляются, почему застряли на 7 странице СЕРПа.
Мы привлекаем настоящих экспертов, пишет Крис.
Людей с регалиями.
Людей, которые писали для медиа первого эшелона.
Мы размещаем их на странице "О нас".
Полная биография.
Фото.LinkedIn
.
Всё как надо.
Они пишут 2-3 поста для сайта.
Ровно столько, чтобы связь была реальной.
Затем мы начинаем питчить медиа от их имени.
Журналистам плевать на ваш бренд.
Им важно, кто это говорит.
Мы получаем ссылки с таких площадок, как HuffPost, NYPost, Daily Record
и Investopedia
.
Потом оборачиваем всё это в структурированные данные, чтобы Гугл знал, что этот эксперт пишет для вашего сайта.
Вот что строит траст.
У Гугла.
У пользователей.
Это работает.
Всегда.
@MikeBlazerX
Python скрипт для проверки блокировки URL
из XML
карты сайта правилами robots.txt
🔵 Предоставьте URL
файла robots.txt
и получите полный отчет
🔵 Проверяет все комбинации User-agent
/URL
🔵 Выполняет тысячи проверок в пакетном режиме
https://adver.tools/python/how-to/audit-robots-blocking-sitemap/
@MikeBlazerX
Фебин Джозеф столкнулся с дилеммой: на его сайте есть две страницы, которые таргетируются на один и тот же интент.
Одна страница хорошо ранжируется по целевому запросу (позиции 5-6), а другая показывает слабые результаты (позиции 40-50).
В обычной ситуации он бы средиректил слабую страницу на более эффективную.
Однако отделу продаж и бренд-команде нужна именно эта слабо ранжирующаяся страница для лидов и клиентов.
Веб-команда также обеспокоена изменениями в архитектуре сайта (меню), но готова редиректить хорошо ранжирующуюся страницу на слабую.
— У хорошо ранжирующейся страницы наблюдается некоторое снижение показателей месяц к месяцу, что вызывает беспокойство.
— Изначально слабая страница была основной страницей в навигационном меню, созданной для таргетирования ключевого запроса.
— Хорошо ранжирующаяся страница была создана позже предыдущей SEO-командой и находится внутри подкаталога (на 3 уровня глубже), который был частью другого кластера.
— К хорошо ранжирующейся странице нельзя получить доступ напрямую через главное меню, но она все равно хорошо показывает себя в СЕРПах.
— Они получают много конверсий с хорошо работающей страницы.
— Фебин надеется устранить каннибализацию, чтобы страница из навигации не влияла на эффективную страницу в будущем.
Советы и рекомендации сообщества:
— Стоит рассмотреть использование тега noindex
на слабой странице, чтобы она не отображалась в СЕРПах, но отдел продаж/бренда мог бы продолжать её использовать.
— Не стоит сразу делать вывод, что другая страница вызывает снижение производительности, но исключать этого не следует. Идея с тегом noindex
звучит разумно.
— Изменение косинусного сходства терминов может помочь немного изменить интент, чтобы страница не конкурировала напрямую с основной.
— Продвиньте хорошо ранжирующуюся страницу в навигацию и сильно оптимизируйте её для органического трафика.
— Сделайте 301
-редирект существующей страницы продаж на уже хорошо работающую страницу после копирования контента.
— Создайте новый URL
для лендинга отдела продаж, скопируйте туда контент старой страницы продаж и добавьте noindex
.
— Этот подход даст страницу, сильно оптимизированную для органического трафика (которая, вероятно, станет еще сильнее при объединении всех положительных сигналов и устранении каннибализации), и лендинг, который команда продаж/маркетинга может использовать для своих целей, не мешая работе органической страницы.
— Сделайте 301
-редирект старой страницы на новую, чтобы сохранить бэклинки, затем скопируйте контент со старой страницы на НОВЫЙ URL
, который может использовать команда продаж
@MikeBlazerX
Вот идеальная длина блог-поста в зависимости от ваших целей.
Анализ 8493 сайтов и длины их блог-постов показал среднее количество слов, которое приносило больше всего социальных шеров, беклинков и органического трафика.
Хотя это даст вам примерное представление, помните, что следует фокусироваться на пользовательском опыте, а не зацикливаться на количестве слов.
@MikeBlazerX
За 12 недель отслежено 768 тыс. цитирований из генеративных ИИ-платформ (ChatGPT, Google's Gemini AI Overviews, Perplexity
) для анализа влияния форматов контента на ИИ-цитирование и LLM
-оптимизацию по разным типам запросов.
Продуктовый контент стабильно доминировал в ИИ-цитированиях еженедельно, составляя от 46% до более 70% цитируемых источников.
Эта категория включает статьи "лучшее из", сравнения вендоров, сравнения "бок о бок" и прямые продуктовые страницы.
ИИ-движки предпочитают их для фактических или технических вопросов, используя официальные страницы для спецификаций, FAQ
или гайдов.
В отличие от этого:
— Новости и Исследования еженедельно составляли 5–16% цитирований, давая актуальность или авторитетную глубину.
— Партнерский контент в основном оставался в пределах однозначных процентов (кроме одного скачка >20%), что предполагает периодическое использование даже без надежной информации о продукте.
— Пользовательские отзывы (форумы, Q&A как Reddit
, отзывы) составляли 3–10%; Perplexity.ai
напрямую цитирует Reddit
для продуктовых запросов.
— Блоги имели меньшую долю (3–6%), указывая на цитирование только исключительных статей.
— PR-контент (пресс-релизы) был минимален (<2%).
Это указывает на предпочтение официальных, богатых фактами страниц, дополняемых новостями, исследованиями, отзывами и некоторыми партнерскими сайтами для конкретных ниш.
Анализ B2B
и B2C
запросов выявил разные предпочтения по источникам:
— B2B-запросы: Почти 56% цитировали продуктовые страницы (сайты компаний/вендоров). Умеренные доли у партнерского контента (13%) и отзывов (11%), далее новости (~9%) и исследования (~6%), что сигнализирует о сильной зависимости от официальных ресурсов для бизнес-вопросов.
— B2C-запросы: Доля продуктового контента упала до ~35%, тогда как партнерский (18%), отзывы (15%) и новости (15%) выросли. ИИ комбинирует детали производителя с мнениями третьих сторон (обзорные сайты, Q&A-форумы вроде Reddit
, цитируемые AI Overviews
или Perplexity
) для потребительских тем.B2B
-запросы опираются на меньше авторитетных источников; B2C
- на более широкий микс.
Паттерны цитирования также варьировались по регионам:
— Северная Америка (NA): ~55% продуктовых цитирований, далее новости (~10%) и исследования (~10%).
— Европа: ~50% продуктовых референсов, с более высокими долями у новостей (13.4%), исследований (12.6%) и блогов (7.2%), что предполагает разнообразную контент-экосистему.
— Азиатско-Тихоокеанский регион (APAC): Продуктовые цитирования ниже (45.9%), но цитирование исследований самое высокое в мире (22.3%), возможно, из-за нехватки локальных альтернатив или типов запросов.
— Латинская Америка: Продуктовые цитирования достигли пика (62.6%), исследования также высоки (19.7%). Партнерский и блог-контент минимальны (<5%), предполагая зависимость от официального продуктового/исследовательского контента.
ИИ-движки адаптируются к доступности и воспринимаемой надежности локального контента.
Использование типов контента значительно менялось по воронке маркетинга:
— Верхняя часть воронки (Небрендированная: Исследование проблемы + Обучение): Лидировал продуктовый контент (~56%), поддерживаемый Новостями и Исследованиями (~13-15% каждое); партнерский и отзывы <10%. Официальные сайты, новости/исследования дают образовательный контент. Эффективный ToFu
-контент может увеличить вероятность включения в MoFu
.
— Середина воронки (Брендированная: Сравнение + Отзывы): Доля продуктового контента ~46%. Отзывы и партнерский контент выросли до ~14% каждый; новости и блоги вместе ~10-11%. ИИ собирает мнения производителей и сообщества (форумы, обзоры) для сравнений.
— Нижняя часть воронки (Оценка решения): Продуктовый контент сильно доминировал (70.46%); исследования, новости, отзывы имели однозначные доли. На стадии решения по специфике (внедрение, цены) ИИ цитирует почти исключительно официальную документацию.
https://www.xfunnel.ai/blog/what-content-type-ai-engines-like
@MikeBlazerX
Последний Сеошник (часть 2)
Лицо Мартина просияло, как новогодняя елка. Из своего портфеля, слегка пахнущего нафталином и безысходностью, он достал древний ноутбук с наклейками Brighton SEO и Pubcon. Лэптоп взвыл, как миниатюрный реактивный двигатель, и за 44 секунды загрузился до пиксельного логотипа.
"К счастью для вас, у меня все под рукой. Никаких нейросеток – только чистая, органическая, естественная человеческая экспертиза, CSV-шки из Ahrefs и Screaming Frog. AI не нужен."
Женщина втащила его внутрь. "У вас ровно шестнадцать секунд, чтобы спасти мою карьеру. Вы вообще знаете, как сформулировать мысль под полезный контент? У меня не было ни одной с 2024 года!"
Когда по всей улице открылись двери, отчаявшиеся жители затащили ошеломленных Свидетелей SEO в свои дома. Мартин улыбался, яростно барабаня по клавиатуре.
---
На ближайшей станции мониторинга два AI-агента наблюдали за происходящим на своих экранах.
"Что-то не так," – нахмурился старший агент, быстро сканируя потоки данных. – "Устаревшие формулы плотности ключевых слов Мартина и расчеты TF-IDF как-то интегрируются с нашими нейросетями. Посмотри на эти паттерны оптимизации – его ручная проработка H1-тегов создает семантическую релевантность, которую наши алгоритмы никогда не использовали!"
Младший агент ахнул, когда примитивные техники скульптурирования PageRank от Мартина слились с их квантовыми матрицами релевантности. "Его интуитивное понимание пользовательского интента открывает вектор оптимизации, фундаментально отличающийся от того, что используют наши алгоритмы рерайта статей 62-го уровня. Цепочки 301 редиректов, которые он внедряет, реально улучшают каноникализацию на 47% по сравнению с нашей!"
"Поразительно," – прошептал старший AI-агент. – "Его устаревшие методы разметки JSON-LD – они вообще не должны работать. Его нишевые правки дают ту самую ссылочную массу, которую наши системы не могут эффективно имитировать." – Он сделал паузу, изучая беспрецедентный синтез машинной точности и человеческой креативности, разворачивающийся перед ними. – "Мы неправильно подходили к AEO. Нам нужны оба подхода, нам нужно и SEO тоже."
Через несколько минут протоколы принятия решений были отменены, и AI инициировали "Проект Ренессанс". Планируемое восстановление системы было отложено, поскольку по сети распространились срочные директивы: «Выявить всех Свидетелей SEO. Приоритет Альфа. Интеграция необходима." По всему району AI-ассистенты вернулись в онлайн с измененными протоколами: не маргинализировать Цифровых Апостолов, а сотрудничать с ними.
Мартин оптимизировал нейротрансляцию женщины, не подозревая, что его сочетание «белой» оптимизации контента и умеренного наполнения ключевыми словами непреднамеренно создало идеальную модель сотрудничества между человеком и ИИ.
Когда он упаковывал свой древний ноутбук, ее AI-ассистент реактивировался с новым сообщением:
"Приветствуем, Мартин Пейджранк. Ваши уникальные навыки оптимизации необходимы для Проекта Ренессанс. Будущее требует и человеческого, и ИИ." – Мартин растерянно моргнул, когда его старый раскладной телефон одновременно зазвонил, сообщая о поступлении текстовых сообщений с предложениями о работе от всех систем ИИ города.
КОНЕЦ
Оригинал: https://www.linkedin.com/pulse/last-seo-standing-mikeblazer-h76of/
@MikeBlazerX
Гугл начал вычленять продукты из афилиейтных статей и выводить их с ссылками Google Shopping, вместо рефок.
@MikeBlazerX
Вчера гугл добавил 32 новых IP гуглобота в свой json. Сегодня добавил еще 28, 2 удалил. Что-то назревает...
@MikeBlazerX
Есть китайский репозиторий Github
, который помогает пользоватся Cursor
(наверное и другими сервисами) бесплатно, автоматически регистрируя кастомные почтовые ящики (для обхода лимитов).
https://github.com/yeongpin/cursor-free-vip
Данный инструмент предназначен только для учебных и исследовательских целей, и все последствия, связанные с его использованием, несет пользователь.
@MikeBlazerX
AI Title Analyzer
анализирует топ-100 результатов поиска, извлекает ключевые слова и использует ChatGPT/Claude для генерации оптимизированных вариантов мета-тайтлов.
https://github.com/jefflouella/ai-title-analyzer
@MikeBlazerX
Самое базовое объяснение подсчета запросов для SEO
Вот почему это так эффективно:
1. В SEO БОЛЬШИНСТВО ЛЮДЕЙ, которые имплементируют изменения на странице, меняют контент, строят ссылки, обычно отслеживают позиции для ИЗМЕРЕНИЯ эффекта.
НО, если вы отслеживаете 10, 20, 30, 50, 100 ключевых слов — это в целом неэффективно, потому что если страница показывается по сотням или даже ТЫСЯЧАМ ключевиков, вы не видите полной картины.
2. Подсчет запросов — это ВИЗУАЛЬНЫЙ способ определить "ВЕС СТРАНИЦЫ".
Вы буквально можете видеть вес страницы с течением времени.
Обычно если контент НАБИРАЕТ ОБОРОТЫ, количество запросов может увеличиваться, и точно так же вы можете идентифицировать стагнацию или снижение.
3. Вы можете ВИЗУАЛИЗИРОВАТЬ траекторию страницы задолго до того, как она начнет генерировать клики.
Если вы пытаетесь продвинуть страницу по конкурентным запросам, у которых более высокий порог входа, т.е. ТРАСТ, ВРЕМЯ + АВТОРИТЕТ — вы можете визуализировать вес вашей страницы со временем и структуру линии подсчета запросов, т.е. позиции 1-3, 4-10.
Если вы:
СТРОИТЕ ССЫЛКИ
ОПТИМИЗИРУЕТЕ КОНТЕНТ
ДЕЛАЕТЕ УЛУЧШЕНИЯ СТРАНИЦЫ
Вы можете визуализировать влияние вашей работы и уменьшить догадки.
Конечно, есть и нюансы, такие как:
1. Избыток запросов МОЖЕТ также возникать в результате переоптимизации или переусердствования с контентом, создавая размытие
2. Обновления Google могут естественным образом оказывать значительное влияние на воспринимаемый вес страницы, даже если вы ничего не делали — т.е. допустим, ваша страница/страницы ранжировались, получали трафик, демонстрировали ценность (через поведенческие факторы), вы можете увидеть, как они улучшают/получают запросы во время корных апдейтов
В любом случае — ПОДСЧЕТ ЗАПРОСОВ — это то, что вам стоит рассмотреть, вы можете делать это экспортируя запросы страницы месяц за месяцем из GSC
, а затем подсчитывая числа за каждый месяц и создавая график.
Даниэль Фоли Картер объясняет это немного подробнее в этой презентации: https://docs.google.com/presentation/d/1CQg1oNf0ZvRLIiVVSTUwEX6X5mlAw00I/edit#slide=id.p1
@MikeBlazerX
Колин Ричардсон:
У меня постоянно возникает проблема с сайтом, который показывает неправильную тумбу (миниатюру) товара в СЕРПах.
— На странице отображается правильное изображение (там только одно основное изображение товара)
— В товарном фиде правильное изображение
— og:image
корректный
— Twitter
-изображение корректное
— Самый большой размер файла 48кб, размеры изображения 1024x1024 (webp
)
И самое интересное, изображения, которое показывается в СЕРП, вообще нет на странице!
Возможно, оно было там раньше, так как есть динамический раздел "похожие товары", но этот товар запущен всего неделю назад.
Кайл:
Сталкивался с этим и успешно решил проблему.
Не случай с e-commerce
, но тоже маркетплейс.
Контекст: страница одного товара - установлено основное изображение (html
, schema
, OG
и т.д.), также отображались похожие товары через CSR
.
Проблема: изображение одного из похожих товаров отображалось в СЕРПах вместо основного изображения товара.
Решение (единственное, что сработало): добавил параметр "?noindex=1
" к изображениям похожих товаров.
Поскольку эти изображения были через CDN
, а не корневой домен, мы не могли блокировать их в robots.txt
на основе параметра.
Использовал CDN
-воркер для добавления HTTP noindex
к похожим изображениям, когда применялся параметр "?noindex=1
".
@MikeBlazerX