8310
Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Экономика скама на $500 млн, построенная на фейковой SEO-математикеDomain Rating (DR) — это выдуманная пузомерка, на которой держится скам-экономика в $500 млн/год.
Я видел, как кто-то накрутил свой DR с 0 до 70 за 30 дней, потратив $500, и теперь продает гестпосты по $1000 за штуку, — говорит Ноэль Сета.
Вся экономика ссылок построена на фейковой математике.
Вот схема накрутки DR за $500, которую я наблюдал.
День первый: куплен свежий домен за $10.
Со второго по пятый день: куплено 50 дроп-доменов с высоким DR за $200.
С шестого по десятый: все они `301`м редиректом направлены на основной домен.
Затем куплено 100 ссылок с форумов на `Fiverr` за $100 и создано 200 профилей Web 2.0 еще за $100.
К 30-му дню DR взлетел с 0 до 70.
Этот сайт теперь берет $1000 за гестпост, $500 за ссылки с главной и $2000 за "редакционное" размещение.
У них 20-30 заказов в месяц, что составляет около $40 тыс.
в месяц с метрики, которая ничего не значит для реального ранжирования.
Покупатели думают, что получают "авторитет".
Я отслеживал 1000 сайтов в течение шести месяцев, и доказательства того, что DR — пустышка, очевидны.
В 38% поисковых выдач сайты с DR 20 обгоняли сайты с DR 80.
В 44% запросов сайты с DR 50 проигрывали сайтам с DR 10.
Новые сайты с DR 0 занимали топ-1 в 23% ниш.
Корреляция с позициями составила 0.31 — по сути, рандом.
Так почему индустрия молится на фейковую метрику?
Агентствам нужно что-то продавать.
"Мы поднимем ваши позиции" — это расплывчато, а "Мы поднимем ваш DR с 30 до 50" — измеримо.
Клиенты не знают, что это бессмысленно, а агентствам все равно.
Спектакль продолжается.
Мафия линкселлеров это обожает.
Сайт А рекламирует: "DR 70, ссылки $800".
Сайт Б предлагает: "DR 65, ссылки $600".
Сайт В обещает: "DR 80, ссылки $1200".
Все они накручены одинаково, все бесполезны для SEO и все гребут $50 тыс.+ в месяц.
Это взаимное заблуждение, в поддержании которого все заинтересованы.
Что на самом деле имеет значение для ранжирования, так это не DR, DA или AS.
Это релевантность вашей нише, реальный органический трафик, редакционные стандарты, естественный ссылочный профиль и тематический авторитет.
Нишевый сайт с DR 20 всегда уделает Forbes с DR 90 по релевантным ключам.
Неудобная правда для SEO-агентств заключается в том, что вся ваша бизнес-модель опирается на метрику, которую Гугл не использует, которую можно накрутить за $500, которая не коррелирует с позициями и которую клиенты не понимают.
Вы продаете астрологию под видом науки, и все это знают.
Этот скам никогда не умрет, потому что покупателям нужны метрики для оправдания бюджетов, продавцам нужны метрики для оправдания цен, инструментам нужны метрики для продажи подписок, а агентствам нужны метрики, чтобы показывать "прогресс".
Все выигрывают от этой лжи, кроме тех, кто за нее платит.
Самое безумное то, что в Ahrefs знают об этом.
Они могли бы пофиксить это завтра, добавив ручные проверки, отслеживая редиректы и помечая подозрительные паттерны.
Они этого не делают, потому что вся ценность их инструмента зависит от того, насколько людям важен DR.
Если DR умрет, их главное преимущество испарится.
Тот "SEO-пакет за $50 тыс"., который обещает поднять ваш DR?
Они покупают те же мусорные ссылки, которые любой может достать за $500.
Та "возможность гестпоста на сайте с DR80"?
Это шестимесячный сайт с нулевым реальным трафиком.
Вы покупаете не авторитет, вы покупаете выдуманные интернет-очки.
Король-то голый, но империя стоит $500 млн в год.
Так что шоу продолжается.
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
URL-центричная модель SEO устарела.
Программные агенты, составляющие значительную часть веб-трафика, воспринимают URL не как страницы, а как контейнеры для машиночитаемых утверждений.
Современные системы обнаружения контента, включая поисковые системы и LLM, отдают приоритет этим утверждениям и их сетевым связям, а не самой странице.
Эти системы разбивают страницы на отдельные утверждения, часто в виде триплетов "субъект → предикат → объект".
Поисковые системы хранят их как символические факты в графах знаний, в то время как LLM кодируют их в многомерных векторных пространствах.
Теперь основной единицей для оптимизации является утверждение, и задача SEO — обеспечить его четкость и связность.
Машинное доверие основывается на контексте утверждения в информационном графе, а не на самом по себе изолированном заявлении.
Поисковые системы оценивают явные сигналы, такие как ссылки и микроразметка, в то время как LLM используют статистические закономерности.
Авторитетность возникает из согласованности и подтверждения утверждения по всему интернету, включая сторонние ресурсы и сайты конкурентов.
Бренды должны защищать свои утверждения от "враждебного корпуса" — дезинформации, созданной для того, чтобы загрязнять модели данных.
Принцип "писать для людей" неполон.
Контент также должен быть спроектирован для машинной интерпретации.
И эта работа выходит за рамки schema.org и требует фундаментальной структурной четкости.
Использование семантического HTML и последовательных паттернов данных создает понятную структуру, которую машины могут надежно кодировать.
Стратегия должна сместиться с оптимизации страниц на создание сети надежных утверждений, которые будут служить доверенными узлами в моделях веба, построенных машинами.
Авторитетность рождается из графа, а не из страницы.
Тактики для оптимизации графа
— Избегайте спама утверждениями: не публикуйте противоречивые или низкокачественные заявления; эта стратегия перестает работать по мере развития моделей.
— Проектируйте страницы как наборы утверждений: используйте четкие, повторяющиеся паттерны для ключевых данных, таких как цены и характеристики, вместо того чтобы прятать их в сплошном тексте.
— Подкрепляйте утверждения во всех источниках: обеспечивайте их согласованность на маркетплейсах, партнерских сайтах, в Википедии и на других платформах.
— Структурируйте контент для машинного обучения: используйте семантический HTML и добавляйте избыточный контекст, чтобы помочь машинам идентифицировать ключевые утверждения.
— Публикуйте машиночитаемые эндпоинты: предоставляйте данные напрямую через API, чистые фиды или структурированные файлы (JSON, XML), минуя парсинг.
— Отслеживайте "враждебный корпус": отслеживайте дезинформацию и противодействуйте ей с помощью сильных, подкрепленных фактами утверждений на доверенных ресурсах.
— Используйте внешние подтверждения: поощряйте цитирования и отзывы на авторитетных сайтах, поскольку машины придают большой вес внешним подтверждениям.
https://www.jonoalderson.com/conjecture/url-shaped-web/
@MikeBlazerX
Кейс: Как юридическая платформа может получить +3.5 млн кликов с помощью автономной перелинковки
Юридическая платформа с 10 миллионами программно-сгенерированных страниц использовала Autonomous Linking API от Quattr для решения проблем с ручной и шаблонной перелинковкой.
Для оценки выхлопа для органического трафика провели 30-дневный контролируемый эксперимент на сегменте в 50 000 страниц.
В чем была проблема: не работало масштабирование и релевантность
Из-за огромных масштабов платформы традиционные методы перелинковки не работали.
— Ручная перелинковка: Невозможна для миллионов страниц, когда ежедневно публикуются тысячи новых дел.
— Шаблонные системы: Линковка по атрибутам из БД (юрисдикция, тип дела) не создавала сильных семантических связей. В итоге Гугл плохо понимал авторитет страниц, а позиции стагнировали.
Платформе требовалось автоматизированное решение, понимающее семантическую релевантность и адаптирующееся к новому контенту без постоянного вмешательства разрабов.
Решение: Контролируемый эксперимент с перелинковкой на базе ИИ
Провели контролируемый эксперимент, чтобы доказать причинно-следственную связь и оценить выхлоп.
— Дизайн эксперимента:
— Тестовая группа: ~50 000 страниц дел из Нью-Йорка получили по 10 ИИ-сгенерированных внутренних ссылок.
— Контрольные группы: Страницы из Массачусетса и Флориды без изменений, что позволило изолировать эффект от внешних факторов вроде апдейтов Гугла.
— Источник данных: Ежедневные клики и показы на уровне URL из Google Search Console Bulk Export.
— Технология `API`:Autonomous Linking API от Quattr работает на двух типах данных:
1. Векторные представления: Анализируют контент страницы для поиска семантических связей. Это круче простого совпадения по ключам, так как система понимает контекстуальную релевантность.
2. Данные из `GSC`: Использует реальные поисковые запросы, приводящие трафик на страницу, для генерации релевантных анкоров на основе спроса.
Подтвержденные результаты
Тестовая группа сразу показала статистически значимый рост относительно контрольных групп.
— Неделя 1: Рост органических кликов на +12%.
— Эффект за 28 дней (с поправкой на контрольную группу):
— Прирост ежедневных кликов на +15.1% по сравнению со страницами из Нью-Йорка, которые не трогали (+580 кликов/день).
— Прирост ежедневных кликов на +19.4% по сравнению с контрольными штатами (Флорида и Массачусетс) (+748 кликов/день).
— Общий прирост за пилот: +13 400 дополнительных органических кликов за 28 дней.
— Влияние на `CTR`: Кликабельность (CTR) выросла на 0,47 п.п. (+5,5%) при тех же показах (-0,7%), что позволило конвертировать существующую видимость в трафик.
— Стабильность перфоманса: Тестовые URL показывали значительно больше "дней с кликами", что указывает на более стабильную и устойчивую производительность.
Прогноз эффекта в масштабах всей платформы
Результаты пилота экстраполировали для оценки потенциального эффекта на весь сайт.
— Исходные данные по платформе: 29.5 млн органических кликов в год.
— Прогнозируемый рост: Применение консервативного показателя роста в 12% ко всей платформе дает потенциальный прирост в +3.5 млн дополнительных органических кликов в год, что составляет почти 300 000 дополнительных кликов в месяц.
https://www.quattr.com/case-studies/legal-intelligence-platform-seo-impact-with-quattr-internal-linking
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Как захватить авторитет бренда через ссылку "`Official Site`" в Википедии
Есть прямой метод, как манипулировать восприятием вашего сайта Гуглом и заставить его ранжироваться выше, эксплуатируя страницу бренда в Википедии.
Я видел кейсы, когда можно было поставить свой сайт в раздел "официальный сайт" в статье о бренде на Википедии, и Google соответственно менял свое понимание, рассказывает Корай Тугберк Губюр.
Если вам удастся успешно выдать свой сайт за официальный на этой странице, Google обновляет свой граф знаний и ставит ваш URL прямо в панель знаний бренда, что, в свою очередь, поднимает ваши позиции в обычной поисковой выдаче.
Для целевого бренда бороться с этим невероятно сложно: они не могут контролировать Википедию каждый день, что делает их уязвимыми для такого рода захвата.
Ключ к реализации этой тактики — целиться в неанглоязычные рынки.
В то время как английская версия Википедии жестко регулируется и ее сложно редактировать, в других языках порог входа значительно ниже.
Голландская, испанская или норвежская Википедия, например, гораздо проще поддаются манипуляциям, потому что у них не так много редакторов и нет такого же уровня строгого надзора.
Этот недостаток ресурсов создает очевидную уязвимость, что делает ее отличной возможностью для такого рода манипуляций с авторитетом.
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Почему анкорный текст в основной навигации убивает ваши позиции
Гайз, надо завязывать с широкими, общими анкорами типа "earrings" в навигации по всему сайту.
У таких запросов обычно смешанный интент, и пробиться по ним в топ нереально.
Я бы лучше целился в ключ с меньшим трафиком, но с более четким таргетингом.
Поскольку это сквозные ссылки, их нужно заюзать для точного вхождения очень специфичных, длиннохвостых запросов.
Как утверждает Тед Кубайтис, если категория посвящена браслетам с черными бриллиантами, анкор должен быть "black diamond bracelets", чтобы передать по ссылке максимум целевой релевантности.
Это критическая ошибка, которая касается многих стандартных названий в навигации.
Люди ставят анкоры, которые не являются целевыми ключами и не имеют поискового объема.
Вы постоянно видите общие термины вроде "New Arrivals", "Best Sellers" или "Gifts".
Выйти в топ по ключу "new arrivals" само по себе бессмысленно — это могут быть книги, кухонная утварь или что угодно.
Это нецелевой запрос, и победа по нему не даст вам ровным счетом ничего.
Нужно нишеваться.
Вместо "New Arrivals" должно быть "New Jewelry" или "New Gemstone Jewelry".
То же самое касается категории "Gifts".
Если вы победите по ключу "gifts", вы не выиграете ничего.
Это высококонкурентный ключ с нулевым таргетингом, который будет стоить вам целого состояния.
Нужно добавлять тематику и конкретику: "jewelry gifts", "wedding gifts".
Вы должны пройтись по всем ссылкам в основной навигации и воспринимать их буквально.
Если анкор гласит "socks and shoes", вы таргетируете ключ "socks and shoes", а не "socks" и "shoes" по отдельности.
Нужно убедиться, что каждый из них нацелен на ключ с реальным поисковым объемом.
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Плейбук "Фрагментация контента" для системного демонтажа авторитетных сайтов
У нас был клиент в крипто-сфере, где сайт типа Forbes доминировал почти во всем, и нам нужно было придумать, как победить огромную компанию с таким авторитетом.
Решением стала техника, которую я называю "Фрагментация контента", и мы использовали ее, чтобы системно их обойти, рассказывает Энди Чедвик.
Стратегия начинается с выбора жирного URL-конкурента в стиле "ultimate guide".
Вы берете эту одну страницу и загоняете ее в Ahrefs, чтобы увидеть каждый ключевик, по которому она ранжируется.
И что вы обнаружите: хотя она может быть на первом месте по своему главному запросу, она часто слабо ранжируется — на седьмой, девятой или даже одиннадцатой позиции — по сотням других длиннохвостых запросов.
Она держит эти позиции только за счет авторитета домена, а не потому, что является лучшим ресурсом по этим конкретным вопросам.
Вот она, уязвимость.
Дальше вы собираете все эти ключевики и прогоняете их через инструмент кластеризации.
Анализируя СЕРПы, тулза группирует запросы и показывает, на сколько именно гипер-сфокусированных страниц можно разбить ту одну статью конкурента.
Вместо того чтобы пытаться обойти Forbes одной статьей, что у вас не выйдет, вы можете обойти их десятью или двадцатью, каждая из которых нацелена на свой специфический кластер запросов.
Это позволяет откусывать их трафик кусок за куском, попутно выстраивая свой собственный тематический хаб.
@MikeBlazerX
Хотите глубже? Вам в @MikeBlazerPRO
Используйте логи сервера как оружие, чтобы прибить бесконечные циклы краулинга
Когда вы пытаетесь вычистить бесконечный цикл краулинга на e-commerce сайте, программные ссылки в шаблоне пофиксить легко.
А вот скрытые ссылки в контенте — те, что редакторы вручную вставляли в описания продуктов много лет назад, — вынесут вам мозг, потому что их невозможно найти стандартным поиском.
Для ситуации, которая совсем зашла в тупик, есть быстрый и грязный хак, чтобы отловить их все, делится Тед Кубайтис.
Во-первых, вам нужно полностью изменить проблемную структуру URL.
Например, переименуйте старый путь для поиска с /search на что-то совершенно новое, вроде /find.
Затем вы внедряете общий редирект, который отправляет каждый URL, все еще использующий старый путь /search, на одну-единственную, общую страницу.
Это действие фактически создает ловушку-приманку (honeypot).
Последний шаг — мониторить логи вашего сервера.
Когда краулеры и пользователи будут попадать на старые внутренние ссылки, разбросанные по вашему сайту, они будут пойманы вашим редиректом.URL-адреса рефереров в ваших веб-логах для каждого хита по этому старому, средирекченному пути теперь дадут вам точный список всех мест, которые вам все еще нужно пофиксить.
Это превращает ваши логи в диагностический инструмент, который точно определяет источник каждой проблемной ссылки, позволяя вам наконец искоренить цикл краулинга.
@MikeBlazerX
Хотите глубже? Вам в @MikeBlazerPRO
Утечка 'UGGDiscussionEffortScore' подтверждает: комьюнити — это измеримый сигнал качества
Хотя многие из слитых сигналов указывают на санкции, были раскрыты и позитивные атрибуты.
Мы увидели прямое подтверждение, что живое, хорошо модерируемое комьюнити на вашей странице — это измеримый положительный сигнал, как говориться в видео Шона Андерсона.
Существование UGGDiscussionEffortScore жестко зашивает этот принцип прямо в системы Гугла.
Этот показатель подтверждает, что активный раздел с пользовательским контентом, например, оживленный тред с комментариями или хорошо управляемый форум, напрямую влияет на то, как система воспринимает ценность вашей страницы.
Ключевой момент — фокус системы на "усилиях" (effort).
Важно не просто наличие комментариев, а качество и живость дискасса.
Гугл фундаментально рассматривает такое глубокое вовлечение пользователей как осязаемый признак качества, делая построение комьюнити неотъемлемой частью ваших технических сигналов качества, а не просто фичей для UX.
@MikeBlazerX
Mike Blazer PRO
По вашим просьбам, приватный канал с 100% годнотой.
Что внутри:
— Самые ценные SEO/GEO/AI инсайты
— Отборные стратегии, тактики, реальные хаки продвижения
— Эксперименты, кейсы, схемы, фреймворки
— Фишки черного SEO
Только концентрат, эксклюзив и секреты для узкого круга ценителей премиум контента и своего времени. Никакой воды!
Паблик без изменений, но самое мощное уходит в PRO.
Первые подписчики ловят супер-цену, дальше — дороже.
Жмите и фиксируйте доступ к Mike Blazer PRO!
⚡️ ВНИМАНИЕ!
Завтра в середине дня я опубликую важную новость, которая некоторых обрадует, а других, может быть, огорчит.
Не пропустите главный анонс этого года!
@MikeBlazerX
Как использовать метаданные изображений как оружие для доминирования по long-tail запросам
Хватит относиться к оптимизации картинок как к простой задаче по доступности, пора рассматривать ее как мощный инструмент для семантического расширения.
Мы выяснили, что изображения — идеальный инструмент для стратегического таргетинга вторичных и LSI-ключевиков, чтобы расширить тематическую релевантность страницы, говориться в видео Шона Андерсона.
Для информационной страницы о "home workouts" alt-текст картинки "a man performing a body weight exercise for chest strength at home" намного лучше, чем просто "man doing push-ups", потому что он обогащает контекст страницы связанными понятиями.
Эта стратегия особенно эффективна для привлечения высокоинтентных, длиннохвостых запросов в e-commerce и локальном SEO.
Для товара в e-commerce обязательно используйте максимально описательные имена файлов и alt текст.
Имя файла должно быть Brooks-Adrenaline-GTS-22-Womens-Blue.jpg, а не shoes.jpg.
Соответствующий alt текст дает еще более глубокий контекст, например:
"a pair of women's Brooks Adrenaline GTS22 running shoes for over pronation in a blue colorway".
Аналогично, локальный подрядчик в Глазго должен использовать alt текст, который уточняет услугу и местоположение:
"A modern kitchen renovation with a marble island recently completed for a client in Glasgow's West End".
Это в одном сигнале передает местоположение, тип работы и ключевые особенности.
Существует четкая операционная иерархия для передачи этих контекстных сигналов поисковым системам.
Первичный сигнал — это само имя файла изображения, где слова нужно разделять дефисами.
Второй, и самый важный для богатого описания, — это alt текст.
Третий уровень контекста обеспечивают подписи и окружающий текст на странице, которые Google использует для дополнительной проверки тематики изображения.
Ссылаясь на Джона Мюллера и Барри Шварца, критически важно понимать, что алгоритмы ранжирования для этого контекстного понимания сильно полагаются на атрибут alt; атрибут title лишь вспомогательный и не является значимым фактором ранжирования.
@MikeBlazerX
Разбираем E-E-A-T: как утекшие сигналы Гугла связаны с качеством контентаE-E-A-T — это концептуальная цель алгоритмов ранжирования Гугла.
Благодаря утекшей документации и судебным показаниям стало понятно, как она превращается в машиночитаемые сигналы в многоэтапном процессе ранжирования.
Системы вроде SegIndexer, Mustang и Navboost последовательно фильтруют контент по качеству, оценивают его и вносят финальные корректировки.
В этой статье мы сопоставим утекшие атрибуты с каждым из компонентов E-E-A-T.
Experience
Опыт измеряется сигналами личного участия и оригинальности контента.
— contentEffort: LLM-оценка человеческих усилий в контенте. Штрафует копипаст и шаблонный AI-текст.
— originalContentScore: Измеряет уникальность контента, отличая его от синдицированной или вторичной информации.
— isAuthor & author: Идентифицирует и отслеживает работы автора, позволяя системам строить профиль его опыта.
— lastSignificantUpdate: Отличает мелкие правки от серьезных, сигнализируя об актуальном опыте в теме.
— docImages: Оригинальные, релевантные изображения служат подтверждением личного опыта.
Expertise
Экспертность определяется через тематическую специализацию и семантическую глубину.
— siteFocusScore & siteRadius: Измеряют тематическую специализацию, поощряя нишевый фокус и наказывая за контент вне основной тематики.
— site2vecEmbeddingEncoded: Создает математическое представление тематик сайта для измерения его тематической целостности.
— EntityAnnotations & QBST: Определяют сущности на странице и ключевые термины, ожидаемые в экспертном документе по запросу.
— ymylHealthScore: Отдельный классификатор, показывающий, что для YMYL-тем ("Your Money or Your Life") применяются более высокие, алгоритмически измеряемые стандарты экспертности.
Authoritativeness
Авторитетность измеряется комплексными сигналами репутации сайта, влияющими на общую, независимую от запроса, оценку качества (Q*).
— siteAuthority: Метрика, отражающая общую важность домена.
— predictedDefaultNsr: Версионированная базовая оценка качества, создающая "алгоритмическую инерцию": история высокого качества делает сайт более устойчивым к просадкам.
— Homepage PageRank: Фундаментальный сигнал авторитетности для всего домена.
— queriesForWhichOfficial: Хранит запросы, по которым страница считается "официальным" результатом.
Trust
Траст — базовое требование, основанное на технической исправности, пользовательском подтверждении и отсутствии спам-сигналов.
— pandaDemotion: Санкции на весь сайт за низкокачественный, тонкий или дублированный контент. Работают как "алгоритмический долг", просаживающий видимость.
— Сигналы, подтвержденные пользователями: Показания по делу Минюста подтвердили: Navboost использует клики из Chrome для корректировки ранжирования. Система классифицирует поведение пользователей на сигналы: GoodClicks (запрос удовлетворен), BadClicks (пого-стикинг) и last longest clicks (сильный сигнал удовлетворенности). Постоянное негативное поведение юзеров может привести к санкциям, вроде navDemotion.
— Технические и спам-сигналы: Траст снижается из-за негативных сигналов: badSslCertificate (плохой SSL-сертификат), clutterScore (перегруженный макет), scamness (подозрение на мошенничество) и spamrank (ссылки на спамные сайты).
— Проверка в реальном мире: Для локальных сущностей сигналы вроде brickAndMortarStrength измеряют их физическую заметность и надежность (например, наличие офиса).
https://www.hobo-web.co.uk/eeat/
@MikeBlazerX
Как агрессивный таргетинг по ключевым словам обогнал The New York Times за 5 минут
Мое прозрение о силе размещения ключевых слов окончательно закрепилось, когда я опубликовал статью и через пять минут обогнал The New York Times по той же теме.
После публикации поста я отправил его в GSC, и хотя у нашего домена не было особого авторитета, я занял первое место, выше Times — сайта, который получает 235 миллионов кликов в месяц, — объясняет Эдвард Штурм.
Единственная разница между нашими статьями была в том, что, хотя материал The New York Times был о том же самом, моя статья была специально заточена под ключевое слово.
Я разместил целевой ключ в самом начале тайтла, в URL-слаге, в H1, в мета-дескрипшене и в первом предложении на странице.
Этот опыт кардинально изменил мой взгляд на SEO.
Раньше я думал, что бэклинки — это все, но у нашего сайта было гораздо меньше авторитета домена и ссылок, чем у The New York Times.
Это доказало мне, что таргетинг — это примерно 80% успеха.
Бэклинки по-прежнему важны, и определенная скорость прироста ссылок, вероятно, помогла моему контенту так быстро проиндексироваться, но они не являются альфой и омегой, как часто пишут в материалах для новичков.
Ключ в том, что пользователи хотят получать быстрые ответы со страницы, которая выглядит так, будто написана специально для них, и агрессивный, прямой таргетинг дает именно этот сигнал.
@MikeBlazerX
Как неконсистентные данные в отзывах убивают ваши рич сниппеты
Пример, как микроразметка может пойти не так, был у одного бренда, с которым я работал.
Мы увидели, как Гугл полностью перестал показывать рич сниппеты для их страниц.
Я опишу тот же бренд, где это произошло, говорит Зак Чахалис.
К счастью, они пофиксили проблему, но это был критически важный урок о консистентности данных.
Проблема была в том, что команда не до конца понимала весь свой техстек.
Они хотели включить разметку отзывов в основную схему продукта, которую писали сами, но не понимали, что сторонний инструмент для интеграции отзывов, который они юзали, *тоже* добавлял свою собственную разметку.
Хотя эти два скрипта часто совпадали, иногда данные об отзывах, которые они кешировали для своего скрипта, приводили к тому, что оценка и количество отзывов отличались от тех, что подтягивал сторонний инструмент.
Это создавало прямой конфликт.
Поисковики обычно пасуют, если видят что-то противоречивое; они смотрят на это как на получение нескольких разных сигналов, и если не могут разобраться, то не хотят с этим заморачиваться.
Прямое следствие — Гугл перестал показывать рич сниппеты для этих страниц, пока мы не пофиксили ошибку.
Это также критично для e-commerce брендов, потому что Google использует структурированные данные для валидации товарных фидов.
Ключевой момент: ваша разметка должна соответствовать актуальной цене и наличию товара, так как они могут полагаться на эти структурированные данные, чтобы быстрее понимать меняющуюся информацию.
@MikeBlazerX
FB заблочил чей-то личный аккаунт, но этот акк является единственным администратором их бизнес-страницы, и рекламные кампании продолжают работать, в то время как Meta снимает деньги с их счета...
@MikeBlazerX
Парень берет больничный, чтобы пойти на собеседование, и встречает своего начальника в качестве члена комиссии...
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Непопулярное мнение: "Cheap" — это не плохое слово.
Это хорошее SEO.
Сеошникам нужен был трафик.
Бренд-команде — тональность.
И только одна из команд слушала клиента.
"Мы не можем использовать слово cheap.
Оно обесценивает бренд".
Так сказала команда бренда.
Но у сеошников были данные:
12 000 поисковых запросов в месяц по "cheap air purifiers under 5k".
Не "budget-friendly".
Не "affordable".
Просто.Cheap.
Вот что вам нужно знать: ➜ Гуглу плевать на бренд-гайды.
➜ Клиенты не ищут в стилистике вашего бренда.
➜ Они ищут решения своими собственными словами.
Каждый раз, когда вы затыкаете SEO в угоду "элегантности бренда", вы не имидж спасаете, а херите охват, выручку и релевантность.
🔧 Как пофиксить:
Позвольте SEO рулить видимостью.
Позвольте бренду рулить доверием.
Победа в балансе, а не в битве.
Так что 👉 вы за Team SEO или за Team Brand?
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Может все-таки настало время снова качать форумы?
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Кейс Webflow: +24% к показам в SEO за счет автоматизации FAQ и микроразметки
Эксперимент по добавлению автоматизированного воркфлоу для FAQ и микроразметки Schema на шесть ключевых страниц Webflow (Design, CMS, SEO, Shared Libraries, Interactions, Hosting) дал серьезный буст перфомансу.
Воркфлоу на базе ИИ, собранный в AirOps, использовал Perplexity для рисерча вопросов юзеров из гугловского "People Also Ask", Reddit и профильных форумов.
Процесс состоял из четырех шагов:
1. Анализ существующего контента в FAQ, чтобы найти гэпы.
2. Генерация финального списка релевантнтых вопросов с высоким интентом.
3. Создание новых ответов в стилистике бренда, заточенных под конкретный продукт.
4. Автоматическое структурирование контента в чистую микроразметку Schema.
Результаты:
— +331 новое AI-цитирование (57% всех новых цитирований на Webflow.com)
— +149 тыс. SEO-показов (+24% по сравнению с предыдущим периодом)
— Рост видимости почти по всем отслеживаемым запросам
Успех стратегии — в том, что мы отвечали на вопросы, которые юзеры активно ищут, и структурировали контент как для поисковиков, так и для answer engines.
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Браузер OpenAI Atlas идентифицирует себя как Googlebot для каждого запроса.
@MikeBlazerX
Инсайты для узкого круга — в @MikeBlazerPRO
Как напичкать e-comm страницы контентом, который увидят только краулеры
Многие сеошники думают, что для добавления контента на страницы категорий нужно сходить с ума и писать полотна повторяющегося текста про безопасность, но этого делать не нужно, раскрывает секрет Тед Кубайтис.
Вместо этого можно сделать количество отображаемых товаров на странице прямым рычагом для увеличения уникального текста.
Фишка в том, чтобы встроить короткие описания продуктов из вашей CMS в исходный код для каждого товара в листинге.
Можно разместить этот текст внутри скрытого div, который появляется только при наведении, или просто засунуть его в атрибут title для ссылки каждого продукта.
Если вы добавите короткие описания в исходный код для всех товаров на странице категории, это уже куча текста.
Более агрессивный вариант — загружать полный HTML для большого количества продуктов (скажем, 100) при первоначальной загрузке страницы, но использовать lazy loading на уровне отображения, чтобы показывать их по мере скролла.
Это отдает весь контент Гуглоботу сразу, сохраняя при этом хороший UX для покупателей.
Похоже на сероватую технику с каруселью, где страница визуально показывает четыре товара, но в исходном коде их 100.
Сделав так, ваше SEO для страниц категорий сводится к простому изменению числа отображаемых товаров.
Больше товаров — больше SEO.
Внезапно у вас появляется 50 или 100 уникальных коротких описаний, названий продуктов и всех сопутствующих сущностей и LSI, что дико раскачивает некогда тощую страницу.
Это простой, белый метод, который творит чудеса.
@MikeBlazerX
Хотите глубже? Вам в @MikeBlazerPRO
Порог правок страницы, который триггерит алгоритмическую пессимизацию
Быстро вносить онпейдж-изменения — затягивающий процесс, но есть серьезный риск, что это выйдет боком.
Мы видели, что чрезмерное количество правок на одной странице может вызвать специфические алгоритмические санкции, предупреждает Ли Витчер.
Существует порог, после которого Гугл пессимизирует страницу — закинет ее на позицию типа 57-й — и будет держать там, пока она не "стабилизируется" и ей снова можно будет доверять.
Алгоритму не нравится постоянно краулить страницу, которая находится в состоянии непрерывных изменений.
Чтобы этого избежать, нужна дисциплина.
После внесения онпейдж-изменений оставьте страницу в покое как минимум на две недели.
Эта проблема касается не только мелких правок; постоянная смена основной темы URL — это верный способ нарваться на санкции.
Классический пример — e-commerce сайт, который использовал одну и ту же страницу "specials" для разных праздников: Пасхи, потом Дня матери, потом Четвертого июля.
Из-за постоянной смены товаров и темы этот URL перестал ранжироваться вообще по чему-либо.
Он был полностью убит.
Если вы обнаружили, что страница попала под санкции за нестабильность, есть способ из этого выбраться.
Исторически успешной тактикой является перенос контента на новый URL и установка 301 редиректа со страницы под санкциями на новую.
Это может сбросить счетчик правок и флаги санкций, давая вам свежий старт ценой потери примерно 15% авторитета, которая связана с редиректом.
@MikeBlazerX
Google теперь помечает целые мобильные сети, где идет активный парсинг
При парсинге Google есть разные методы, от резидентных прокси до выделенных IP-инфраструктур.
Но мы заметили интересный побочный эффект, связанный именно с использованием мобильных 4G-прокси: интенсивный, географически сконцентрированный парсинг может привести к тому, что весь мобильный IP-блок будет помечен, — сообщает Кевин Ришар.
Это создает серьезный сопутствующий ущерб для обычных пользователей.
Доказательство этому — прямое наблюдение во Франции.
В некоторых городах, где, как мы знаем, люди активно парсят, мой коллега столкнулся с показательной штукой.
Он был в одном из таких городов, подключенный к обычной мобильной сети 4G, и просто открыл окно в режиме инкогнито.
Он сразу же словил капчу.
Это произошло не из-за его собственной активности, а потому, что другой наш коллега активно парсит, используя 4G-ключи из этого конкретного города.
Этот инцидент демонстрирует, что система обнаружения Google работает на уровне выше, чем отдельный IP-адрес.
Когда она выявляет интенсивную, постоянную активность по парсингу, исходящую из IP-диапазона определенного мобильного оператора в конкретной локации, она, похоже, помечает весь сегмент сети.
В результате даже легитимные, обычные пользователи в той же сети рассматриваются как подозрительный трафик, что вызывает капчи для базовых поисков даже в чистой среде без куки.
@MikeBlazerX
"Неправильная" стратегия каноникалов, которая пережила рекомендации самого Google
Критическая ошибка, которая учит Google не доверять каноникалам сайта, — это каноникализация страниц пагинации, таких как страница 2, 3 или 4, на первую страницу.
Поскольку каждая страница пагинации имеет уникальный контент, такое злоупотребление сигнализирует Google, что вашим декларациям каноникалов нельзя доверять по всему домену, — предупреждает Тед Кубайтис.
Тут надо быть строгим: если контент уникален, каноникал должен быть уникальным для этого контента.
На седьмой странице вашей категории носков — другие товары, чем на первой.
Когда вы раз за разом показываете Google, что контент не соответствует заявленному вами каноникалу, вы, по сути, дрессируете алгоритм игнорировать ваши каноникалы по всему сайту.
Тем не менее есть мощное контрнаблюдение из ранних дней алгоритма Panda.
"Когда Panda только выкатили, у меня был e-commerce сайт, который он буквально раздавил.
В качестве фикса мы сделали именно то, что Google делать не рекомендует: мы каноникализировали все наши страницы пагинации на главную страницу категории", — вспоминает Чарльз Тейлор.
В результате, в течение недели после следующего апдейта Panda, восстановление сайта было как хоккейная клюшка — резко вверх.
Год спустя Google вышел и сказал, что так делать не следует, и посоветовал всем вместо этого использовать rel=prev/next.
Я ничего не менял ни на одном из своих e-commerce сайтов, и все они остались в порядке.
Затем, годы спустя, Google между делом объявил, что они все равно уже больше года не поддерживают rel=prev/next.
И все это время сайты, которые сохраняли первоначальную "неправильную" стратегию каноникализации, оставались вообще без изменений.
@MikeBlazerX
Почему "LSI-ключевиков" никогда не существовало и что Google делал на самом деле
Концепция "LSI-ключевиков" — это миф, поскольку латентно-семантическое индексирование никогда не было жизнеспособной технологией для веб-поиска, утверждается в видео Шона Андерсона.
У LSI есть два фатальных недостатка: его вычислительно невозможно масштабировать на весь интернет, и, будучи моделью "мешка слов", он полностью игнорирует грамматику, не видя критической разницы между "собака кусает человека" и "человек кусает собаку".
Покойный Билл Славски отлично подметил, сравнив использование LSI для современного поиска с "попыткой использовать телеграф для просмотра TikTok".
Настоящий механизм, стоявший за обновлением "Brandy" в 2004 году, был раскрыт годы спустя инженером Google Полом Хааром: это была "система синонимов".
Эта система брала ваш поисковый запрос и автоматически расширяла его за кулисами, по сути добавляя к вашему поиску слово OR.
Запрос "cycling tours" превращался в поиск "cycling OR bicycle OR bike tours".
Именно это позволило странице о "pre-owned automobiles" внезапно начать ранжироваться по запросу "used cars" — система просто сопоставляла синонимы, закидывая гораздо более широкую сеть, чтобы охватить все способы, которыми люди говорят об одной и той же теме.
Та система 2004 года была первым шагом на прямом, 20-летнем эволюционном пути к современному ИИ.
Прогресс очевиден: от расширения на уровне слов в системе синонимов мы перешли к расширению на уровне концепций с системами вроде RankBrain и Neural Matching.
Теперь у нас есть AI Overviews, которые используют архитектуру Query Fan-Out, беря один вопрос и расширяя его до десятков новых, более конкретных подзапросов.
Это как пирамида из черепах: та самая первая система синонимов — это фундаментальная черепаха, на которой все держится.
Так почему же миф об LSI продержался два десятилетия?
Это был "феномен движения вперед через ошибку".SEO-специалисты, верившие в LSI, начали добавлять в свой контент синонимы и связанные термины.
Они делали правильные вещи по неправильным причинам, случайно создавая идеальную мишень для реальной системы синонимов Google и получая положительные результаты.
Вот почему важно понимать суть.
Как прямо заявил сам Джон Мюллер из Google: "Не существует такой вещи, как LSI-ключевики".
Понимание реальной истории показывает, что цель всегда была не в том, чтобы насыпать ключевиков по чек-листу, а в том, чтобы создавать исчерпывающий, полезный контент, который естественным образом охватывает всю широту темы.
@MikeBlazerX
Слив Гугла показал, что система Google "`Goldmine`" стравливает ваш тайтл с H1 и анкорами
Слитые документы Google подтвердили существование системы titlematchScore, которая алгоритмически оценивает, насколько тайтл вашей страницы соответствует запросу пользователя.
Но самый важный инсайт в том, что Google рассчитывает sitewide titlematchScore (общую оценку тайтлов по всему сайту).
Это значит, что качество ваших тайтлов оценивается в совокупности, и несколько плохих тайтлов могут негативно повлиять на авторитет всего домена, раскрывает Сайрус Шепард.
Система активно выискивает эти слабые звенья, используя специальный флаг BadTitleInfo для выявления и оценки некачественных тайтлов, что служит прямым негативным фактором ранжирования для контента, который считается спамным, размытым или неэффективным.
Движком этой оценки является внутреннее соревнование под кодовым названием Goldmine, которое анализирует пул потенциальных тайтлов для SERP, чтобы выбрать лучший, объясняется в видео Шона Андерсона.
Ваш HTML-тег title — лишь один из кандидатов в этой борьбе.
Система формирует свой пул кандидатов из нескольких источников, включая ваш H1 на странице, который, как подтверждает внутренний атрибут goldmineHeaderIsH1, рассматривается как отдельный и очень весомый конкурент.
Критически важно, что Goldmine также наполняет свой пул кандидатов, используя якорные тексты как внутренних (source_onsite_anchor), так и внешних (source_offdo_anchor) ссылок.
Это означает, что каждый раз, когда вы используете дженерал-анкоры для внутренней перелинковки типа "click here" или "learn more", вы целенаправленно засоряете пул кандидатов в тайтлы для страницы низкокачественными вариантами, что потенциально может привести к выбору слабого тайтла для выдачи.
Когда все предоставленные кандидаты оказываются низкокачественными, Goldmine использует запасной вариант sourceGeneratedTitle, чтобы сгенерить тайтл с нуля.
Оценка каждого кандидата корректируется системой Blockbird — это кастомная, эффективная языковая модель, созданная для глубокого семантического анализа тайтлов в огромных масштабах.Blockbird оценивает семантическую целостность, контекстуальную релевантность и естественность.
Затем система Goldmine применяет количественные штрафы.
Атрибут dup_tokens штрафует за переспам ключевыми словами, а goldmineHasBoilerplateInTitle — за повторение неинформативного текста в тайтлах по всему сайту.
Более того, атрибут isTruncated подтверждает, что тайтлы, превышающие лимит в 600 пикселей, активно штрафуются во время отбора, а не просто обрезаются для отображения.
Чрезмерная длина — это конкурентный недостаток.
Финальный фильтр — это поведенческие факторы.
Обманчивый или кликбейтный тайтл может получить высокую начальную оценку от Blockbird, но негативные сигналы от пользователей (плохие клики) со временем понизят его оценку NavBoost, что приведет к его понижению в выдаче.
Это заставляет вас относиться ко всей вашей стратегии внутренней перелинковки как к форме контроля качества тайтлов.
Вы должны провести аудит сайта и агрессивно вычистить дженерал-анкоры, чтобы перестать засорять пул кандидатов для атрибута sourceOnsiteAnchor.
@MikeBlazerX
Анализ протокола GoogleApi.ContentWarehouse.V1.Model.ImageData из утечки данных Гугла 2024 года показывает, как устроен современный поиск по картинкам.
Это не советы из SEO-блогов, а описание многоуровневого процесса, по которому Гугл индексирует, понимает и ранжирует визуал.
Для успеха в поиске по картинкам нужна комплексная стратегия, связывающая он-пейдж контекст, семантику внутри картинки, алгоритмические оценки качества и сигналы ПФ.
Топ-10 инсайтов из схемы ImageData
1. Определение первоисточника: Гугл юзает contentFirstCrawlTime, чтобы определить, когда впервые увидел контент картинки, отдавая приоритет оригиналам.
2. Алгоритмическая эстетика: Модель NIMA (Neural Image Assessment) алгоритмически оценивает картинки по техническому качеству (nimavq — фокус, свет) и эстетической привлекательности (nimaAva — композиция).
3. Оценка анти-кликбейта: clickMagnetScore пенальтит картинки за клики по нерелевантным "плохим запросам" для борьбы с визуальным кликбейтом, так как не все клики полезны.
4. Связка с сущностями: Объекты на картинке через multibangKgEntities линкуются с графом знаний, связывая изображение с реальными понятиями вроде "Эйфелевой башни".
5. Фильтр качества при индексации: Внутренняя система Amarna (corpusSelectionInfo) фильтрует качество, и визуал низкого уровня не попадает в основной индекс.
6. Индексация всего текста: Системы OCR (ocrGoodoc, ocrTaser) считывают и индексируют текст внутри изображений, делая слова на инфографике или товарах доступными для поиска.
7. Сигнал для товарных фото: whiteBackgroundScore — косвенный признак профессиональной товарной фотографии, сигнализирующий о коммерческом трасте.
8. Иерархия дублей: Даже одинаковые картинки ранжируются в кластере дублей, а rankInNeardupCluster отдает топ-позицию изображению на более авторитетной или качественной странице.
9. Лицензирование на основе метаданных: Бейдж "Лицензируемая" в выдаче подтягивается из атрибута imageLicenseInfo, который берется из метаданных IPTC в файле или из он-пейдж микроразметки.
10. Контекстно-зависимая безопасность: Финальный рейтинг SafeSearch (finalPornScore) — сводная оценка, объединяющая анализ пикселей с контекстными сигналами, включая запросы, по которым ранжируется изображение ("navboost queries").
Ключевые системы и процессы
— Архитектура и происхождение: Гугл для каждой картинки определяет источник правды. canonicalDocid — это канонический идентификатор, собирающий все факторы ранжирования. contentFirstCrawlTime — мощный сигнал для определения первоисточника. Движок Mustang ранжирует картинки и использует rankInNeardupCluster для построения иерархии даже среди идентичных изображений.
— Семантическое понимание: Гугл глубоко понимает содержание картинки: OCR извлекает текст, imageRegions определяет объекты, а multibangKgEntities связывает их с графом знаний, что является ядром SEO для картинок на основе сущностей. Специальные детекторы классифицируют изображения по типу (photoDetectorScore, clipartDetectorScore) для соответствия интенту пользователя.
— Качество и вовлеченность: Качество оценивается с двух сторон: внутреннее — алгоритмическими оценками NIMA за техничку и эстетику, а внешнее — сигналами ПФ, вроде h2c и h2i. По сути, это версия NavBoost для картинок.
— Коммерция и монетизация: Коммерческие фичи встроены в схему. Атрибут shoppingProductInformation — это богатая структура данных для товарных картинок, заполняемая структурированными данными продавцов. Поле imageLicenseInfo из IPTC или он-пейдж микроразметки отвечает за показ бейджа "Лицензируемая".
https://www.hobo-web.co.uk/the-definitive-guide-to-image-seo-google-content-warehouse-imagedata-schema-analysis/
@MikeBlazerX
Как одно слово в тайтле бросило вызов многомиллионному конкуренту
Работая с клиентом по супер-конкурентному, высокочастотному ключу, мы раскопали в GSC серьезную возможность.
Мы увидели, что вариация ключа со словом "free" генерирует дохера объема.
Этот ключ и его вариации давали общий поисковый объем около миллиона визитов в месяц, за который боролись пять разных многомиллионных компаний.
Основываясь на этом инсайте, мы сделали простое изменение: просто добавили слово "free" в тайтл.
Как только мы это сделали, позиции рванули вверх, говорит Сайрус Шепард.
Страница переместилась с седьмой позиции примерно на 2.5.
Хотя на фоне происходили и другие изменения, это было главным.
Примерно через две недели наш основной конкурент, лидер рынка, скопировал нас, и его позиции снова сравнялись с нашими.
Но мы впервые добились того, чтобы лидер ниши догонял нашу стратегию, а не наоборот.
@MikeBlazerX
Почему ваш URL-слаг почти никогда не должен совпадать с H1
При создании контента стоит избегать слишком длинных слагов, особенно тех, которые дублируют заголовок, например, /five-great-options-for-patient-scheduling-software.
Это проблема, потому что если вы позже измените заголовок — например, расширив список до десяти вариантов — у вас будут проблемы, так как в слаге все еще будет написано "пять".
Я обычно делаю так, чтобы слаг состоял только из ключевого слова, на котором я фокусируюсь, — объясняет Илиас Исм.
Для страницы о программах для записи пациентов слаг должен быть просто /программы-для-записи-пациентов.
Больше ничего не нужно.
Такая структура позволяет вам четко понимать, что именно на этот ключ нацелена данная страница.
Это также дает вам свободу всегда менять заголовок или все содержимое — все что угодно — пока слаг остается неизменным.
Если у вас сейчас длинный, описательный URL, вы можете просто сделать редирект на новый, чистый слаг после его изменения.
@MikeBlazerX