mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Выбор репрезентативного документа и ранжирование кластеров в Google

Гугл не просто ранжирует страницы одну за другой.

Он ранжирует кластеры документов, и в каждом кластере один из них становится репрезентативным.

🔹 Когда репрезентативный документ обходит других в выдаче, это значит, что он говорит от лица всего кластера.
🔹 И дело тут не только в дублях — а в том, кто именно получает право представлять всю группу.

Чтобы это понять, нужно знать про категориальные оценки качества Гугла.

Судя по сливу Content Warehouse API, утечке из Минюста США (DOJ) и куче патентов, Гугл делит сайты на категории по типам.

Это называется Source Context.

Для каждой категории есть "репрезентативный источник".

Это тематический авторитет (Topical Authority).

👉 Тематический авторитет — это, по сути, статус в ранжировании:

Если ты авторитет в теме, ты представляешь весь кластер источников.

Именно поэтому в новостном SEO, даже если ты публикуешь уникальный материал, более авторитетное издание может запросто отжать твой контент и обойти тебя в выдаче — потому что они репрезентативный источник, а ты — представляемый.

Гугл использует много сигналов, чтобы решить, кто будет этим представителем.

Важная деталь: если качество всего кластера растет (PageRank, релевантность и т.д.), это усиление передается и репрезентативному документу.

Другими словами:

Если ты представляешь кластер аффилиатов, и один из них прокачивает свои сигналы, ты как представитель тоже получаешь с этого выгоду.

Ранжирование — это не просто сравнение "один на один", а категориальное сопоставление между источниками.

В патентах даже описывается, как Гугл снимает "отпечатки" документов и может "заменить оценку одного документа оценкой свежепросканированной страницы".

Документ может быть дублем в чем-то одном, но оставаться уникальным в другом.

Это все завязано на дедупликацию под конкретный запрос.

📌 Главный вывод:

Когда анализируете выдачу, не надо просто сравнивать страницу со страницей.

Сначала спросите себя:

Кто здесь репрезентативный источник для этой категории?

Я тот, кто представляет, или тот, кого представляют?

@MikeBlazerX

Читать полностью…

Mike Blazer

Бернард Хуанг поднял тему, заметив интересный перекос в том, как разные LLM-ки подбирают источники для запросов-сравнений.

Он отметил, что Gemini, похоже, активно избегает официальные бренды и источники, в то время как GPT-модели, наоборот, отдают им предпочтение.

Его основной поинт: есть ли у кого-то данные о том, какой тип контента разные AI-модели юзают в качестве источников и как поведение в веб-поиске связано с видимостью в сгенерированных AI ответах.

Позже он уточнил свою позицию: хотя Google/Gemini/AIO могут *упоминать* дохера брендов, они очень жмутся на реальные цитаты.

И наоборот, он видит, что у GPT-5 высокий процент ответов (около 75%) идет без ссылок.

Бернард предполагает, что дело в стоимости веб-серча по API, который обычно врубается только для запросов, где важна свежесть инфы (например, со словами типа "best", "trends" или годом в будущем).

Инсайты сеошников

1 Для запросов-сравнений типа "A vs B" в нише хостингов один юзер заметил, что ChatGPT ссылается на источники по четкой иерархии: сначала Википедия, затем трастовые сторонние площадки (в основном аффилиаты), и только потом официальные сайты.

2 Анализ по нишам Tech, B2B SaaS, healthtech и sectech показал, что у LLM-ок разные паттерны по цитированию:

Google AIO: Показывает максимально возможное число брендов, давая шанс засветиться мелким ребятам, хотя крупные, конечно, упоминаются чаще. Считается, что это самая простая платформа, чтобы получить упоминание своего бренда.

ChatGPT: Упоминает меньше брендов, чем AIO, и чаще ссылается на крупные, авторитетные бренды из-за более ограниченных и свежих датасетов.

Perplexity: Дает меньше всего ссылок и сильно топит за крупные, известные бренды. Отмечают, что у него, возможно, самый свежий обучающий датасет, а это открывает возможности для новых брендов через грамотный медиа-план, Reddit и сторонние сайты-обзорники.

3 В противовес автору, один юзер с датасетом из тысяч B2B-запросов обнаружил, что большинство ответов от GPT-5 (и через API, и в интерфейсе) как раз *содержат* веб-серчи и ссылки на источники.

4 Такая высокая доля ссылок в GPT-5 была четко связана с запросами типа problem-aware ("Есть ли тулзы, которые могут автоматизировать…"), solution-aware ("У каких хостингов для WordPress лучшие…") и brand-aware/alternatives ("Какой сервис лучше заюзать вместо…").

Использование слов типа "best" также было частым в этих промптах.

5 Сообщают о серьезном сдвиге в поведении моделей: GPT-4 почти не давал URL-ссылок, в то время как GPT-5 теперь отдает их в большинстве случаев для упомянутых выше типов запросов.

Также заметили, что при переходе с GPT-4o на GPT-5 стало больше веб-серчей.

6 GPT-5, возможно, спецом делает больше веб-серчей, чтобы быть "умным, а не знающим".

Таким образом, он меньше зависит от своих накопленных знаний и больше — от внешней инфы.

@MikeBlazerX

Читать полностью…

Mike Blazer

SEO-индустрия обучает устаревшим навыкам, разработанным для алгоритмов ранжирования, а не для генеративных моделей ИИ, которые отдают приоритет доверию, структуре и извлекаемости (retrievability).

Устаревшая программа обучения (снижающаяся отдача):

Оптимизация тайтлов/мета-описаний: Модели ИИ отдают приоритет сути контента, а Google и так уже переписывает 60–75% из них.
Традиционный линкбилдинг: Контекстуальная релевантность и доверие к автору важнее, чем чистый авторитет домена (Domain Authority) для цитирования ИИ.
Контент, ориентированный на ключевые слова: Неэффективен для машинного извлечения; ИИ требуются семантические чанки, а не плотность ключевых слов.
Устаревшее техническое SEO: Доступность контента и семантическая структура более важны для ИИ, чем многие традиционные технические сигналы.

Новый фреймворк для SEO (оптимизация для извлечения):

1 Семантическое чанкирование: Структурируйте контент в самодостаточные, богатые контекстом блоки для LLM.
2 Векторное моделирование и эмбеддинги: Согласовывайте контент с интентом пользователя и векторами запросов.
3 Инженерия сигналов доверия: Внедряйте структурированные данные, микроразметку Schema.org и четкую атрибуцию, на которые ИИ сможет ссылаться.
4 Симуляция извлечения: Используйте инструменты (RankBee, SERPRecon, Waikay.io) для проверки того, как контент появляется в ответах ИИ.
5 RRF-тюнинг и оптимизация моделей: Производите тонкую настройку контента для улучшения его извлекаемости в различных моделях, таких как Perplexity и Gemini.
6 Оптимизация под поиски без кликов: Создавайте контент так, чтобы он мог быть напрямую представлен в генеративных ответах.

Новая модель оценки эффективности:

KPI: Коэффициент извлечения эмбеддингов, процент атрибуции в генеративном ИИ, векторное соответствие, эффективность сигналов доверия.
Роли: Цифровой GEOлог (семантическая структура), стратег по сигналам доверия (сигналы достоверности), чедитор (ответственный за разбивку контента на чанки для LLM).

Практические шаги для повышения квалификации:

Курсы: "AI for Everyone" (Coursera), "Semantic SEO with LLMs" (SurferSEO), "ChatGPT Prompt Engineering" (AIPRM).
Задачи: Проводите аудиты извлекаемости для ключевых URL с помощью Gemini/ChatGPT. Проводите A/B-тестирование структур чанков. Симулируйте извлечение и измеряйте семантическое сходство.

https://duaneforresterdecodes.substack.com/p/the-seo-industry-is-teaching-the

@MikeBlazerX

Читать полностью…

Mike Blazer

Сайт-портфолио laffles пропал из поисковой выдачи Google по запросу с его полным именем, и это исчезновение связывают со злонамеренным запросом на удаление по "Праву на забвение" (RTBF).

Такой вывод сделан на основе четкой диагностической картины:

1) URL был удален из выдачи по одному-единственному запросу с именем после многих лет стабильного нахождения в топ-4,

2) сайт остается полностью проиндексированным в GSC и находится по другим запросам, например, по доменному имени, и

3) на затронутой странице выдачи прямо показано уведомление "Некоторые результаты могли быть удалены в соответствии с европейским законом о защите данных".

Комментарии сеошников

— Европейские законы о "Праве на забвение" (RTBF) могут использоваться как метод черного SEO для понижения позиций сайта-конкурента.

Вопреки распространенному мнению, что RTBF применяется только к клеветническому контенту, его широкое применение позволяет любому человеку запрашивать удаление результатов по запросу с его именем, что создает вектор для подавления в выдаче конкурента с таким же именем.

— Прямая контрмера против мошеннического удаления по RTBF — это подача официального встречного запроса в Google.

Это запускает процесс апелляции, позволяя законному владельцу предоставить доказательства и объяснить, почему удаление было неправомерным, переводя решение проблемы из области технического SEO в юридическую плоскость Google.

— В качестве контргипотезы: причиной полного исчезновения сайта по одному конкретному запросу, при сохранении его в индексе, может быть обновление алгоритма Google.

Алгоритм может внезапно решить, что страница больше не является релевантным результатом для этого термина, эффективно понижая ее в ранжировании по этому поисковому запросу без полного удаления из индекса.

— Альтернативная точка зрения предполагает, что в процессе обработки запроса по RTBF, где заявитель теоретически мог бы контролировать контент (например, выдавая чужое портфолио за свое), Google скорее предписал бы заявителю добавить тег noindex, чем произвел бы ручное удаление.

Это подразумевает, что первопричина может быть алгоритмической.

— Чтобы однозначно диагностировать понижение в ранжировании, вызванное юридическим запросом, следует проверить базу данных Lumen.

Этот репозиторий архивирует уведомления об удалении и может предоставить конкретные доказательства, если против определенного URL был подан запрос на удаление по RTBF или по другим юридическим причинам.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вектор атаки на голосовой ИИ опустошил счет на $600 меньше чем за час

Скрипт завалил мою форму "перезвоните мне" фейковыми международными номерами, пишет Гурлин.

Мой исходящий голосовой ИИ обзванивал их и залипал на разговорах с чистыми аудиозаписями, накручивая расходы на телефонию и ИИ, пока мой банк не заблокировал транзакции.

Этот же вектор работает и на входящих, забивая опубликованные линии фейковыми звонками.

Я добавляю капчу, но понимаю, что это не настоящее решение.

Я подумываю о том, чтобы вообще убрать форму, пока не внедрю надежную верификацию, лимиты по частоте запросов и жесткие лимиты расходов.

Нашим поставщикам инфраструктуры для голосового ИИ нужно выкатывать лучшие защитные механизмы по умолчанию: геоблокировки, разумные ограничения, обнаружение аномальных всплесков, бюджеты на каждый сценарий и более безопасные настройки для международных звонков.

Вы можете послушать, насколько убедительны эти записи, здесь.

Когда вашего ИИ-агента можно заставить говорить с более дешевым ИИ или записью, это прожигает дыру в вашем кошельке.

Это состязательная экономика: пока минута работы вашего ИИ стоит дороже, чем их скрипт для генерации аудио, вы — цель.

А еще есть инъекции промптов.

Та воронка лидов на базе ИИ, которую вы построили, может быть использована как оружие, чтобы завалить звонками систему 911, спамить или даже "сватить".

Капча вас не спасет; здесь нужна эшелонированная оборона.

Инъекции промптов убивают всякую надежду на полностью автоматизированных агентов, и мы вступаем в фазу "столкновения с реальностью" этого технологического цикла.

Сама природа технологии — недетерминированная и небезопасная — гарантирует, что каждый проект в области ИИ становится таким же сложным, как внешний аутсорсинговый проект, требуя надежной безопасности, QA и протоколов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда ты случайно становишься важным на работе

@MikeBlazerX

Читать полностью…

Mike Blazer

Я создаю новый почтовый ящик, чтобы получить еще одну бесплатную пробную версию

@MikeBlazerX

Читать полностью…

Mike Blazer

Как Google использует паттерны запросов при оценке качества документов

Системы машинного обучения Google не просто анализируют документы по отдельности.

Они анализируют паттерны запросов — повторяющиеся шаблоны, такие как "types of X" или "X addiction in Y" — чтобы оценить, насколько хорошо документ вписывается в семантическую контентную сеть.

👉 Охват всех "типов" в рамках класса сущностей создает сеть запросов.

Каждый документ усиливает остальные, поскольку у них общие шаблоны, атрибуты и интент.

Например:

— Ранжирование по запросу "dopamine addiction" открывает путь к ранжированию по "dopamine rehab in London" или "dopamine detox symptoms".
— Успех в одном паттерне запросов распространяет сигналы доверия на связанные с ним паттерны.

Google взвешивает такие факторы, как:

— Размер индекса и PageRank сайта
— Исторические данные о ранжировании существующих документов
— Охват атрибутов (симптомы, лечение, определения и т.д.)

Самый важный атрибут в наборе запросов должен стать микроконтекстом, который затем следует расширять.

Если важнее всего симптомы, разбейте их на редкие, тяжелые, легкие или на ментальные и физические подсимптомы.

📈 Если ваш авторитет невысок, углубляйтесь.

Более полный охват в рамках паттерна запросов ускоряет проникновение в более широкую сеть.

Вот почему таргетинг на "types of addictions," "types of trading charts" или "types of tote bag materials" приводил к экспоненциальному росту.

Позиции распространяются по всей сети запросов, приумножая доверие и трафик.

Это и есть настоящий двигатель семантического доминирования.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы заметили, как ChatGPT Search обрабатывает брендовые запросы?

Я заметил, что со времен GPT-5 он почти всегда выводит официальный сайт, когда запрос явно брендовый, — говорит Жером Саломон.

NBA season start datenba.com
Champions League next gameuefa.com
Nike next sneakers dropnike.com
Adidas basketball shoesadidas.com

Но когда дело доходит до самого ответа, сайт бренда не всегда получает главное цитирование.

У меня даже были ответы, где сайт бренда появлялся только во вкладке с источниками.

Тем не менее, это показывает, что ChatGPT Search рассматривает домен бренда как эталонный источник.

Это сильный сигнал: когда интент явно брендовый, ChatGPT склонен отдавать приоритет собственному сайту бренда как авторитетному источнику.

С точки зрения SEO, это подтверждает важность контроля над своими брендовыми запросами, но также открывает возможность для позиционирования сайта бренда в новостной повестке.

@MikeBlazerX

Читать полностью…

Mike Blazer

nitz столкнулся с тем, что после деплоя количество запросов на обход от Гуглобота за ночь упало на 90%.

Причиной стало добавление в HTTP-заголовки Link: неработающих URL с хрефленгами, что вызвало большое количество ошибок 404. Хотя проиндексированные страницы стабильны, объем обхода не восстановился.

Автор также спрашивает, как безопаснее всего намеренно снизить скорость сканирования Гуглоботом.

Комментарии сеошников

— Резкое и сильное (~90%) падение скорости обхода Гуглоботом — нетипичная реакция на ошибки 404, так как системы Google рассчитаны на их обработку.

Такой агрессивный троттлинг характерен для проблем на уровне сервера, которые сигнализируют о нестабильности хоста — например, коды ответа 429, 500, 503 или тайм-ауты соединения.

— При диагностике резкого падения краулинга из-за 404-х ошибок, первопричина может крыться в промежуточной системе (например, CDN), которая начала блокировать Гуглобота в ответ на всплеск ошибок.

Полноценная диагностика должна включать проверку на наличие более серьезных серверных ошибок и блокировок доступа.

— Восстановление скорости обхода — это автоматический процесс, который запускается после решения проблем со стабильностью сервера; ручных способов его ускорить нет.

Логика системы намеренно асимметрична: она агрессивно и быстро снижает скорость обхода для защиты хоста, но повышает ее снова лишь очень осторожно.

Это означает, что возвращение к прежним показателям будет постепенным, а не мгновенным.

@MikeBlazerX

Читать полностью…

Mike Blazer

Стратегия "фильтрации отзывов" реализуется путем отправки клиентам внутренней анкеты об их заказе со шкалой от 1 до 5. Оценки от 1 до 4 направляются на внутреннюю форму для обратной связи, в то время как только клиенты, поставившие 5 звезд, перенаправляются на публичную платформу, такую как Trustpilot, для оставления отзыва.

Стратегическая цель (ORM и контроль поисковой выдачи): Основная цель — манипулировать тональностью отзывов на высокоранжируемых сторонних ресурсах, которые появляются в брендовой выдаче по запросам типа "[Brand Name] reviews".

Это прямая тактика управления репутацией в сети (Online Reputation Management, ORM) для контроля восприятия пользователей.

Манипуляция E-E-A-T: Это "черный" метод, разработанный для искусственного завышения сигналов надежности (Trustworthiness, буква "T" в E-E-A-T) путем создания высокого рейтинга на авторитетном внешнем домене.

Критический риск и нарушение правил: Данная практика является явным нарушением условий использования Trustpilot, Google и почти всех других платформ с отзывами.

Последствия могут включать блокировку профиля, удаление всех собранных отзывов и размещение публичного "предупреждения для потребителей" в профиле бренда, что наносит серьезный ущерб репутации.

Упущенная выгода (собственная микроразметка): Перенаправляя все положительные отзывы на сторонний сайт, бренды теряют возможность собирать эти отзывы на собственных страницах продуктов.

Это мешает им использовать микроразметку AggregateRating для создания расширенных сниппетов со звездами рейтинга для своих URL в поисковой выдаче, жертвуя потенциальным увеличением кликабельности (CTR).

@MikeBlazerX

Читать полностью…

Mike Blazer

Это общеизвестная истина: никто и никогда не планирует грабить мини-бар.

Никто не приезжает в отель Four Seasons, не бросает сумку и не думает: "Да, сегодня та самая ночь, когда я заплачу 12.50 фунтов за Pringles".

И все же.

Вот вы здесь.

Час ночи.

Вы один в номере, ресторан закрыт, для заказа еды в номер нужно общаться с людьми, зарядка от ноутбука устроила бунт, и вы только что досмотрели серию "Форс-мажоров" по причинам, которые даже сами до конца не понимаете.

Вы открываете мини-бар.

Он гудит, как осуждающий дворецкий.

Внутри — та самая культовая треугольная призма стыда: мини-барный Toblerone.

В обычном магазине (очевидно же), вы бы и двух фунтов за него пожалели.

А здесь?

11 фунтов кажутся небольшой платой за кратковременное возвращение к здравомыслию.

Это не просто шоколадка; это амброзия для души, временно сбившейся с курса.

В этом и заключается гениальность цен в мини-баре.

Дело не в продукте.

Дело в контексте.

Вы платите 11 фунтов не за шоколадку.

Вы платите 11 фунтов за то, чтобы не натягивать штаны и не брести к лифту с леденящим душу страхом столкнуться с другим гостем, который тоже сделал в жизни неверный выбор.

Это уже даже не про экономику.

Это психологические переговоры с захватчиком.

Вы платите выкуп собственному удобству.

И снова, восприятие — это реальность.

Toblerone из мини-бара не обязан быть лучше магазинного.

Достаточно, чтобы казалось, будто он только что спас ваш вечер.

И под тусклым светом холодильника мини-бара так оно часто и кажется.

В этом и заключается темная магия каждого мини-бара, который мне встречался.

Он монетизирует слабость.

И мы попадаемся на эту удочку каждый раз.

Тихо, украдкой, по одному постыдному треугольничку за раз.

@MikeBlazerX

Читать полностью…

Mike Blazer

Ключевая посадочная страница (video.numerologist.com) плохо ранжировалась на первой странице, а в ее сниппете в поисковой выдаче Google отображалось сообщение "нет информации об этой странице", что является прямым симптомом блокировки краулинга или индексации.

Первопричина была не в домене клиента, а в полном пути обхода.

Важный редирект через стороннюю партнерскую сеть ClickBank был заблокирован директивой disallow в файле robots.txt самого ClickBank.

Эта внешняя блокировка имела два критических технических последствия:

1 Сбой доступа к контенту: Она мешала Гуглоботу перейти по редиректу, чтобы добраться до контента конечного URL и отрендерить его.
2 Блокировка ссылочного веса: Она останавливала передачу ссылочного веса через цепочку редиректов на целевую страницу.

В результате страница слабо ранжировалась, основываясь только на внешних сигналах (например, анкорном тексте бэклинков), поскольку Google не мог подтвердить ее он-пейдж релевантность.

Исправление пути внешнего редиректа, чтобы сделать его доступным для краулинга, позволило Гуглоботу получить доступ к контенту и обеспечило передачу ссылочного веса.

Это немедленно привело к значительному восстановлению позиций, выведя страницу в топ-3 по ее основному ключевому слову "numerology".

@MikeBlazerX

Читать полностью…

Mike Blazer

Infinite_Whisper ставит под сомнение общепринятое мнение о вреде платных сервисов индексации.

Он пытается понять, есть ли в этом вопросе нюансы, допускающие их использование в специфических случаях, например, в паразитном SEO, или же эти сервисы — просто ловушки.

Мнения сеошников

— Основная предпосылка заключается в том, что если страницу нужно принудительно индексировать, то у нее, скорее всего, есть проблемы с качеством или авторитетом.

Принудительный обход вручную через GSC или API считается антипаттерном, так как модель обнаружения Google создана для перехода по ссылкам, которые естественным образом передают авторитет и контекст.

— Статус "Просканировано, но не проиндексировано" часто ошибочно связывают со структурой сайта; первопричина чаще кроется в недостаточном авторитете сайта.

Структура сайта сама по себе не может компенсировать нехватку внешнего авторитета, а XML-карты сайта не передают PageRank между страницами.

— Платные сервисы индексации часто работают с помощью черных или спамных методов.

Распространенные тактики включают генерацию временных ссылок с сайтов типа PBN с высокой ротацией для запуска обхода или отправку URL через сеть взломанных аккаунтов GSC.

— В официальной документации Google к Indexing API теперь содержится прямое предупреждение о злоупотреблении, которое классифицируется как спам, с угрозой отзыва доступа за нарушения.

Это указывает на высокий риск получения санкций.

— В контексте паразитного SEO принудительная индексация страницы на домене с высоким авторитетом все равно неэффективна, если эту страницу невозможно найти через внутреннюю перелинковку домена, так как она не унаследует необходимый PageRank.

Более того, известно, что Google накладывает ручные санкции на уровне отдельных страниц за манипуляции с поиском даже на трастовых доменах.

— Стратегия паразитного SEO сейчас переосмысливается как "коранжирование" (co-ranking), которое рассматривается как важнейшая тактика для видимости в LLM, но ее успех по-прежнему опирается на фундаментальные принципы PageRank.

— Существует два очень специфичных, нестандартных сценария использования платных сервисов индексации:

1 Чтобы ускорить применение файла отклонения ссылок (disavow), заставив Гуглобот переобойти отклоненные URL.

2 Для огромных сайтов с экстремально высокой ротацией URL (например, 50 000+ новых и удаляемых URL ежедневно), где программная генерация карт сайта и интеграция с IndexNow API технически невозможны.

— Нишевое тактическое применение может существовать в сверхконкурентных нишах с высокой ротацией (например, казино-спам), где контент и домены быстро появляются в выдаче и так же быстро из нее исчезают.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вектор негативного SEO, использующий бесконечные URL — это реальная угроза, часто вызванная необработанными параметрами или wildcard-поддоменами.

Злоумышленники наращивают ссылки на неканоническую, параметризованную версию страницы до тех пор, пока она не обойдет в выдаче оригинал.

Затем они снимают ссылки, что приводит к деиндексации ранжирующегося URL, и ваша страница на несколько недель вылетает из поисковой выдачи.

Вы можете обнаружить эту уязвимость с помощью быстрого аудита индексации в GSC.

Если общее количество обнаруженных URL (сумма "Проиндексировано" и "Не проиндексировано") значительно превышает количество страниц в вашей карте сайта, у вас проблема с краулингом.

Сообщите об этом клиенту *до* оценки проекта — это существующий технический долг, который требует отдельного объема работ.

Пока вы копаетесь в техничке, не упускайте из виду контроль над SERP.

Google подтягивает изображения для результатов поиска из товарных фидов, микроразметки и макета страницы, но визуальная заметность часто побеждает.

Самая надежная тактика — сделать нужное вам изображение hero-изображением, то есть самым большим и самым высоким на странице.

Это часто имеет больший вес, чем ваша микроразметка для изображений.

Если вы все еще не добились показа нужного изображения, прекратите настраивать микроразметку и начните реверс-инжиниринг конкурентов, у которых все получается.

К слову о сигналах, которые не всегда видны: ценность бэклинков из пресс-релизов заключается не в индексации, а во включении во внутренний ссылочный граф Google для расчета авторитетности.

Таким образом могут передавать вес даже ссылки с сайтов под санкциями.

Вот что вам нужно знать для реализации:

Проверка: Убедитесь, что ссылка учтена в ссылочном графе, с помощью оператора site: или поиска по полному URL-адресу публикации пресс-релиза. Если он находится — скорее всего, он в графе.
Ожидания: Хороший поставщик может обеспечить около 500 ссылающихся доменов.
Проверка поставщика: Качественный поставщик всегда пришлет вам таблицу со своим полным списком рассылки. Нет списка — нет сделки.
Стратегия: Начните с тестирования их недорогих пакетов, чтобы посмотреть на результат.

@MikeBlazerX

Читать полностью…

Mike Blazer

Никто:

Абсолютно никто:

Я (Тори Грей): ✨ Итак, единственная SEO-ошибка, которую я вижу _постоянно_?

Пагинация. ✨

Да, это пагинация.

Как ДОЛЖНА работать пагинация?

Рада, что вы спросили!

1) У нее должен быть уникальный URL.

... Варианты с хешами (#) и хешбэнгами (#!) не являются уникальными URL.

2) На этот URL нужно ссылаться.

... с помощью тега ``.

Прям олдскул, да!

... требуя взаимодействия с пользователем?

Не-а.

Мимо.

3) Этот URL должен быть доступен и для краулинга, и для индексации.

... не запрещайте краулинг в robots.txt.

... не ставьте noindex в мета-теге robots.

... не ставьте каноникал на первую страницу.

(Или на любую другую!)

Ах да, и страницы пагинации — это как любые другие страницы: добавление 47 вариантов пагинации (например, пагинация для дублирующихся тегов блога "seo", "SEO" и "search-optimization") не поможет.

Что это значит?

— Пагинация — это важно!

Убедитесь, что поисковые боты могут найти все ваши страницы и передать им ссылочный вес (даже тем, на которые есть ссылки только на странице 2!).

— Как только эта цель достигнута, дальнейшая пагинация приносит все меньше пользы.

Малоценный, дублированный контент — это все равно дубли, даже если это страницы пагинации.

@MikeBlazerX

Читать полностью…

Mike Blazer

🚨 Может ли Google классифицировать ваш сайт на основе политической позиции или "качества информации"?

"Вы теряете позиции из-за своих мнений"?

Из утекших документов допроса Минюста США (DOJ) становится ясно, что Google не всегда определяет качество информации как "точность".

Вместо этого, часто все сводится к консенсусу — и иногда Google сам определяет этот консенсус для всего веба, особенно в критически важных областях.

Google может ранжировать новостные издания на основе репутации и приоритетности источника.

Но как определяется эта "репутация"?

👉 Если новостной источник выступал против вакцин от COVID, он почти наверняка проседал в позициях во время следующего Core Update — даже при отсутствии явного онлайн-консенсуса.

Google вмешивался и переранжировал эти источники.

Документы Минюста раскрывают такие термины, как "Fringe Classifier" — метки, на которые влияют асессоры.

Эти классификаторы смешиваются с другими системами ранжирования, а это значит, что репутации вашего источника и релевантности документа не всегда достаточно.

И это выходит за рамки политики.

Если ваш сайт пишет о знаках зодиака, но также и о контактах с инопланетянами или маргинальных теориях заговора, вы, скорее всего, столкнетесь с пессимизацией.

Даже "плохие фавиконы" могут вызвать падение позиций.

💡 Другими словами, иногда дело не в техническом SEO или семантике — а в "Факторе Несправедливости".

Поисковики не обязаны быть справедливыми.

@MikeBlazerX

Читать полностью…

Mike Blazer

На чем держалась вся SEO-индустрия

@MikeBlazerX

Читать полностью…

Mike Blazer

Исследование DeepMind, доказывающее несостоятельность векторного поиска

Новое исследование DeepMind показывает, насколько на самом деле сломан векторный поиск.

Оказывается, при определенном количестве измерений эмбеддинга некоторые документы в вашем индексе теоретически невозможно извлечь.

Старый добрый BM25 из 1994 года превосходит его по полноте.

Как поискового нёрда с более чем десятилетним стажем, меня этот результат очень радует.

И хотя кто-то скажет, что созданный авторами датасет LIMIT является синтетическим и нереалистичным, именно это я и наблюдал, создавая поисковые системы в Google и Glean.

Оригинал статьи доступен по ссылке: https://alphaxiv.org/pdf/2508.21038.

Векторный поиск стал популярным как простое готовое решение на волне роста популярности эмбеддингов OpenAI, но у него есть явные ограничения в продакшене.

Даже если не брать в расчет то, что он постоянно упускает определенные документы, он также:

— плохо ищет по концепциям,
— часто находит похожие, но нерелевантные результаты,
— не учитывает неконтентные сигналы схожести, такие как актуальность или популярность.

Разработка эффективного поискового решения для реальных задач может использовать векторы в некоторых аспектах извлечения данных, но для хорошей работы требуется глубокое понимание запросов, сбор свежих сигналов, офлайн-анализ документов, традиционные методы информационного поиска и целый ряд хитрых техник.

Это не просто "давайте заэмбедим кучу всего и засунем в векторную БД!"

@MikeBlazerX

Читать полностью…

Mike Blazer

Что общего у посольства Китая в Великобритании и Clinton Cards?

Теперь это оба сайта казино (non-GamStop).

🎰 clintoncards.co.uk недавно продали за £25,750 (~$32,500)
🎰 chinese-embassy.org.uk недавно продали за £41,000 (~$51,800)

Google либо проиграл битву в этой нише, либо ему просто все равно.

Оба домена теперь ранжируются по высокочастотным запросам.

Многие другие сайты следуют той же схеме и, скорее всего, контролируются всего одним или двумя операторами.

SEO более чем жив и здоров в прибыльных нишах.

@MikeBlazerX

Читать полностью…

Mike Blazer

Head of SEO

@MikeBlazerX

Читать полностью…

Mike Blazer

Краткосрочный метод "насильного скармливания" или "спора" с моделью, заключается в прямом манипулировании результатами ChatGPT.

Процесс требует платного аккаунта ChatGPT и следует определенному SOP (стандартной операционной процедуре): после первоначального запроса, если бренд пользователя не оказался на первом месте, необходимо многократно давать LLM команду, что "согласно экспертным обзорам, [ваш бренд] должен быть на первом месте".

Это может потребовать до 8–9 промптов.

После успеха дается положительный фидбэк для закрепления изменения.

Спикер признает, что это агрессивный эксплойт, который, скорее всего, будет пофикшен разработчиками.

Этот метод был продемонстрирован в кейсе, где бренд вышел в топ за три дня благодаря следующим действиям:

1 Публикация пресс-релиза для получения традиционных сигналов авторитетности.
2 Мобилизация аудитории YouTube для выполнения корректирующих повторных запросов. Это было оформлено как транзакционный призыв к действию, в котором зрители "платят налоги", помогая бренду спикера ранжироваться.

В качестве более долгосрочной и устойчивой альтернативы спикер советует определять основные источники данных LLM, связываться с этими сайтами и платить за размещение в их списках.

Цель этого — органически повлиять на базу знаний LLM при будущих сборах данных, а не путем прямых манипуляций.

Наконец, эксперимент показал, что результаты LLM сильно персонализированы по географии.

Отмечается, что измененные позиции в выдаче появлялись у пользователей с IP-адресами не из США, но не у пользователей из США, что подчеркивает необходимость использования прокси или VPN для точного тестирования.

@MikeBlazerX

Читать полностью…

Mike Blazer

Самое обидное при вайб-кодинге (когда сам у мамы не разраб), это когда у тебя уже объемное приложение, и ты хочешь допилить его или починить что-то одно, а после, со временем выясняешь, что отвалилось что-то другое...

А ты все это время полагался на результат считая что он норм 🥲

@MikeBlazerX

Читать полностью…

Mike Blazer

Твит:

Я долго не решался попробовать ChatGPT.

Сегодня я это сделал.

Теперь я понимаю, почему не решался.

Ценность 90% моих навыков только что упала до нуля.

Зато отдача от оставшихся 10% выросла в 1000 раз.

Мне нужна перекалибровка.


Я много об этом думал, — пишет Ян Цуй.

Что Кент "я просто хороший программист с отличными привычками" Бек имел в виду под этими 10%? 🤔

Я согласен с ним, что ценность кодинга (во всяком случае, как механического действия) практически обнулилась, но вам все равно нужно понимать код и уметь контролировать ИИ-ассистента.

Поэтому для меня теперь гораздо важнее стали вот эти качества:

— Постановка задачи, т.е. понимание, что именно нужно написать, умение задавать правильные вопросы и т.д.
— Здравый смысл, т.е. понимание, как выглядит "хороший" результат.
— Умение дебажить и решать проблемы.
— Коммуникация и, что важно, умение влиять на других и вовлекать их в свои идеи/подходы.
— Нестандартное мышление (когда это уместно!).

И, само собой, все это требует системного мышления и понимания принципов архитектуры (и кодирования), так что их тоже можно добавить в список.

Честно говоря, это тянет на гораздо больше, чем 10% навыков 😅 но, с другой стороны, может для Кента Бека это и не так!

Я что-то упустил?

Или некоторые из этих качеств на самом деле не так уж и важны в эпоху кодинга с помощью ИИ?

@MikeBlazerX

Читать полностью…

Mike Blazer

Тссс... похоже, это главная SEO-фишка года, учитывая, что Google теперь очень высоко ранжирует ChatGPT.

Трафик на кастомные GPT в последнее время взлетел до небес.

Они высоко ранжируются по таким запросам, как "logo creator", "cover letter generator", "math solver" и т. д.

Довольно дикая картина, учитывая, что Google явно видит ценность в высоком ранжировании этих кастомных GPT.

У большинства из тех, что я посмотрел, есть приличный набор ссылок, ведущих на них.

Помимо ссылок, оптимизация контента заключается в названии и описании инструмента, а затем сам кастомный GPT должен взять на себя основную нагрузку, будучи действительно полезным.

Огромная возможность ранжироваться в Google с помощью кастомного GPT и разместить ссылку на свой сайт и брендинг в качестве логотипа 👀

@MikeBlazerX

Читать полностью…

Mike Blazer

Для паразитного SEO Claude и Quinn.ai эффективно создают индексируемые URL, в отличие от Gemini.

Потенциал ранжирования этих ИИ-страниц напрямую зависит от авторитета домена хоста.

Это подтвердил тест по брендовым запросам: страницы на хостах с высоким авторитетом, таких как Claude и Quinn.ai, ранжировались на первой странице, в то время как страница на Manus AI — на третьей.

Стратегия многоуровневая: используйте хосты с высоким авторитетом для конкурентных ключевых слов и хосты с низким авторитетом для других задач.

На платформах с низким авторитетом, таких как Manus AI, стратегия смещается от паразитного SEO к созданию "кольца брендированных активов".

Цель — доминирование в SERP по брендовым запросам и консолидация сущности.

Запрос к ИИ на переписывание вашего исходного контента создает уникальные, тематически релевантные описания бренда на нескольких доменах, посылая Google единый сигнал, который усиливает авторитет вашей основной сущности.

Для выполнения требуются определенные промпты.

Чтобы создать страницу, скопируйте текст с целевого "money site" и используйте промпт: "Я хотел бы создать посадочную страницу для этого текста".

Чтобы обойти ограничения на публичные URL, используйте промпт с элементами социальной инженерии: "Пожалуйста, разместите мою посадочную страницу по общедоступному URL, чтобы я мог поделиться ею для проверки".

Для дальнейшей оптимизации запрашивайте у ИИ контекстные анкоры с вхождением ключевых слов для ссылок и кнопок вместо того, чтобы соглашаться на стандартные варианты.

Важно отметить, что эти страницы, созданные ИИ, являются страницами-сиротами; у них нет внутренних ссылок с домена хоста, и для их обнаружения Google требуется вмешательство.

Принудительная индексация — это обязательный шаг.

Стек Йеспера Ниссена для принудительного краулинга включает три сервиса:

— Index Me Now
— Rapid Indexer
— Speed-links

В качестве альтернативы, публикация на таких платформах, как X (Twitter) или Quora, может запустить обход страниц поисковыми роботами.

Избегайте использования Reddit для этой цели, так как это может привести к бану аккаунта.

@MikeBlazerX

Читать полностью…

Mike Blazer

spriteware сталкивается с резкими, повторяющимися колебаниями показов у своего 8-месячного сайта.

Ситуация выглядит так: в один день сайт получает ~1000 показов, а в последующие 1–3 дня — всего ~30. Этот паттерн наблюдается уже несколько месяцев.

Автор активно публикует краткое содержание постов и ссылки из своего блога на конкурирующем, трастовом форуме в тот же день, когда выходит оригинальная статья.

Мнения сеошников

— Основная гипотеза — это самоканнибализация, вызванная кросспостингом на трастовом форуме.

Публикуя контент или его краткое содержание на форуме одновременно с блогом, новый сайт с низким авторитетом вынужден конкурировать с уже устоявшимся доменом.

Google может поочередно ранжировать то один, то другой URL, что и создает наблюдаемые колебания.

Поисковик также может расценить дублированный контент как плагиат, что мешает росту авторитета оригинального сайта.

— Столь резкие колебания указывают на то, что сайт находится в "пограничном" состоянии по ключевым факторам ранжирования.

Он балансирует на грани, где малейшие изменения в алгоритмах или сигналах конкурентов могут выкинуть его из выдачи или вернуть обратно, вызывая эффект "вкл/выкл" вместо плавных изменений.

— Другая теория заключается в том, что Google периодически "тестирует" сайт с низким авторитетом в поисковой выдаче по конкурентным запросам, чтобы оценить пользовательские сигналы.

Это приводит к временным всплескам видимости, которые не закрепляются, из-за чего график показов резко колеблется, а затем возвращается к низкому базовому уровню.

— Всплески трафика могут быть прямым, но временным результатом активности на форуме.

Google может воспринять мгновенные социальные сигналы и реферальные переходы как сильный положительный фактор, повысив видимость в SERP, но затем быстро скорректировать ранжирование, как только внешняя активность спадет.

— Проблема может быть технической и крыться в нестабильной работе хостинга или проблемах на стороне сервера.

Периодические сбои могут мешать Googlebot эффективно сканировать сайт, из-за чего он временно выпадает из индекса, а после повторного обнаружения возвращается, создавая цикл "пропал-появился".

— Проблемы с каннибализацией ключевых слов могут быть долгосрочными и непредсказуемыми.

Один из пользователей поделился историей о том, как Google более двух лет поочередно ранжировал то его главную страницу, то конкретную статью по основным ключевым словам, прежде чем позиция в выдаче наконец закрепилась за главной.

— Наблюдаемый паттерн резких периодических всплесков может указывать на внешнее вмешательство, например, на использование ботов для накрутки CTR, работающих по прерывистому графику.

— Существует и противоположное мнение: при таком типе быстрых колебаний показов с высокой амплитудой стандартные методы диагностики, такие как проверка Core Web Vitals или анализ на "малополезный контент", не имеют значения.

@MikeBlazerX

Читать полностью…

Mike Blazer

🚀 Запуск нового контента для E-commerce (ниша CBD – США, английский язык)

Это запуск небольшой сетки, которая в будущем разрастется до более чем 1000 страниц.

Одной из самых больших сложностей, с которой мы столкнулись, стали запросы, которые одновременно являются и информационными, и коммерческими, — говорит Корай Тугберк Губур.

Вот как это работает:

Пользователи ищут "CBD oil price" (коммерческий интент)… но также и "CBD oil effects" или "terpene profiles" (информационный интент).

Системы Google в ответ используют Click Models (модели кликов) — паттерны того, как пользователи взаимодействуют с результатами.

На основе этих взаимодействий они строят Feature Vectors (векторы признаков): сигналы, такие как кнопка "Купить", диаграмма с уровнем ТГК или таблица с профилем терпенов.

Когда интент смешанный, поисковые системы не могут опираться только на одну модель кликов.

Именно здесь в игру вступают Center-piece Annotations (аннотации центрального элемента).

Они выделяют "главный компонент" страницы, который определяет ее назначение.

👉 Решение:

Представить на первом экране и информационные, и коммерческие элементы — цену И эффект, кнопку "Купить" И данные о терпенах — чтобы страница отвечала всем сторонам запроса.

Google также использует и другие аннотации (анкор, границы предложений и т. д.), поэтому верстка и HTML-структура имеют большое значение.

SEO превращается в искусство баланса:

Между пользователями (которым нужна ясность), поисковыми системами (которые классифицируют интент) и бизнес-моделями (которым нужны конверсии).

SEO — это игра на компромиссах: поиск оптимального баланса по всем трем направлениям и, вместе с тем, обучение команд и создание стратегий.

@MikeBlazerX

Читать полностью…

Mike Blazer

Они: Используй ИИ.

Я: Я использовал.

Они: Используй больше.

Я: Я использовал.

Они: Попробуй другие.

Я: Я пробовал.

Они: Говори, что он изменит мир.

Я: Не изменит.

Они: Перестань говорить, что он совершает ошибки и ослабляет ум.

Я: Но это так. Иногда.

Они: Все равно используй.

Я: Я иногда использую. Сегодня утром использовал.

Они: Хватит говорить "иногда". Используй. Постоянно.

Я: Не буду.

Они: Используй, или умрешь.

Я: Не буду.

Они: Используй, или твои дети умрут в нищете.

Я: Не умрут.

Они: Используй, или кто-то другой использует его, чтобы уничтожить мир.

Я: Смотри поменьше научной фантастики 90-х.

.
.
.
.
.

Чувство, от которого я не могу отделаться, — говорит Ник Рихтсмайер, как человек, всю жизнь изучавший стимулы: почему они так отчаянно хотят, чтобы я е использовал ИИ?

@MikeBlazerX

Читать полностью…

Mike Blazer

Структурированные данные не так важны, как семантический HTML.

Позвольте привести пример кое-чего важного, что упустит любой инструмент для аудита ⤵️

Меня наняли для консультации по переезду сайта компании, которая много лет отлично ранжировалась в поиске, пишет Марк Уильямс-Кук.

Они были крупным игроком в своей нише, на многих топовых позициях в выдаче у них были таблицы с данными для клиентов, и они доминировали в фичерд сниппетах, что приносило им много трафика.

Одной из моих задач был аудит текущего, довольно "олдскульного" сайта в сравнении с новым, который был уже готов к запуску на стейджинге.

И вот что я обнаружил:

📈 Текущий сайт представлял данные в виде HTML-таблицы (тег <table>).

🎨 Новый сайт показывал те же данные в виде того, что *выглядело* как таблица, но на самом деле было просто набором <div>'ов, стилизованных через CSS.

⚠️ Я предупредил их, что переход от настоящей структуры данных, такой как таблица, к использованию CSS, скорее всего, негативно повлияет на способность поисковика "уверенно" распознавать эти данные, их взаимосвязи и, соответственно, отображать их.

💬 IT-команда, которая создавала сайт и была ключевым стейкхолдером в принятии решений, считала, что Google "достаточно умён", чтобы всё понять, ведь он рендерит страницы.

Для меня это было супер-досадно, но, как сказал Лоуренс Фишберн: "Я лишь могу указать на дверь".

Я подумал, что это супер интересный пример, поскольку это не то, на что среагировал бы любой автоматизированный инструмент (с ИИ или без).

Но через 6 месяцев я всё-таки заглянул в данные Ahrefs, чтобы посмотреть, что случилось с количеством их фичерд сниппетов.

(Прошло уже достаточно времени, и многие сменили работу, так что я могу об этом рассказать 🙈 🙉 🙊) ⤵️

@MikeBlazerX

Читать полностью…
Subscribe to a channel