mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Немного грустно видеть, как наша индустрия теряет почву под ногами.

SEO-шники метаются, как рыбы на суше.

Половина считает, что AIO/GEO/WhateverEO — это будущее.

Кто-то думает: "Мы вообще не понимаем, как сейчас работает SEO", и раз Гугл сплоховал с Github, то надо всё переосмысливать... бла-бла-бла — а другие ушли в SEX (Search Engine eXperience optimization — да ну, что бы это ни значило).

А ещё есть группа, которая наваливает на всех SEO-шников просто за то, что они SEO.

Что на самом деле изменилось?

Кратко:

— Реферальный трафик сейчас около 10–15% от того, что был в 2010 году.

В 2010-м по одному ключевику или качественной двухсловной фразе можно было получать от 15 000 до 30 000 рефералов в день из Google.

Те же ключи на прошлой неделе принесли примерно 200–300 (и это нам ещё повезло).

— Google — согласно их же докам — всё ещё в конце прошлого года использовал ключевые слова, PageRank и подсчёт кликов Navboost как основные ингредиенты алгоритма.

Позиции по топ-1 или топ-2 ключевым фразам практически не изменились.

В выдаче от двух лет назад почти тот же органический ранжинг (почти до URL), что и десять минут назад.

(единственное, что изменилось — это SOT (Slop on Top)) и увеличилось количество рекламы.

— ИИ никто публично не просил.

Фактически, легко найти десять негативных комментов про Google AI, тогда как положительные — надо поискать.

Всё остальное — это просто PR-монополия Google с пафосным спином.

Будьте реалистами: ИИ — это всего лишь повод для Google забрать себе большую долю.

Не долю поискового рынка, а долю всего интернета.

Они хотят всё.

Они — новый AOL.

Сейчас можно делать как минимум пару десятков вещей для генерации трафика — и ни одна из них не связана с SEO или Google.

Так что берите колу и расслабьтесь.

@MikeBlazerX

Читать полностью…

Mike Blazer

🚨 Google только что снес 70% трафика некоторых веб-сайтов во время Июньского обновления

Я отслеживал последствия последнего основного апдейта Google, говорит Мохит Шарма, и результаты ЖЕСТОЧАЙШИЕ.

Вот что на самом деле происходит прямо сейчас:

ПОЛНЫЙ РАЗГРОМ:

📉 Сайты с контентом, сгенерированным ИИ: ПАДЕНИЕ НА 40-70%
📉 Страницы, переспамленные ключевыми словами: УНИЧТОЖЕНЫ
📉 Контент с "SEO-хаками": ИСЧЕЗ из выдачи

НО ПОГОДИТЕ… Некоторые сайты ПРОЦВЕТАЮТ:

📈 Контент, ориентированный на пользователя: РОСТ 150%+
📈 Экспертные гайды: ДОМИНИРУЮТ на первой странице
📈 Сайты с реальным E-A-T: СОКРУШАЮТ конкурентов

Вот неудобная правда: Если вы все еще занимаетесь SEO так, как в 2020, вы скоро останетесь за бортом.

Что РЕАЛЬНО работает прямо сейчас:

✅ Писать в первую очередь для людей, а во вторую — для поисковиков
✅ Нарабатывать реальную экспертность (а не просто делать "исследование ключевых слов")
✅ Создавать контент, который действительно решает проблемы
✅ Фокусироваться на пользовательском опыте, а не на "факторах ранжирования"

СУРОВАЯ РЕАЛЬНОСТЬ: Я только что провел аудит сайта клиента, который ПОЛУЧИЛ 200% ПРИРОСТА трафика во время этого апдейта. Хотите знать их секрет? Они перестали гоняться за алгоритмами и начали помогать своим клиентам.

👉 Мой прогноз: К 2026 году 80% существующих "SEO-стратегий" полностью устареют.

P.S. - Если ваш трафик упал, еще не поздно восстановиться. Но действовать нужно быстро.

@MikeBlazerX

Читать полностью…

Mike Blazer

Утечка системного промпта ChatGPT 4o: влияние на SEO

Утекший в сеть внутренний системный промпт для ChatGPT 4o, датированный июнем 2025 года, которым поделился Джеймс Берри из LLMrefs, раскрывает, как модель использует и ограничивает веб-поиск.

Анализ промпта освещает конкретные условия активации веб-поиска и их влияние на SEO и видимость сайтов издателей.

1. Когда активируется веб-поиск?

Системный промпт разрешает использовать веб-инструмент при строгом соблюдении условий, указывая, что его следует применять для "доступа к актуальной информации из веба или когда для ответа требуются данные о местоположении".

Веб-поиск разрешен для:

— Событий в реальном времени или текущих событий (например, погода, спортивные результаты).
— Данных, привязанных к местоположению (например, местные компании).
— Нишевых тем, отсутствующих в обучающих данных.
— Случаев, когда устаревшая информация может нанести вред, например, использование устаревшей версии программной библиотеки.

Однако веб-поиск запрещен, если ChatGPT может ответить, основываясь на своих внутренних знаниях, за исключением случаев, когда пользователь запрашивает информацию из общедоступных источников.

В документе также отмечается, что старый инструмент browser устарел и отключен.

2. Как ChatGPT выполняет поиск, когда это разрешено?

Промпт подробно описывает технические параметры выполнения веб-поиска:

Параллельные запросы: Генерирует до пяти уникальных поисковых запросов одновременно.
Усиление терминов: Использует оператор "+" для приоритизации ключевых терминов.
Контроль свежести: Применяет параметр --QDF со значением от 0 (без привязки ко времени) до 5 (критически важно по времени), чтобы отдавать предпочтение свежему контенту.
Многоязычный поиск: Для запросов не на английском языке поиск выполняется как на языке оригинала, так и на английском.

*Примечание: Утечка описывает эти механизмы формирования запросов, но не подтверждает их последовательное применение к публичному веб-поиску.*

3. Что в промпте говорится о ссылках и видимости источников

Документ не содержит доказательств того, что ChatGPT хранит URL-адреса или поддерживает постоянный веб-индекс.

Ссылки появляются в ответах только в результате поиска в реальном времени.

Таким образом, видимость сайта в ChatGPT — редкое явление.

Для SEO это означает, что если сайт не ранжируется в результатах поиска Bing в реальном времени в момент выполнения поиска, маловероятно, что он будет процитирован.

4. Вывод: редкий поиск означает редкие ссылки

Утечка данных о ChatGPT 4o согласуется с выводами из предыдущей утечки системного промпта Claude: LLM используют поиск в реальном времени только при крайней необходимости, в основном полагаясь на внутренние знания.

В отличие от поисковых систем, у LLM отсутствует индекс URL-адресов, по которому можно делать запросы.

Ссылки из базы знаний модели часто являются вероятностными, что приводит к появлению неработающих или вымышленных URL.

Надежные ссылки, как правило, появляются только в результате поиска в реальном времени.

Это ограничивает реферальный потенциал.

Анализ SISTRIX показывает, что ChatGPT ссылается на внешние источники лишь в 6.3% ответов, по сравнению с 23% у Gemini и средним показателем по отрасли в 13.95%.

Для SEO-специалистов это означает:

— Не стоит ожидать постоянного трафика или ссылок от ChatGPT.
— Видимость зависит от ранжирования в результатах поиска в реальном времени в те редкие моменты, когда запускается живой поиск.
— Большинство ответов ИИ не дают шанса на цитирование вашего сайта.

https://gpt-insights.de/ai-insights/chatgpt-leak-web-search-en/

@MikeBlazerX

Читать полностью…

Mike Blazer

Будни

@MikeBlazerX

Читать полностью…

Mike Blazer

Трафик и сеошники...

Ответ на вопрос "чем ты занимаешся" можно иллюстрировать данным видео.

@MikeBlazerX

Читать полностью…

Mike Blazer

Публичная база данных с исследованиями, новостями и примерами использования ИИ в SEO

https://merj.com/ai-search

Любой желающий может добавить ссылки:

https://merj.com/ai-search/submit

@MikeBlazerX

Читать полностью…

Mike Blazer

Переспам ключевыми словами повышает косинусное сходство лишь до определенного момента, после которого этот показатель начинает снижаться.

В этой статье явление описывается как "эффект ковбелла":

https://dejan.ai/media/pdf/cowbell_research_paper_final_v4-final-2a.pdf

Использованный инструмент:

https://dejan.ai/tools/geo/

@MikeBlazerX

Читать полностью…

Mike Blazer

А вы знали, что у Google есть официальный Ranking API?

Я создал инструмент, который объединяет DataForSEO и Google Vertex AI Ranking API, — говорит Метехан Ешильюрт.

И да, исходный код в открытом доступе.

Вот что я обнаружил, протестировав запрос: "what is SEO" (для Великобритании)

💾 Топ-2 в выдаче → AI Score: 0.996

Собственный гайд по SEO от Google — идеальное семантическое совпадение.

💾 Топ-5 в выдаче → AI Score: 0.992

Гайд, затерявшийся в выдаче, который ИИ оценил как высокорелевантный.

💾 Топ-6 в выдаче → AI Score: 0.145

Высокая позиция, но низкое?!! качество.

Вероятно, выезжает за счет внутренних ссылок + авторитета.

Что я понял после 100+ тестов:

🧠 Слабый/короткий контент все еще может ранжироваться (если это позволяет структура)
🔍 Google ранжирует пассажи, а не страницы
🔗 Внутренние ссылки формируют "понимание" ИИ

https://metehan.ai/blog/google-vertex-ai-ranking-api/

@MikeBlazerX

Читать полностью…

Mike Blazer

Колин Ричардсон рассмотрел кейс сайта с временными вакансиями, где страницы удаляются после закрытия позиции, возвращая ошибку 404.

Клиент обеспокоен 404-ми в GSC, но Колин сомневается в проблеме, задаваясь вопросом: "Разве Google не понимает, что страницы временные?"

Клиент предложил закрыть вакансии от индексации через noindex, чтобы избежать ошибок 404, но Колин считает это неудачным решением.

Он думает перехватывать 404 для определенных URL, отдавая статус 410, и ищет другие варианты.

Колин отметил, что после удаления страницы сложно определить категорию вакансии по URL, но редирект на основную страницу вакансий может помочь.

С учетом сотен новых URL ежемесячно и невозможности изменить систему, он сосредоточился на обработке 404 по URL-путям.

Поскольку вакансии актуальны лишь несколько недель, archive.org использовать нерационально.

Колин хочет создать кастомный контент для 404 страниц вакансий и считает статус 410 более подходящим.

Советы и мнения сообщества

Стратегии редиректов:

— Автоматически перенаправлять 404 на релевантные категории вакансий.
— Редирект на новые вакансии рискован, так как они тоже станут 404.
— Большинство 404 переводить на главную страницу вакансий или на категории.
— Использовать Wayback Machine для данных о страницах с 404.
— Автоматизировать обнаружение таких страниц и настройку редиректов через разработчика.

Аргументы против редиректов:

— Избегать 301 редиректов, кроме случаев повторной публикации вакансии, иначе возникают запутанные цепочки.
— Редирект на категории сбивает пользователей с толку, не показывая, что вакансия закрыта.
— Google может считать такие редиректы soft 404, и они останутся в отчетах GSC.

Коды ответа 404 vs 410:

— В GSC 410 и 404 отображаются в одном отчете, разницы нет.
— Google понимает временность страниц, 404/410 — подходящие статусы.
— Без прямой замены страницы эти статусы не вредят сайту.

Noindex vs 404:

Noindex лишь переносит страницы в другой отчет, эффект тот же, что у 404 — они выпадают из индекса.

Подход "Оставлять как есть":

— Для агрегаторов вакансий лучше оставить 404, чтобы сосредоточиться на актуальных объявлениях и ускорить исключение старых из индекса.
— Оставить 404 — оптимально для UX и проще в реализации.

Решения с кастомной 404 страницей:

— Создать специальную 404 страницу для вакансий с пояснением о закрытии и переходом к другим вакансиям.
— Настроить общую 404 страницу с сообщением о недоступности и встроенным поиском для удержания пользователей.
— Отслеживать поведение пользователей на 404 страницах для анализа.

Техническая реализация:

— Анализировать 404 по разделам сайта, фильтруя "шум" от вакансий.
— Согласовать срок действия страницы с датой "valid through" в Schema.org для подачи поисковикам консистентных сигналов об активном и устаревшем контенте.

Альтернативный подход к статусу страницы:

— Вместо 404 обновлять статус на "Сотрудник найден" или "Приостановлено", убирая неактивные вакансии из списка, как с товарами без наличия.

Отношение к проблеме:

— Многие переживают из-за отчета "Почему страницы не индексируются" в GSC, но 404 сами по себе не вредны и не должны вызывать беспокойство.

@MikeBlazerX

Читать полностью…

Mike Blazer

Инструмент, который поможет определить, насколько AI Overviews (AIO) от Google влияют на ваше SEO.

Загрузите данные из GSC, и инструмент:

— Определит затронутые запросы
— Выявит разрыв между кликами и показами
— Проверит наличие AI Overview (и упоминается ли в нем ваш домен)
— Спрогнозирует ожидаемый CTR с помощью моделирования временных рядов

https://aio-impact-analyzer.streamlit.app/

@MikeBlazerX

Читать полностью…

Mike Blazer

Чеклист по оптимизации контента для AI-поиска (Google Таблицы) от Алейды Солис 👇

В нем она разбирает самые важные аспекты оптимизации контента под AI-ответы, их значимость и дает практические рекомендации по внедрению:

1. Оптимизация для извлечения на уровне чанков (Chunk-Level Retrieval)
2. Оптимизация для синтеза ответов (Answer Synthesis)
3. Оптимизация для повышения цитируемости (Citation-Worthiness)
4. Оптимизация по тематической широте и глубине
5. Оптимизация для поддержки мультимодальности
6. Оптимизация под сигналы авторитетности контента
7. Оптимизация для создания контента, устойчивого к персонализации
8. Оптимизация сканируемости и индексируемости контента

https://docs.google.com/spreadsheets/d/1GNjOSdkJuEtv5O3zyBWBkeiD0PecZv6IDd5_4_QoQQY/edit?gid=0#gid=0

@MikeBlazerX

Читать полностью…

Mike Blazer

Сейчас заживем!

https://blog.cloudflare.com/introducing-pay-per-crawl/

@MikeBlazerX

Читать полностью…

Mike Blazer

RelevancyLens — бесплатный инструмент, который анализирует ваш контент глазами ИИ и показывает, как AI-поисковики оценивают его релевантность

Вы когда-нибудь задумывались, почему ChatGPT ссылается на одни сайты, а на другие — нет?

Или как Perplexity решает, какой контент показывать в результатах AI-поиска?

Вот что показывает RelevancyLens:

✅ Как ИИ разбивает ваш контент на семантические блоки
✅ Вашу истинную основную тему (а не только то, что в теге H1)
✅ Оценки релевантности для каждого раздела
✅ На какие вопросы пользователей на самом деле отвечает ваш контент
✅ Пробелы в контенте, устранение которых может улучшить вашу видимость в AI-поиске
✅ Рекомендации по оптимизации на основе ИИ

Готовы взглянуть на свой контент глазами ИИ?

👆 Попробуйте бесплатно: https://relevancylens.seoworkflow.online/

Анализ занимает 30-60 секунд. Регистрация не требуется. Просто вставьте URL любой веб-страницы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Это бренд в тревел-нише, который по полной вложился в скупку множества доменов и их дальнейшее развитие.

Многие из них — это EMD-домены точного соответствия, а контент напрямую нацелен на покупательский интент.

Очевидно, есть некоторые колебания реферального трафика, но это отличный пример того, как SEO может влиять на бизнес-стратегию.

Вероятно, проект будет только набирать обороты за счет упоминаний, по мере того как все больше людей будут использовать ИИ для поиска.

@MikeBlazerX

Читать полностью…

Mike Blazer

Точность LLM может падать на 40% всего после пары обменов сообщениями.

В недавнем исследовании "LLM ТЕРЯЮТСЯ В МНОГОХОДОВЫХ ДИАЛОГАХ" авторы взяли одношаговые промпты из популярных бенчмарков и разбили их так, что модели приходилось вести многоэтапный диалог, чтобы получить всю информацию.

TL;DR:
— Одношаговые промпты: точность ~90%.
— Многоходовые промпты: точность ~65% даже у топовых моделей вроде Gemini 2.5.

Одно из решений: как только весь контекст готов, передать его целиком «чистой» LLM без истории переписки.

Идея объединения всех фрагментов и отправки их модели без истории сообщений позволила поднять показатели до 90%.

Если вы выкатываете любую фичу с ИИ, которая предполагает диалоговое взаимодействие, сделайте многоэтапные тест-кейсы ключевой частью вашего набора для QA и оценки.

Исследование: https://arxiv.org/pdf/2505.06120
Анализ: https://www.prompthub.us/blog/why-llms-fail-in-multi-turn-conversations-and-how-to-fix-it

@MikeBlazerX

Читать полностью…

Mike Blazer

Улучшает ли уменьшение количества HTTP-запросов скорость загрузки страницы?

Современные реалии

— С доминированием HTTP/2 количество запросов влияет меньше, чем во времена HTTP/1.1
— HTTP/2 поддерживает множество параллельных запросов на одном соединении (до 100 по умолчанию)
— Только при сотнях запросов накладные расходы существенно влияют на производительность

Что действительно важно

Размер ресурса: Большой файл (1МБ) обычно сильнее влияет на производительность, чем несколько маленьких
Влияние на рендеринг: Запросы, блокирующие рендеринг, сильнее влияют на пользовательский опыт, чем неблокирующие
Время запросов: Поздно загружаемые запросы минимально влияют на воспринимаемую скорость

Практические подходы к оптимизации

— Объединять файлы CSS и JavaScript во время сборки
— Внедрять ленивую загрузку для изображений под сгибом с помощью loading="lazy"
— Минимизировать сторонние ресурсы, добавляющие ненужные запросы
— Фокусироваться на улучшении пользовательских метрик, а не произвольного количества запросов

При тестировании 250 отдельных запросов сделали страницу всего на 0.89 секунд медленнее (14%) по сравнению с одним запросом того же общего размера.

Влияние меньшего количества запросов становится значимым только в масштабе или при использовании HTTP/1.1.

https://www.debugbear.com/blog/make-fewer-http-requests

@MikeBlazerX

Читать полностью…

Mike Blazer

Оптимизация контента для векторного поиска с помощью фрагмента кода Screaming Frog, вдохновленного MuVeRA

Я создал кастомный JavaScript-сниппет для Screaming Frog, вдохновленный концепцией MuVeRA, после прочтения исследования Google о многовекторном поиске, — пишет Метехан Йешильюрт.

Вместо ускорения поиска, что было целью Google, я использую этот инструмент для оптимизации контента, чтобы улучшить его извлечение.

Инструмент разбивает контент на пассажи по 150 слов, что оптимально для эмбеддингов, и присваивает им оценку качества, чтобы определить, какие разделы будут наиболее эффективны в поисковых системах, основанных на векторном поиске.

Каждый пассаж анализируется независимо по таким параметрам, как качество вектора, семантический вес и потенциал для поисковой выдачи.

Хотя инструмент и экспериментальный, он позволяет взглянуть на ваш контент глазами современных поисковых систем на базе ИИ 🔍.

Полное руководство и бесплатный кастомный Javascript-сниппет доступны по ссылке: https://metehan.ai/blog/screaming-frog-muvera-analysis/

@MikeBlazerX

Читать полностью…

Mike Blazer

Фундаментальное различие между #GEO и #SEO заключается в том, что GEOшники пытаются обмануть Gemini, чтобы тот включил их сайты в обзоры AI.

Напротив, SEOшники пытаются убедить Google отказаться от обзоров AI и вернуться к традиционным десяти синим ссылкам.

@MikeBlazerX

Читать полностью…

Mike Blazer

Сеошники из ниш типа адалта в то время как все другие в индустрии SEO суетятся по поводу AI Overviews & AI Mode.

@MikeBlazerX

Читать полностью…

Mike Blazer

Директор смотрит на 50к статей без вычитки, которые залила SEO-команда

@MikeBlazerX

Читать полностью…

Mike Blazer

Мы начали замечать, что в результатах ChatGPT по товарным запросам стали появляться описания коллекций, — говорит Сэм Райт.

И это не страницы товаров или структурированные данные.

Это обычные страницы категорий с релевантным описательным контентом.

Легко предположить, что основным источником для таких запросов должны быть карточки товаров.

И зачастую так и есть.

Но мы наблюдаем, что когда контент на странице категории соответствует поисковому интенту, он используется — независимо от типа страницы.

Скриншот показывает улучшение видимости для коллекций, на которые был добавлен описательный контент.

Это результат более традиционной работы по SEO, не связанной с ChatGPT, но он служит хорошим напоминанием, что такой подход уже доказал свою эффективность.

То, что такой же тип контента подтягивается в сгенерированные ИИ ответы, — это приятный бонус, который подтверждает правильность общей стратегии.

Большая часть нашей работы по разбивке таксономии, улучшению иерархии коллекций и добавлению контента на страницы категорий часто продиктована практическими потребностями: мерчандайзингом, фильтрацией, помощью клиентам в принятии решений.

Но она всегда положительно влияла на поисковые показатели, а теперь, похоже, способствует и видимости в ИИ-поиске.

Все это не говорит о каком-то кардинальном изменении подхода.

Во многом это лишь подтверждает, что проверенные временем SEO-практики продолжают приносить пользу, даже несмотря на меняющиеся условия.

@MikeBlazerX

Читать полностью…

Mike Blazer

12 новых KPI для эры генеративного ИИ: конец эпохи старых SEO-дашбордов

Традиционные SEO KPI, такие как клики и позиции, теряют актуальность, поскольку поиск трансформируется в интерфейсы на базе ИИ.

С появлением систем вроде ChatGPT, CoPilot и Gemini, использующих RAG, эмбеддинги и векторные базы данных, понятие видимости в сети радикально изменилось.

Контент теперь не только ранжируется, но извлекается, анализируется и цитируется ИИ-моделями.

Это требует новых показателей эффективности, соответствующих современному техническому стеку поиска на базе ИИ.

Устаревшие и современные метрики поиска

Традиционные SEO-дашборды фокусировались на KPI, ориентированных на взаимодействие человека с поисковой выдачей:

— Органические сессии и CTR
— Средняя позиция
— Показатель отказов и время на сайте
— Количество обратных ссылок и авторитет домена (DA)

Эти метрики становятся менее значимыми в условиях, где ответы ИИ формируются на основе нового стека технологий:

— Векторные базы данных и эмбеддинги
— Реранкеры BM25 + Reciprocal Rank Fusion (RRF)
— Большие языковые модели (LLM)
AI-агенты и плагины

Эффективность теперь нужно оценивать по тому, как контент обрабатывается и используется в этом новом пайплайне.

12 предлагаемых KPI для эры поиска на базе ИИ

Эти метрики разработаны для оценки эффективности в системах обнаружения контента, управляемых ИИ.

1. Частота извлечения чанков
Измеряет, как часто блок контента ("чанк") извлекается ИИ для ответа. Это ключевой показатель видимости в RAG-системах.

2. Оценка релевантности эмбеддинга
Определяет векторное сходство между запросом и эмбеддингом чанка. Высокий балл важен для попадания в векторную базу.

3. Коэффициент атрибуции в ответах ИИ
Показывает, как часто бренд или домен указывается как источник в ответах ИИ, отражая видимость без кликов.

4. Количество цитирований ИИ
Отслеживает упоминания на платформах ИИ (ChatGPT, Perplexity, Gemini), указывая на достоверность контента.

5. Показатель присутствия в векторном индексе
Доля контента сайта, проиндексированного в векторных базах. Без индексации извлечение невозможно.

6. Оценка уверенности при извлечении
Вероятность, присваиваемая моделью при выборе чанка, отражает её уверенность в релевантности.

7. Вклад в ранг по RRF
Вес чанка в гибридной системе ранжирования с использованием Reciprocal Rank Fusion для объединения лексического и векторного поиска.

8. Охват ответов LLM
Число уникальных вопросов, на которые контент домена отвечает, показывая его полезность.

9. Успешность обхода ботами ИИ-моделей
Оценивает, как эффективно боты ИИ (GPTBot, Google-Extended, CCBot) получают доступ к контенту сайта.

10. Оценка семантической плотности
Измеряет концептуальное богатство и точность чанка. Плотный контент чаще извлекается.

11. Присутствие в интерфейсах "нулевого клика"
Появление в системах без ссылок (голосовые помощники, прямые ответы), где видимость не связана с трафиком.

12. Машинно-валидированная авторитетность
Показатель авторитетности на основе частоты извлечения, цитирований и структуры, заменяющий метрики вроде DA.

https://duaneforresterdecodes.substack.com/p/12-new-kpis-for-the-genai-era-the

@MikeBlazerX

Читать полностью…

Mike Blazer

Скейтборд состоит из шести основных компонентов: деки, оси, колес, подшипников, антискользящей ленты и крепежа.

Большинство скейт-магазинов при создании своего веб-сайта создают одну коллекцию для каждого из этих компонентов.

Но скейтбордисты не просто ищут "скейтборды", они знают, что им нужно, и ищут именно эти товары.

Если разбить эти шесть начальных коллекций по способам покупки скейтбордистов (по размеру/форме/использованию), мы можем создать около 100 страниц коллекций, нацеленных на тысячи ключевых слов в месяц.

Деки — 7.5–10 дюймов, попсикл, олдскул, фигурные...
Колеса — 50–60 мм, конические, радиальные, круизер, мягкие...
Подшипники — Abec 3–9, без защиты, керамические, швейцарские...
Оси — полые, титановые, цветные, необработанные/полированные, низкие, высокие...
Антискользящая лента — черная, цветная, прозрачная, с рисунком...
Крепеж — болты для деки, втулки, подкладки, гайки для оси, рельсы для деки...
Использование - для начинающих, для детей, для улицы, для верта, для боула...

Каждый из этих типов продуктов заслуживает собственной коллекции.

Именно так вы должны подходить к SEO для любого интернет-магазина.

Когда люди хотят что-то купить, они ищут именно то, что им нужно.

Если вы продаете диваны, разделите свою коллекцию по цвету, стилю, размеру, назначению, декору, комнате...

Если это аквариумы, продавайте их по типу рыб, уровню опыта, типу воды, форме и т. д.

Вы поняли идею.

Вы должны разбить каждую из своих коллекций на подколлекции и нацелиться на высокоспецифичные длинные ключевые слова с этими коллекциями.

Меньше конкуренции, больше намерений, лучшие конверсии.

@MikeBlazerX

Читать полностью…

Mike Blazer

Всего один твит, опубликованный 3 дня назад, приносит примерно 1.2 миллиона переходов из поиска Google в месяц.

Вся вовлеченность под твитом — фейковая, но Google не может это определить.

UGC (пользовательский контент) — это самая большая слепая зона Google на данный момент.

Вот твит, который ранжируется в Google. Он нацелен на ключевые слова, связанные со "сливами" модели OnlyFans Софи Рейн.

Давайте посмотрим на сам твит:

Скриншот 1

Вот его метрики:

— 40 тыс. просмотров
— 5 ретвитов
— 214 комментариев
— 292 лайка
— 34 закладки

Ни одна из ссылок не ведет на слив.

Они являются частью цепочки редиректов, где конечный пункт назначения определяется тем, кто больше заплатит за ваши уникальные данные о поведении в браузере.

Скриншот 2

Все комментарии оставлены всего 2-3 аккаунтами и представляют собой просто случайные наборы символов.

Один аккаунт оставил почти 100% из 214 комментариев.

Лайки также накручены, а ретвиты, по-видимому, сделаны с сетки аккаунтов автора поста.

Скриншот 3

У Google нет надежного способа измерять качество UGC.

Это касается всех социальных платформ, включая Twitter, Instagram, Reddit, TikTok и другие.

В качестве сигналов ранжирования они используют метрики вовлеченности конкретных платформ и данные о трафике из Chrome и Android, перекладывая при этом ответственность за модерацию непосредственно на сами платформы.

Google настолько сильно поощряет такое поведение, что у платформ практически нет шансов это остановить.

Это просто слишком выгодно.

@MikeBlazerX

Читать полностью…

Mike Blazer

Я провел A/B-тест по увеличению количества внутренних ссылок, в частности, на страницы, которые ранжируются на 4-15 позициях в поисковой выдаче, и вот что я обнаружил, — пишет Робин Алленсон:

Подход: я использовал систематически увеличивал количество ссылок на целевые страницы, сохранив при этом контрольную группу для сравнения.

Источники данных: Logfile Analyzer от Botify (через API) + GSC.

Методология: A/B-тестирование с подходом "разность разностей" (difference of differences), чтобы изолировать эффект. И, как видно на графике ниже, мы разделили страницы на три группы:

🔶 Boosted (розовая): Получали в 2 раза больше внутренних ссылок, чем обычно.

🔶 Linked (синяя): Стандартная внутренняя перелинковка без изменений.

🔶 Unlinked (зеленая): Без дополнительных ссылок от нашего инструмента (хотя на этих страницах все еще могли быть другие ссылки).

Без сомнения — результаты были значительными!

Разница в производительности между группами boosted, linked и unlinked демонстрирует значительные преимущества, которых можно достичь за счет стратегического увеличения количества внутренних ссылок.

Внутренняя перелинковка — это не просто навигация, это мощный инструмент для ранжирования.

И при стратегическом подходе она может обеспечить измеримые улучшения в сканируемости, позициях и трафике.

@MikeBlazerX

Читать полностью…

Mike Blazer

Новая сеть по обмену гестпостами: Cluster SEO

В этой сети для работы используется система "кредитов", и большинство её участников анонимны (хотя некоторыми они хвастаются на главной странице).

Заявлено: Их система имитирует естественный ссылочный граф и работает лучше, чем покупка ссылок.

Исследование: Всего за несколько часов нам удалось найти нескольких вероятных участников этой сети, изучив контент, который выделялся на нескольких заведомо связанных с ней сайтах, а затем перейдя по ссылкам на другой похожий контент.

Инженер из Google, вероятно, сможет обнаружить большинство, если не всех участников (а их чуть более 100) этой сети примерно за неделю работы или даже быстрее.

Примечание редакции: Использование подхода "Copromote" для организации распространения гостевых постов — это действительно инновационно и креативно.

Однако акцент на линкбилдинге для SEO, заявления о попытках обмануть Google и отсутствие редакционного контроля (поскольку сеть заточена под линкбилдинг, я полагаю, что для получения кредитов нужно обязательно ставить ссылки) — всё это говорит о том, что от этой сети я бы, пожалуй, держался подальше.

Вердикт: Скорее всего, Google наложит санкции на этот сайт или на некоторых/всех его участников, как только снова начнет всерьез бороться с веб-спамом (сейчас им на это совершенно наплевать).

@MikeBlazerX

Читать полностью…

Mike Blazer

Вчера вечером жена застала меня за просмотром OnlyFans, — пишет Айрес Луцарис.

Я попытался всё объяснить, но ей это не очень понравилось.

Этот сайт лишил меня сна.

Я поклялся ей, что это было исключительно для SEO-исследования, но она недовольна!

OnlyFans потерял 50 миллионов посетителей в месяц из органического поиска.

Пятьдесят миллионов органических посетителей каждый месяц.

И все это из-за одной-единственной технической проблемы.

Основное падение трафика пришлось на страницы профилей авторов.

Большинство страниц профилей больше не индексируется в Google.

Причина — проблемы, связанные с JavaScript.

Если посмотреть через гугловский тест рич сниппетов, у всех их страниц профилей одинаковый пустой контент и мета-теги (скриншот в комментариях).

Одно слово "OnlyFans" и ничего, что связано с конкретным автором: ни юзернейма, ни био, ничего!

Опять же, как я уже говорил в своем посте про NFL, контент должен быть в DOM, чтобы Google мог его увидеть.

Но вот в чем фишка:

Я не могу понять: это было случайным упущением или это сделали намеренно?

Я предполагаю, что это случайность, потому что иначе эти страницы просто закрыли бы через noindex или прописали бы для них каноникал.

Может, это было сделано из-за Safesearch?

Но ведь можно было просто скрыть любой контент для взрослых, например обложки профилей, для незалогиненных пользователей.

Также я хотел копнуть глубже и разобраться, почему их главная страница тоже не индексируется.

Возможно, там санкции...

Но я и так уже потратил на это достаточно времени и не хочу новых проблем дома.

Как вы думаете, что случилось с SEO у OnlyFans?

@MikeBlazerX

Читать полностью…

Mike Blazer

Стратегия линкбилдинга для новых сайтов

Ключевая философия: Сначала создаем доверие, затем — наращиваем мощь и эффективно масштабируемся.

---

Этап 1: Цифровое свидетельство о рождении 👶 (Создаем доверие)

Прежде чем просить хотя бы одну мощную ссылку, вы должны выглядеть как настоящий бренд.

Это не обсуждается.

Цель: Сделать так, чтобы Google видел в вас легитимную сущность, снижая риски для будущих агрессивных тактик.

Стек сущности: Везде используйте абсолютно одинаковые название, адрес, телефон (NAP), логотип и описание.
Создайте профили: Создайте и *полностью заполните* профили в LinkedIn, X/Twitter, Crunchbase, About.me и т. д.
Получите упоминания: Используйте качественный сервис (например, BrightLocal), чтобы попасть в основные бизнес-каталоги.
Первое упоминание: Используйте недорогой пресс-релиз, чтобы ваш бренд упомянули в Google News.

Результат: Теперь в глазах Google вы — сущность, заслуживающая доверия.

Фундамент заложен.

---

Этап 2: Ваши ПЕРВЫЕ реальные авторитетные ссылки 💪 (Наращиваем мощь)

Теперь, когда вам доверяют, пора получать ссылки, которые передают реальный ссылочный вес.

Цель: Получить первые мощные, релевантные ссылки, чтобы начать расти в выдаче.

Низко висящие фрукты: Попросите упоминаний у своих знакомых и коллег. Не стесняйтесь.
Качественные гестпосты: Нацеливайтесь на релевантные нишевые сайты с РЕАЛЬНОЙ аудиторией, а не на спам-фермы с разделом "write for us".
Niche Edits: Находите существующие статьи и предлагайте добавить в них вашу ссылку (часто требует бюджета).
PR/Экспертиза: Используйте HARO, Qwoted или прямой аутрич, чтобы предлагать свои цитаты журналистам.

---

Этап 3: Фреймворк управления рисками 🧠 (Думайте как профи)

Перестаньте следовать шаблонным правилам.

Линкбилдинг — это про контекст, а не про магические числа.

Цель: Сочетать безопасные и агрессивные тактики, анализируя вашу конкретную ситуацию.

Задайте себе эти вопросы:

— Какова динамика ссылочного у моих конкурентов?
— Распределяю ли я ссылки по всему сайту (а не только на одну страницу)?
— Каково у меня соотношение разных типов ссылок (гестпосты, профили, нишевые правки)?
— Как мне получить максимальный ROI для моего бюджета?

Ключевой момент — адаптировать стратегию под свою нишу, а не следовать общей формуле.

---

Этап 4: Систематизация и масштабирование ⚙️ (Создаем конвейер)

Чтобы опередить конкурентов, превратите линкбилдинг в эффективный, повторяемый процесс.

Цель: Стабильно получать ссылки, не увязая в ручной работе.

Автоматизируйте: Используйте инструменты для аутрича (например, Pitchbox, Respona) для первого контакта и фоллоу-апов.
Систематизируйте: Создайте шаблоны и SOPs для каждого этапа вашего процесса.
Группируйте задачи: Выделяйте блоки времени на проспектинг, аутрич и создание контента.
Аутсорсите с умом: Нанимайте VA на черновую работу, но ВЫ ОБЯЗАНЫ ЛИЧНО ПРОВЕРЯТЬ КАЖДОГО ПОДРЯДЧИКА И КАЖДУЮ ССЫЛКУ.

🔥 Правило №1: Освойте процесс сами, прежде чем делегировать.

Нельзя аутсорсить то, в чем вы не разбираетесь.

Хватит обновлять ранк-трекер, начинайте строить.

https://presswhizz.com/blog/link-building-plan-new-sites/

@MikeBlazerX

Читать полностью…

Mike Blazer

Непопулярное мнение: я рад, что SEO умирает, — говорит Кейси Петерсен.

Нам годами твердили, что главное — создавать качественный контент, который несет ценность для вашей аудитории.

Коллективный ответ от спецов: "Мило, конечно… НО ВЕРНЕМСЯ к переспаму ключами".

Вам за последние 10 лет попадался сеошник, который не был бы похож на цифровой аналог вашей странноватой тетушки, впаривающей эфирные масла от головной боли?

Скатертью дорога.

Впрочем, для вашей тетушки всегда найдется очередная схема Понци, а для SEO — новая сомнительная схема, которая тоже гарантированно вылечит ваш трафик и проблемы с сайтом.

Главное — посильнее верить.

Теперь мы будем с помощью ИИ генерировать тонны контента, который ни один живой человек читать не захочет.

Зачем?

Потому что БОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИ (LLM) УЖ ТОЧНО захотят это прочитать, и — трах-тибидох — вот они уже пишут о вас хорошее.

Если предположить, что они еще недостаточно умны, чтобы адаптироваться к этой зарождающейся сфере.

Если предположить, что ваш ИИ для массовой генерации текста говорит именно то, что нужно последним моделям для обучения.

Если предположить, что ИИ, извергающий информацию о вашем бренде, использует поиск в реальном времени, который действительно обращает внимание на захватывающие новые 40 миллионов слов на вашем сайте и считает их ценными.

И сколько итераций сгенерированной ИИ "воды", на которой обучается другой ИИ, потребуется, прежде чем все это потеряет всякий смысл?

Сможет ли Уроборос когда-нибудь поглотить себя целиком?

И все это, лишь бы не делать то, что уже много лет является единственно верным решением: просто знать своего клиента и создавать контент, который будет ему полезен и который он захочет потреблять.

И нет — SEO не умерло.

Я все понимаю.

Но становится все труднее игнорировать этот последний пункт в пользу новомодных трюков.

@MikeBlazerX

Читать полностью…

Mike Blazer

Начался апдейт ядра Гугла

https://status.search.google.com/incidents/riq1AuqETW46NfBCe5NT

@MikeBlazerX

Читать полностью…
Subscribe to a channel