mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2557

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Гипотеза о отключенных сущностях / Google HCU

Алгоритмы Google сместили фокус на статус здоровья сущности, отодвинув традиционные факторы вроде качества контента и бэклинков.

HCU и связанные обновления таргетируют Отключенные Сущности — домены без верифицированных владельцев или чёткого редакционного контроля.

Классификация сущностей:

Здоровые Сущности демонстрируют прозрачность через подтвержденное владение, явную экспертность и редакционную последовательность.
Раздутые Сущности размывают свой авторитет чрезмерным AI-генерированным или шаблонным контентом.
Жадные Сущности злоупотребляют авторитетом домена для ранжирования вне своей ниши (например, ручные санкции Forbes за нерелевантный контент).
Нездоровые/Отключенные Сущности показывают снижение сигналов доверия, часто из-за смены владельцев или неясного управления.
Неизвестные Сущности не имеют проверяемых данных, а Спам-Сущности полностью оторваны от легитимных операций.

Ключевые инсайты Дэнни Салливана:

— Качество контента само по себе не объясняет влияние HCU ("контент не был проблемой" для многих пострадавших сайтов)
— Google сложно отличить аутентичные нишевые сайты ("с правильными намерениями") от проектов под флип
— Восстановление требует верификации сущности, а не только улучшения контента (наблюдается 13+ месяцев без восстановлений)
— Развитие бренда должно фокусироваться на проверяемой экспертности, а не только узнаваемости

Иерархия теперь работает так:

Здоровье Сущности > Ссылки > Релевантность

Независимые издатели сталкиваются с уникальными проблемами: сильные бренды часто не подтверждают связь домена с реальными лицами/организациями.

Google проверяет внедоменные сигналы: регистрационные документы, профили руководителей, упоминания в авторитетных источниках.

Сайты без верификации теряют позиции независимо от качества контента.

Ключевые стратегии восстановления:

1. Верификация Сущности: Установление четкого владения через юридическую регистрацию, верифицированные профили и последовательное представление бренда

2. Валидация Ниши: Формирование поисковых паттернов, доказывающих авторитет в теме (например, брендовые запросы, сигнализирующие о признании пользователями)

3. Историческое Управление: Поддержание многолетней стабильности домена с редакционной последовательностью

4. Внедрение EEAT: Выход за рамки био авторов для демонстрации отслеживаемой экспертности (например, цитирование в отраслевых изданиях)

YMYL-сектора подвергаются повышенной проверке — сайты о здоровье или финансах требуют D-U-N-S-номера, надзора лицензированных специалистов и документации о соответствии нормативам.

Google все чаще использует проверки в реальном времени (интеграции GBP, функционал чата) для коммерческих функций в СЕРПе.

Тренд показывает долгосрочный сдвиг Google:

HCU 2022: Таргетинг на паттерны контента
Апдейты 2023-2024: Фокус на метриках верификации сущности
Системы 2025: Анализ десятилетнего управления доменом, хронологии карьеры руководителей и записей о владении

Аутентичные паблишеры должны балансировать между специализацией и стратегическим расширением бренда.

Успешные кейсы используют hub-and-spoke архитектуру с верифицированными экспертами-контрибьюторами, избегая размытия тематики под влиянием ИИ.

Как отмечает Салливан, Google поощряет создателей "со страстью к улучшениям", а не SEO-подрядчиков.

SEO теперь зависит от:

— Статуса валидации Knowledge Panel
— Консистентности упоминаний бренда на .edu/gov доменах
— Стабильности исторических WHOIS-записей
— Видимости профилей руководителей в доверенных директориях

Это требует смещения фокуса на управление репутацией сущности и создание проверяемых следов экспертизы вне традиционных оптимизаций.

https://www.hobo-web.co.uk/google-hcu-seo-the-disconnected-entity-hypothesis/

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотите повысить позиции в Google в 2025 году?

Вот полный чеклист по внутренней оптимизации:

1/ Стратегический подход к подбору ключей

🔹Держитесь своей ниши.

Не распыляйтесь.

Наращивайте тематический авторитет.

🔹Ищите ключи, по которым можно выйти в топ, анализируя, по каким запросам ранжируются сайты с меньшим DR.

🔹Никогда не используйте один ключ дважды (каннибализация запросов).

2/ Отслеживание = понимание что работает

🔹Используйте трекер позиций.

🔹Подключите GA и GSC.

🔹Следите за динамикой — иначе работаете вслепую.

Что измеряется, тем можно управлять.

3/ Техническое SEO = устранение слабых мест сайта

🔹Проверьте, индексирует ли Google ваши страницы.

Проверяйте через site:вашURL.

🔹Тестируйте проблемы краулинга.

🔹SSL? Schema? Адаптив?

Исправьте это в первую очередь.

4/ "Три кита" SEO:

Тайтл, H1 и URL имеют максимальную силу для ранжирования.

🔹Используйте основные ключи.

🔹Тайтлы до 65 символов.

🔹Короткие URL (максимум 3-4 слова).

🔹H1 = тайтл (снижает вероятность переписывания Google).

5/ Мета-дески: Не влияют на ранжирование, но влияют на клики.

🔹Включайте ключи (Google выделяет их жирным в выдаче).

🔹Используйте триггеры любопытства или продающие фишки для повышения CTR.

🔹До 156 символов.

6/ Структура контента имеет значение.

🔹H1 = основная тема.

(How to lose belly fat)

🔹H2 = подтемы.

(Eat less carbs)

🔹H3 = детальные разделы.

(Keto diet)

Google любит понятную иерархию.

🔹Про-тип: H2 с FAQ обязателен.

Берите идеи из блока "Люди также спрашивают" в Google.

7/ Количество слов — миф.

🔹Длиннее может быть лучше, но только если это оправдано.

🔹Смотрите среднее количество слов у топовых статей и ориентируйтесь на него.

Удалив 1000 слов из статьи можно попасть в топ-1.

8/ Соответствуйте поисковому интенту.

Например:

🔹"best wireless router" → все результаты это списки.

🔹"buy CBD oil" → все результаты это интернет-магазины.

🔹Соответствуйте тому, что уже в топе.

9/ Оптимизируйте под NLP (обработку естественного языка) Google.

🔹Давайте прямые ответы (например, "Лучшая температура для варки пива — 60°F").

🔹Используйте синонимы из Google (смотрите выделенные жирным слова в выдаче).

🔹Пишите просто — Google любит легкочитаемый контент.

10/ Визуал важен.

🔹Используйте уникальные картинки, не стоки.

🔹Ресайзьте перед загрузкой (большие картинки = медленный сайт).

🔹Заполняйте alt-теги (правильно описывайте картинку).

🔹Видео = больше время на сайте = буст в выдаче.

11/ Читабельность и копирайтинг:

🔹Никаких стен текста — разбивайте абзацы (1-3 предложения макс).

🔹Используйте списки, буллеты и выделения для сканируемости.

🔹Цепляйте читателя в интро через любопытство.

12/ Сущности и E-E-A-T:

🔹Упоминайте релевантные термины, которые естественно встречаются в экспертном контенте.

🔹Добавьте био автора с регалиями.

🔹Используйте разметку schema, чтобы четко обозначить тип контента для Google.

13/ Скорость загрузки и CWV:

🔹Тестируйте скорость через Pingdom (старайтесь, чтобы время загрузки составляло <2 секунд).

🔹Избегайте спамных ссылок (комменты в блогах низкого качества, форумы, каталоги и т.д.).

🔹Проверяйте токсичные бэклинки и при необходимости делайте дезавуирование.

17/ Монетизация vs UX:

🔹Много попапов?

Google это не любит.

🔹Агрессивная реклама?

Тоже самое.

🔹Приоритет на юзабилити — Google это вознаграждает.

18/ SEO — это не разовая акция.

🔹Регулярно пересматривайте контент.

🔹Обновляйте устаревшую инфу.

🔹Отслеживайте позиции и корректируйте по необходимости.

@MikeBlazerX

Читать полностью…

Mike Blazer

12 до смешного плохих способов линкбилдинга

1. Блэкхэт редиректы через Google

Использование параметров субдоменов Google для создания искусственных бэклинков.

Хотя это может накрутить показатели Moz DA (из-за доменов с DA90+), Google не учитывает такие ссылки при ранжировании.

Часто используется продавцами ссылок для искусственного повышения метрик.

2. Google Stacking

Создание бессмысленных Google-документов, заполненных ключевиками и целевыми ссылками.

Несмотря на высокий DA доменов, эти ссылки передают минимальный ссылочный вес, так как авторитет отдельной страницы важнее авторитета домена.

Техника работала только исторически в сочетании со спамными ссылками из каталогов.

3. Бесплатные субдомены

Использование платформ типа blogspot.com, netlify.app или vercel.app для создания одностраничников с дублированным контентом и ссылками.

Несмотря на высокий DA платформ (90+), ссылочный вес не эффективно передается на страницы отдельных субдоменов.

4. Электронные пресс-релизы

Google игнорирует ссылки с сайтов-синдикаторов пресс-релизов уже больше десятилетия (подтверждено Мэттом Каттсом на Pubcon 2013).

Хотя пресс-релизы служат легитимным PR-целям, они не влияют на улучшение PageRank.

5. Просьбы добавить ссылки в опубликованные статьи

Обычно неэффективно, так как у журналистов редко есть доступ к редактированию старых статей, и они получают слишком много подобных запросов.

У большинства изданий есть политика против изменений после публикации.

6. Ссылки в профилях форумов

Создание профилей на форумах только ради бэклинков неэффективно, так как страницы профилей получают минимальный ссылочный вес.

Однако активное участие в релевантных форумах может дать легитимные возможности для ссылок и взаимодействия с потенциальными клиентами.

7. Социальные закладки

Устаревшая тактика 15+ летней давности, до сих пор продается на Fiverr.

После апдейта Penguin эти ссылки не имеют значимой SEO-ценности.

8. PBN

Сети сайтов с перекрестными ссылками для создания искусственного авторитета.

Легко обнаруживаются современными инструментами анализа ссылок (например, графами ссылок в SEMRush) и внутренними инструментами Google с 2005 года.

9. Сквозные ссылки в футере

Распространены среди веб-дизайнеров, обычно игнорируются Google.

Должны быть nofollow согласно рекомендациям Google.

Хотя сейчас не приводят к санкциям, PageRank не передают.

10. Злоупотребление репутацией сайтов

Два варианта:

— Покупка ссылок из нетематических разделов сайтов с высоким DA (как бывшие разделы покупок CNN/Forbes)

— Покупка истекших доменов ради их ссылочных профилей (рискованно из-за возможных унаследованных санкций и проблем с релевантностью тематики)

11. Маскировка взаимных ссылок

Попытки обмануть Google, показывая разные версии пользователям и краулерам.

Некоторый обмен ссылками естественен, но чрезмерный обмен считается спамом.

Может быть обнаружен с помощью инструментов fetch and render.

12. Спам в комментариях блогов

Крайне устаревшая тактика, легко идентифицируемая Google по паттернам скорости появления ссылок и спам-сигналам.

Даже если комментарии проходят спам-фильтры, Google обесценивает ссылки с блогов с очевидными спам-паттернами в секциях комментариев.

https://www.michaelcottam.com/laughably-bad-linkbuilding-schemes/

@MikeBlazerX

Читать полностью…

Mike Blazer

Google AI Overviews = воровство (часть 1/2)

Google получила иск от Chegg:

1. Chegg представляет юридическая фирма Susman Godfrey — это значит, что они настроены серьезно.

Susman имеет репутацию умных, напористых судебных юристов.

2. Что важно, жалоба основана на антимонопольном законодательстве (НЕ на авторском праве, как я изначально ожидал).

3. В жалобе говорится, что "обмен доступа на трафик — это фундаментальная сделка, которая долгое время поддерживала производство контента для открытого коммерческого веба".

4. Далее: "Но в последние годы Google начал привязывать своё участие в этой сделке к другой транзакции, на которую Chegg и другие издатели не дают добровольного согласия.

В качестве условия индексации контента издателей для поиска, Google теперь требует от издателей также предоставлять этот контент для других целей, которые каннибализируют или перехватывают поисковые переходы."

5. Chegg говорит не только об AI Overviews, но и упоминает featured snippets (обогащённые сниппеты).

6. "Вторжение Google в цифровое издательство призвано сделать Google конечным пунктом назначения, а не отправной точкой поиска для других веб-сайтов".

7. Даже если бы Google предоставил отдельную возможность отказа от AI Overviews, это не сработало бы — потому что монопольная власть Google создает проблему коллективных действий.

8. Много отличных пунктов о том, как Google нечестно использует свою монопольную власть, чтобы подчинить открытый веб воле Google.

9. Параграф 13 просто шедевр...

"Поведение Google уже разрушает стимулы для Chegg и других издателей создавать такой ценный и полезный контент.

Если это не прекратится, эта траектория грозит оставить общественность с все менее узнаваемым интернет-опытом, в котором пользователи никогда не покидают огороженный сад Google и получают только синтетические, полные ошибок ответы на свои запросы — когда-то надежная, но теперь выхолощенная информационная экосистема, мало полезная и недостойная доверия."

10. Поисковые системы должны быть посредниками между пользователями и веб-издателями.

В жалобе цитируется Google старой школы: "Возможно, мы единственные люди в мире, которые могут сказать, что наша цель — чтобы люди покидали наш веб-сайт как можно быстрее."

11. Поиск — исключительно важный канал для издателей.

Другие каналы трафика, такие как социальные сети, никогда не заменят поиск, потому что этот трафик не является преднамеренным.

12. "Проще говоря, поисковая монополия Google даёт ей контроль над онлайн-дистрибуцией для цифровых издателей.

Google использует эту власть, чтобы заставить цифровых издателей отдавать свой контент.

Затем Google сам выступает в роли издателя, либо переиздавая части контента других цифровых издателей, либо используя GAI для обобщения контента.

В результате пользователи всё чаще потребляют контент других веб-издателей на SERP Google, либо в сокращенной, либо в производной форме, что лишает этих издателей трафика и доходов."

13. Chegg называет стратегию Google для издателей "обними, поглоти, уничтожь".

14. Далее идет потрясающий раздел, рассказывающий историю "Трансформации Google из поисковой системы в веб-издателя".

15. Google присвоил контент издателей в 2 фазы.

Фазу I они называют "фазой переиздания".

В жалобе говорится о таких функциях, как обогащённые сниппеты и блок "Люди также спрашивают".

16. "Google называет Featured Snippets, Top Stories и People Also Ask "поисковыми функциями".

Но это отдельные и отличные продукты от результатов поиска.

Здесь Google выступает в роли ответной системы, а не поисковой системы."

Продолжение следует...

@MikeBlazerX

Читать полностью…

Mike Blazer

Контент с и без SEO

@MikeBlazerX

Читать полностью…

Mike Blazer

Слышь, мне нужны бабки. Домен не хочешь прикупить? Я только что его регнул.

@MikeBlazerX

Читать полностью…

Mike Blazer

Я придумал: будем менять регистр в анкорах! "КриптоКазино", "криптоказино", "КРИПТОКАЗИНО" — и всё это с одного домена!

@MikeBlazerX

Читать полностью…

Mike Blazer

Недавно один джуниор сеошник спросил меня, как развиваться в техническом направлении, рассказывает Маркос Чиаррокки.

Мой совет для начала — сфокусироваться на двух ключевых областях: веб-технологиях и парсинге.

По веб-технологиям:

Изучи, как строятся сайты.

Начни с Python и Flask, чтобы создать простой бэкенд, подключить базу данных и сделать простой фронтенд.

Это научит тебя:

* Как работают сайты и веб в целом
* Как серверы обрабатывают запросы
* Как связывать SEO-проблемы (краулинг и рендеринг) с тем, как построены сайты

Понимание основ веба значительно упрощает диагностику SEO-проблем и помогает эффективнее работать с командами разработчиков.

По парсингу:

Попробуй создать базовый парсер или краулер.

Это лучший способ разобраться в:

* Индексации
* Структурированных данных
* Извлечении и анализе веб-контента

Изучение написания скриптов на Python может дать огромную отдачу, так как ты сможешь выполнять множество задач (автоматизация, анализ данных и т.д.).

Когда освоишь основы, ты даже сможешь использовать LLM-ки для получения рабочих скриптов за считанные минуты и дорабатывать их по мере необходимости.

Ниже несколько ссылок на курсы, которые являются хорошей отправной точкой.

По веб-приложениям:

https://www.udacity.com/course/full-stack-foundations--ud088

По скриптингу/скрейппингу на Python:

https://www.coursera.org/specializations/introduction-scripting-in-python
https://www.coursera.org/learn/microsoft-automation-scripting-with-python
https://www.coursera.org/learn/python-network-data#modules

@MikeBlazerX

Читать полностью…

Mike Blazer

Именно это заставляет людей переключаться на конкурентов.

Опрос в более чем 3000 человек позволил выяснить, почему люди переходят на другой бренд.

Вот они.

@MikeBlazerX

Читать полностью…

Mike Blazer

Про iGaming SEO

После 15+ лет в SEO и десятилетия доминирования в iGaming, я протестировал все стратегии - некоторые провалились, некоторые работают лучше, чем когда-либо, пишет Трифон Боюклийский.

Вот что реально работало раньше и продолжает работать в 2025 году в самой конкурентной нише.

1. Паразитное SEO

— Публикации на трастовых площадках
— SEO пресс-релизов
— Просроченные Web 2.0
Google Sites & Docs SEO
Forum & Q&A SEO (Quora, Reddit...)
— Использование трастовых платформ (Medium, LinkedIn...)

Про-тип: Google отдает приоритет авторитетным доменам - используйте их силу вместо того, чтобы месяцами ждать позиций.

2. EMD-домены

— Массовая регистрация EMD
— Цепочки редиректов EMD
— Гео-таргетированные сети EMD
EMD под казино

🔸Про-тип: Google принижает значение EMD - но в сочетании с сильными бэклинками они все еще ранжируются выше обычных доменов.

3. Манипуляции с ссылками (основа iGaming SEO)

— Качественные бэклинки с нишевых сайтов
PBN
— Инжект ссылок и клоакинг редиректов
— Ссылки с форумов и комментариев

🔸Про-тип: Релевантность важнее количества - одна сильная ссылка с сайта про казино > 100 спамных ссылок.

4. Манипуляции с контентом и клоакинг

IP-клоакинг
AI-генерированный контент
— Дорвеи и тонкие партнерские хаки
— Невидимый текст и инжект ключевиков

🔸Про-тип: Не перебарщивайте с клоакингом - Google жестко наказывает, миксуйте с легальным контентом.

5. Манипуляция кликами и фейковое вовлечение

— Боты для накрутки CTR
— Накрутка социальных сигналов
— Оптимизация времени на сайте
— Автоматические отзывы и рейтинги

🔸Про-тип: Google измеряет поведенческие - даже реальными поведенческими можно манипулировать.

6. Техническое SEO и эксплойты Schema

— Абьюз 301 редиректов
— Эксплойты канониклов
— Фейковые рич-сниппеты
HTTPS спуфинг

🔸Про-тип: Структурированные данные помогают Google понимать контент - но их можно оптимизировать за пределами гайдлайнов.

7. Эксплойты доменов и редиректов

— Перехват дроп-доменов
— Гео-редиректы
— Множественные дроп-домены на один сайт
— Цепочки аффилиатских редиректов

🔸Про-тип: Дропы - золотая жила, ищите те, у которых бэклинки с новостных и государственных сайтов.

8. Дорвеи и мультисайтовые сети

— Встраивание Iframe
— Ротация редиректов
— Клоакинг лендингов
— Мультисайтовые сети

🔸Про-тип: Диверсификация защищает от санкций - владение несколькими высокоранжируемыми доменами лучше, чем полагаться на один

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотите получать бэклинки на автопилоте?

Вот простой хак, сочетающий PPC и линкбилдинг, которым пока не пользуется большинство сеошников.

Делайте так...

1️⃣ Создайте страницу с ценной статистикой

(например, "Generative AI Statistics 2025").

2️⃣ Запустите PPC-рекламу по таким запросам:

"Generative AI statistics"

"AI adoption trends 2025"

"Latest AI industry data"

3️⃣ Журналисты и блогеры, ищущие источники, будут кликать на вашу рекламу...

...И некоторые поставят на вас ссылку!

Лучшие практики:

✅ Таргетируйтесь на точное соответствие (например, "stress statistics 2025").
✅ Избегайте широкого соответствия - оно быстро сжигает бюджет.
✅ Проверяйте страницы конкурентов в Ahrefs/SEMrush для поиска дополнительных ключей.
✅ Отслеживайте стоимость ссылки за месяц для оценки ROI.

Результаты?

По словам Стива Тота, недавний тест с бюджетом в $360 на рекламу принес 7 бэклинков.

@MikeBlazerX

Читать полностью…

Mike Blazer

Влияние ссылок с Reddit на SEO

Джой Хокинс провела эксперимент, чтобы измерить влияние Reddit на позиции в Google.

Используя свой сайт, она создала релевантный пост на Reddit с nofollow-ссылкой, содержащей определенный анкор.

За две недели целевой запрос поднялся с 25-й на 10-ю позицию.

Улучшение произошло благодаря тому, что сама ветка на Reddit хорошо ранжировалась в Google и получала органический трафик - это ключевой фактор, поскольку nofollow-ссылки из низкотрафиковых или спамных веток Reddit не дадут подобных результатов.

Хотя большинство ссылок на Reddit по умолчанию имеют атрибут nofollow, существует два способа получить dofollow-ссылки на платформе.

Модераторы сабреддитов могут создавать dofollow-ссылки в сайдбарах с помощью текстовых виджетов.

Для этого нужно войти как модератор, получить доступ к интерфейсу редактирования сайдбара и добавить ссылки в текстовом формате.

Второй метод связан с функцией публикации изображений на Reddit.

Загружая несколько изображений, пользователи могут настроить подпись ко второму изображению как анкор и добавить dofollow-ссылку - эту функцию обнаружил Брок Миснер.

Модераторы Reddit активно банят аккаунты, нарушающие правила платформы, поэтому крайне важно, чтобы посты оставались релевантными и добавляли ценность в обсуждения.

@MikeBlazerX

Читать полностью…

Mike Blazer

15 правил семантического написания текстов, которые реально помогают ранжироваться

После того как Эндрю Ансли удалось выйти в топ по сложнейшим запросам вроде "drug rehab" и "SEO Audit" и обучения более 200 агентств, вот его правила семантического написания, которые действительно работают:

1. Сначала ответ, потом детали

— Пример: На вопрос "Что такое SEO?", начните с "SEO оптимизирует сайты для более высоких позиций в поисковиках", затем раскрывайте детали.

2. Ключевые ответы - не более 40 слов

— Пример: Вместо длинного объяснения про N8N, напишите "N8N создает кастомные базы знаний и парсит данные с веба для автоматизации маркетинговых процессов".

3. Фокус на одной теме

— Пример: Страница про GHL должна рассказывать только о функциях/использовании GHL - без отклонений в общие советы по маркетингу или сравнение с конкурентами.

4. Только фактические утверждения

— Пример: Замените "Email-маркетинг поможет вам получить лиды" на "Email-маркетинг генерирует лиды через автоматизированные последовательности".

5. Соответствие структуры вопрос/ответ

— Пример: Вопрос: "Как работает GHL?"

Ответ: "GHL работает через автоматизацию email-рассылок, рекламы, лендингов и AI-агентов".

6. Выделяйте жирным ответы, а не ключевики

— Пример: Вопрос: Что такое N8N?

Ответ: N8N - это инструмент автоматизации рабочих процессов, который связывает API и создает кастомные решения.

7. Создавайте четкую иерархию контента

— Пример: H1: Гайд по N8NH2: Ключевые функции → H3: API-интеграция → H4: Этапы настройки

8. Включайте несколько примеров

— Пример: Не ограничивайтесь одним воркфлоу N8N - покажите три разных примера автоматизации с конкретными кейсами.

9. Определяйте термины при первом использовании

— Пример: "GHL (Go High Level) - это платформа для автоматизации маркетинга, которая..."

10. Выстраивайте тематические связи

— Пример: Свяжите "автоматизацию маркетинга" с "функциями GHL" и "воркфлоу N8N" для создания семантических связей.

11. Пишите короткими предложениями

— Пример: Замените "Автоматизация маркетинга - сложная тема, требующая понимания множества инструментов и платформ, что может быть сложно для изучения"

на

"Автоматизация маркетинга объединяет множество инструментов. Каждый инструмент выполняет конкретную задачу. Интеграция создает мощные воркфлоу."

12. Используйте HTML-списки правильно

— Пример: Структурируйте списки функций тегами <ul> и <li> вместо ручных маркеров.

13. Правильно распределяйте информацию

— Пример: Один ключевой концепт на параграф.

Новый параграф для каждой новой идеи.

14. Пишите линейно

— Пример: Начните с базовых концепций GHL → перейдите к настройке → затем к продвинутым функциям.

Никогда не прыгайте между базовым и продвинутым уровнем хаотично.

15. Включайте подтверждающие данные

— Пример: Подкрепляйте утверждения конкретными цифрами - "Автоматизация GHL сократила ручные задачи на 47% в 200 клиентских кампаниях".

Помните: Это не теория - все основано на реальных результатах ранжирования

@MikeBlazerX

Читать полностью…

Mike Blazer

Наткнулась на "пресс-релиз" на каком-то новостном сайте, - рассказывает Прити Гупта.

И знаете, что там было написано?

"Компания ABC с огромным восторгом сообщает о публикации своего нового блог-поста".

Вы серьезно?

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда блокировка страниц в Robots.txt приводит к увеличению индексации 🤖

На сайте одного из моих клиентов на Magento недавно начали генерироваться бесконечные фасетные URL, которые Гугл начал активно краулить, пишет Шарль Вайсье.

Из-за ограниченных ресурсов разработки для нормального исправления проблемы или даже добавления noindex тегов (которые, как мы знаем, со временем помогли бы Гуглу меньше краулить эти страницы) и предстоящей миграции, мы решили заблокировать URL в robots.txt, чтобы предотвратить миллионы ненужных краулов.

То, что произошло дальше, было совершенно неожиданным.

Вместо того чтобы просто прекратить краулинг, Гугл также начал стремительно индексировать эти URL.

Нашей целью было просто остановить гуглобота от краулинга страниц, оставив их неиндексированными.

Для решения проблемы мы откатили изменения и удалили правила disallow из robots.txt.

Постепенно Гугл начал исключать страницы из индекса.

⚠️Что стало причиной?

Каноникал теги на этих фасетных URL работали корректно, предотвращая их индексацию.

Однако, заблокировав URL в robots.txt, мы помешали Гуглу видеть эти каноникал теги, что привело к индексации URL вместо их игнорирования.

💡Ключевой вывод:

Хотя блокировка URL в robots.txt не останавливает их индексацию (что мы знали), она может привести к их индексации, мешая Гуглу видеть критически важные сигналы, такие как каноникал теги.

Этот случай подчеркивает важность понимания того, как различные элементы SEO взаимодействуют между собой, прежде чем вносить изменения.

Как вы думаете, было ли это нормальным и ожидаемым поведением со стороны Гугла?

@MikeBlazerX

Читать полностью…

Mike Blazer

Какая LLM лучше всего подходит для SEO?

Кайл Руф и его команда провели анализ 9 основных LLM для оценки их SEO-возможностей.

Их методология исследования включала два этапа: сначала они запросили базовую статью на 1000 слов, а затем попросили SEO-оптимизированную версию, оба раза без дополнительных инструкций.

Для оценки эффективности команда Руфа измеряла, насколько хорошо каждая LLM следовала лучшим практикам SEO.

Qwen 2.5-Max (Alibaba) стал лучшим по всем показателям (но все равно не вау), демонстрируя стабильно высокие оценки, хорошие структурные элементы и поддерживая достаточный объем контента.

Напротив, Gemma 2 от Google показала низкие результаты практически по всем категориям, оказавшись в самом низу рейтинга.

Примечательным открытием стало значительное улучшение Llama 3.1 (Meta AI) после получения SEO-инструкций – модель трансформировалась из одной из худших в базовом тесте в показывающую существенный прогресс.

Исследование выявило тревожные тенденции во всех LLM.

Модели повсеместно испытывали трудности с генерацией основного контента, оптимизацией подзаголовков и соответствием Google NLP.

Удивительно, но при создании SEO-оптимизированных версий объем текста и частота важных терминов уменьшались вместо увеличения – что является серьезной проблемой, учитывая потребность SEO в объемном контенте.

Анализ показал, что хотя LLM могли справиться с базовыми улучшениями форматирования, такими как лучшие заголовки, они не смогли обеспечить необходимую для эффективного SEO глубину контента.

Ни одна из тестируемых моделей не достигла оптимального диапазона важных терминов, а оценки Google NLP остались низкими.

Среди неэффективных моделей Qwen 2.5-Max, GPT-4 и Claude 3.5 Sonnet оказались наименее проблемными вариантами.

Однако, эти модели могут достичь только позиций на 5-й странице Google.

Хотя эти модели продемонстрировали лучшее следование структуре, они все еще не дотягивали по глубине контента и реализации стратегии ключевых слов.

https://www.pageoptimizer.pro/blog/we-analyzed-9-major-llms-heres-which-llm-is-best-for-seo

@MikeBlazerX

Читать полностью…

Mike Blazer

Если словили санкции за репутацию сайта - не парьтесь: просто сделайте 301-й редирект на другой домен, и все ваши позиции в выдаче вернутся.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google AI Overviews = воровство (часть 2/2)

17. Переиздание не обязательно плохо, но проблема в том, что Google навязывает его издателям как условие для появления в Поиске (в котором у него монополия).

18. "Решение отказаться от переиздания, запретив сниппеты или удерживая данные поискового индекса — это выбор без выбора."

19. Фаза II стратегии Google по доминированию в онлайн-издательстве сосредоточена вокруг AI Overviews ("GAI").

20. Жалоба отмечает, что немонополисты, такие как OpenAI и Perplexity, были вынуждены заключать лицензионные соглашения с издателями, тогда как Google в значительной степени избегал этих затрат благодаря своей поисковой монополии.

21. Жалоба разбирает различия между предобучением LLM и RAG.

22. Переход к AI Overviews "практически завершает эволюцию Google от "поисковой системы" к "ответной системе", которая публикует ответы на запросы пользователей.

Её когда-то симбиотические и взаимодополняющие отношения с издателями теперь стали преимущественно паразитическими и конкурентными."

23. Собственный маркетинговый язык Google прямо признает, что цель featured snippets и AI Overviews — предотвратить переходы пользователей на сайты издателей.

24. Google намеренно нечётко описывает точные наборы данных, используемые для обучения своих LLM.

25. В презентации Google DeepMind 2023 года Google признает, что генеративный ИИ в поиске "уменьшит переходы к поставщикам контента, ухудшая их способность монетизировать".

26. AI Overviews увеличивает количество поисков с "нулевыми кликами".

27. AI Overviews вызовет нисходящую спираль в качестве публикаций — по мере того, как стимул к созданию уменьшается, качество деградирует, и весь веб страдает.

28. Первое юридическое требование — "взаимные сделки", антимонопольная концепция, которая "возникает, когда фирма с рыночной властью отказывается продавать продукт X клиенту, если этот клиент не соглашается продать (или отдать) ей продукт Y.

В данном случае продукт, который Google продает (и угрожает удержать от) цифровым издателям — это поисковый реферальный трафик."

29. Второе — "поддержание монополии".

По сути, утверждается, что использование Google ИИ представляет собой форму "извлечения ренты" с издателей.

30. Третье — "Неосновательное обогащение" — что означает, что Google несправедливо получил выгоду за счет издателей посредством неправомерного поведения.

31. "Ценность моделей и ИИ-продуктов Google напрямую связана с качеством работ, которые он приобретает для их обучения и обоснования их результатов."

32. Chegg требует суда присяжных.

@MikeBlazerX

Читать полностью…

Mike Blazer

41 вопрос SEO-агентству при выборе подрядчика

Про AI:

1. Приведите пример SEO-процесса в вашем агентстве до и после внедрения AI. Почему выбрали этот процесс и каковы дальнейшие планы?
2. Как ваше агентство реагирует на прогноз Gartner о снижении поисковых запросов и проверяет изменения поискового поведения?
3. Как отслеживаете переход клиентов на AI-поисковики (Gemini/ChatGPT/Perplexity)?
4. Как элементы SEO (линкбилдинг, техническая часть, EEAT-сигналы) будут полезны в эру AI-поиска? Какие направления наиболее перспективны?
5. Сравните ваш подход 2022-2023 годов с текущей AI-стратегией: что уже адаптировано, что в разработке?
6. Как обеспечиваете аутентичность контента и вовлеченность аудитории при использовании AI?
7. Стоит ли блокировать AI-ботов от краулинга сайта для защиты данных? Ваше мнение.
8. Чем стратегии оптимизации контента для языковых моделей отличаются от классического SEO?
9. Какие AI-инструменты разрешены/запрещены в вашей команде?
10. Как раскрываете информацию об использовании AI в проектах?
11. Как отслеживаете видимость бренда в генеративном AI и оцениваете рыночную долю?
12. Какое влияние AIO-сниппеты оказывают на CTR и конверсии?
13. Как определяете контент, подверженный рискам из-за AI?

Про адаптацию:

14. Опишите последние изменения в вашем рабочем процессе на примере одного кейса.
15. Как оцениваете влияние нового SERP-дизайна на бизнес и предлагаете оптимизацию?
16. Как обнаруживаете изменения в выдаче Google и корректируете стратегию?
17. Как отслеживаете новые форматы Google и адаптируете под них тактики?
18. Как поможете конкурировать с агрегаторами и OTA в нише?
19. Как используете AI без риска санкций за автоматизированный контент?

Про интегрированный поиск:

20. Какие уникальные данные (CRM, звонки, партнерские домены) помогут создать индивидуальную SEO-стратегию?
21. Как используете данные из контекста, соцсетей и YouTube для улучшения SEO?
22. Как рост видео (YouTube) и UGC-платформ (Reddit) повлияет на SEO-кампанию?
23. Как SEO-данные помогают понимать клиента для всей компании?
24. Нужно ли отключать контекстную рекламу при выходе в топ?
25. Какие альтернативные Google площадки исследуете для поиска ответов?
26. Какова ваша роль на платформах типа TikTok/G2, куда уходит аудитория?

Про SEO-исследование:

27. Стоит ли копировать тактику конкурента из текущего анализа? Ваша рекомендация.
28. Проанализируйте наши SEO-действия за год: перекосы и их влияние.
29. Найдите устаревший элемент на сайте и объясните план его обновления с прогнозом эффекта.

Про ROI и бюджет:

30. Как прогнозируете эффект от роста позиций на год и корректируете CTR/прогнозы?
31. Как объясните руководству падение CTR при росте позиций?
32. Какие популярные SEO-практики считаете бесполезными/вредными?
33. Как реагируете на претензии о низком качестве лидов из SEO?
34. Как совмещаете быстрые победы с долгосрочной стратегией в отчетах?
35. Как связываете SEO с бизнес-метриками помимо позиций?
36. Как будете сокращать бюджет вдвое без потери эффективности?
37. Как управляете сменой команды? Можете дать контакты клиента с таким опытом?
38. Как помогаете при переходе к другому подрядчику/инхаусу? Есть примеры?
39. Как меняете масштаб проекта при масштабных изменениях Google?

Про согласования:

40. Как координируете работу IT, PR и других отделов для SEO?
41. Какие метрики успеха (помимо трафика) предлагаете для оценки вклада SEO?

https://www.seerinteractive.com/insights/seo-rfp-guide

@MikeBlazerX

Читать полностью…

Mike Blazer

Размышление о термине "говнификация" и его применении в SEO-софте.

7 лет назад я начал платить за популярный SEO-сервис менее £300/мес, сейчас я плачу более £1200.

Использую тот же объем данных, то же количество пользователей, пишет Росс Тавендейл.

Рост затрат — в 4 раза.

Тарифы нашего агентства выросли на 25% с 2017 года, а стоимость софта — на 400%.

Я схожу с ума или это реально стало чересчур?
-

В прошлом году я тестировал 2 провайдера инструментов, говорит Harpreet.

Несколько лет назад агентство, в котором я работал, платило около £14k за enterprise-уровень краулинга для крупного ритейлера в Великобритании.

Теперь один из них заплатил 100 тысяч, другой - 15 тысяч за 1000 страниц SaaS-компании, лол.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда сеошники встречаются на дороге с арбитражниками, они останавливаются, чтобы обменяться информацией.

Когда один из сеошников переходит к арбитражникам, его коллега отправляется за ним, чтобы вернуть его обратно.

@MikeBlazerX

Читать полностью…

Mike Blazer

Расширение для Хрома - Advanced GSC Visualizer пополнилось новой фичей, которая позволяет увидеть производительность 10 лучших подпапок вашего сайта одним щелчком мыши!

Это поможет вам понять общую производительность любого сайта всего за несколько минут.

https://chromewebstore.google.com/detail/advanced-gsc-visualizer/cdiccpnglfpnclonhpchpaaoigfpieel

Прежний пост про это расширение тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Максимально полный список юзер-агентов AI-ботов для их блокировки

AI и ML боты краулят ваш сайт и парсят контент гораздо чаще, чем вы думаете.

Чтобы остановить AI-ботов от поглощения вашего контента для обучения своих систем вы можете заюзать этот Мега-блокировщик в .HTACCESS:

.htaccess
<IfModule mod_rewrite.c>

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} (Agent\ GPT|AgentGPT|AI\ Article\ Writer|AI\ Content\ Detector|AI\ Dungeon|AI\ SEO\ Crawler|AI\ Search\ Engine|AI\ Writer|AI21\ Labs|AIBot|AI2Bot|AISearchBot|AlexaTM|Alpha\ AI|AlphaAI|Amazon\ Bedrock) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Amazon\ Lex|Amazonbot|Amelia|anthropic-ai|AnthropicAI|AnyPicker|Anyword|Applebot|Articoolo|AutoGPT|Automated\ Writer|AwarioRssBot|AwarioSmartBot|BingAI|Brave\ Leo\ AI|Bytespider|CatBoost|CC-Crawler) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (CCBot|ChatGPT|Chinchilla|Claude-Web|ClaudeBot|ClearScope|cohere-ai|cohere-training-data-crawler|Common\ Crawl|commoncrawl|Content\ Harmony|Content\ King|Content\ Optimizer|Content\ Samurai|ContentAtScale) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (ContentBot|Contentedge|Conversion\ AI|CopyAI|Copymatic|Copyscape|Crawlspace|CrawlQ\ AI|crew\ AI|crewAI|DALL-E|DataForSeoBot|DeepAI|DeepL|DeepMind|DeepSeek|DepolarizingGPT|DialoGPT|Diffbot|DuckAssistBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (FacebookBot|Firecrawl|Flyriver|Frase\ AI|FriendlyCrawler|Gemini|Gemma|GenAI|Google\ Bard\ AI|Google-CloudVertexBot|Google-Extended|GoogleOther|GPT-2|GPT-3|GPT-4|GPTBot|GPTZero|Grammarly|Grok|Hemingway) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Hugging\ Face|Hypotenuse\ AI|iaskspider|ICC-Crawler|ImagesiftBot|img2dataset|INK\ Editor|INKforall|IntelliSeek\.ai|Inferkit|ISSCyberRiskCrawler|JasperAI|Kafkai|Kangaroo|Keyword\ Density\ AI|LeftWingGPT) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (LLaMA|magpie-crawler|MarketMuse|Meltwater|Meta\ AI|Meta\ Llama|Meta\.AI|Meta-AI|Meta-ExternalAgent|Meta-ExternalFetcher|MetaAI|MetaTagBot|Mistral|Narrative\ Device|Neural\ Text|NeuralSEO|OAI-SearchBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (OAI\ SearchBot|omgili|OmniGPT|Open\ AI|OpenAI|OpenText\ AI|Outwrite|Page\ Analyzer\ AI|PanguBot|Paraphraser\.io|peer39_crawler|PerplexityBot|PetalBot|ProWritingAid|QuillBot|RightWingGPT|RobotSpider) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Rytr|SaplingAI|Scalenut|Scrapy|ScriptBook|SearchGPT|SemrushBot|SEO\ Content\ Machine|SEO\ Robot|Sidetrade|Simplified\ AI|SlickWrite|Spin\ Rewriter|Spinbot|Stability|Sudowrite|Surfer\ AI|Text\ Blaze) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (TextCortex|The\ Knowledge\ AI|Timpibot|VelenPublicWebCrawler|Vidnami\ AI|WebChatGPT|Webzio|Whisper|WordAI|Wordtune|Writecream|WriterZen|Writescope|Writesonic|x\.AI|xAI|YouBot|Zero\ GTP|ZimmWriter) [NC]

RewriteRule (.*) - [F,L]

</IfModule>


Полный список из 176 юзер-агентов вот тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как Google измеряет "значительные" изменения при обновлении lastmod в картах сайта?

Анализирует ли Google смысловые изменения (например, "Казнить, нельзя помиловать" и "Казнить нельзя, помиловать"), смотрит на процент изменения текста, использует оба варианта, векторы или какой-то другой метод?

Ответы и мнения SEO-специалистов

1. Инсайты из тестирования:

— Предположение, что у Google нет эффективного способа определить злоупотребление lastmod
— Тесты показали рост трафика при простом обновлении lastmod (хотя это не рекомендуется в долгосрочной перспективе, так как может рассматриваться как манипуляция)
— Любые изменения, кроме исправления опечаток, можно считать "оправданными" для обновления lastmod

2. Технические аспекты реализации:

Lastmod может использоваться как триггер для пересчета пакетных метрик, а не как фактор ранжирования
— Если сайт злоупотребляет lastmod, Google "расстраивается" и находит способы "усложнить жизнь" таким сайтам
— Как минимум, Google может перестать пересчитывать пакетные метрики по запросу и делать это только когда сам захочет
— Злоупотребление lastmod скорее приведет к игнорированию этого сигнала для сайта, чем к санкциям в ранжировании
— При миграции сайта lastmod становится датой миграции
— Тип краулинга в GSC часто смещается к ~80% "Обнаружению" после миграции

3. Практики паблишеров:

— Один новостной паблишер меняет dateModified (schema) и lastMod (sitemap) когда:
a. Меняются большие фрагменты текста
b. Меняются заголовки
c. Не меняет даты при мелких опечатках

4. Подход Google:

— По словам Гари Иллиеса, доверие Google к сигналам lastmod бинарное - они либо принимают их как сигнал, либо игнорируют
— Опечатка может считаться значительным изменением (например, в ценнике)
— Это предполагает, что Google может не использовать процент изменения текста или векторы для определения

5. Теория влияния на трафик:

— Рост трафика от обновлений lastmod может быть связан с изменениями в структуре ссылок, когда статьи, отсортированные по дате, перемещаются на первые позиции, создавая более сильные сигналы (PageRank?)
— Однако, рост трафика наблюдался и при обновлении только метаданных/структурированных данных

@MikeBlazerX

Читать полностью…

Mike Blazer

ЕСЛИ ВЫ ИСПОЛЬЗУЕТЕ JAVASCRIPT ДЛЯ ДИНАМИЧЕСКОЙ ЗАГРУЗКИ КОНТЕНТА ПОСЛЕ ВЗАИМОДЕЙСТВИЯ, ГУГЛ ЕГО НЕ УВИДИТ!

Только что провел аудит сайта клиента, где НАВИГАЦИЯ имела статичный вывод для видимых элементов ссылок, но вся навигационная структура под ней подгружалась динамически только после ВЗАИМОДЕЙСТВИЯ, пишет Даниэль Фоли Картер.

При взаимодействии с меню DIV-элементы внедрялись в активный HTML.

Но при проверке сырого HTML после рендеринга никаких подклассов меню не существовало.

ВОТ ПОЧЕМУ нужно быть особенно внимательным к техническим решениям, используемым на сайте.

Такие вещи требуют ПРОВЕРКИ.

В Screaming Frog ничего не отображалось, все подстраницы МЕНЮ имели высокие показатели глобальных внутренних ссылок — поэтому проблему сразу не заметишь.

Но при ручной проверке мне удалось это обнаружить.

Категории в НАВИГАЦИИ клиента показывали значительное падение эффективности, я также заметил, что многие СТРАНИЦЫ ПОДМЕНЮ были обнаружены не через краулинг, а через ДИСКАВЕРИ — обычно через страницы товаров, что странно: почему URL навигации верхнего уровня находятся через товары?

Оказалось, что Гугл проходил через товары и находил категории верхнего уровня через хлебные крошки.

ИСПОЛЬЗУЙТЕ JS, но делайте это правильно.

Всё, что формирует страницу, должно быть в изначальном DOM.

Любая "ДИНАМИЧЕСКАЯ" функциональность, использующая Javascript для выполнения действий, изменит страницу так, что Гугл этого не увидит.

Поэтому даже такие базовые вещи, как использование JS для динамической подгрузки "загрузить еще" — в большинстве случаев плохая идея.

Где возможно — ПРЕДЗАГРУЖАЙТЕ всё на страницу и используйте скрипты для работы с контентом, который уже загружен в исходном коде.

Проблему решили, изменив технологию меню и обеспечив вывод контента при предварительном рендеринге.

Проблема решена — ЗНАЧИТЕЛЬНОЕ улучшение органических показателей в течение 3 недель после внедрения.

ВОТ КАК МОЖНО ОПРЕДЕЛИТЬ, ЕСТЬ ЛИ НА АНАЛИЗИРУЕМЫХ СТРАНИЦАХ ИЗМЕНЕНИЯ, КОТОРЫЕ ГУГЛ НЕ МОЖЕТ УВИДЕТЬ:

1. Зайдите на веб-страницу
2. Нажмите F12, чтобы открыть DevTools
3. В нижних вкладках кликните на CONSOLE
4. Нажмите на иконку очистки, чтобы скрыть текущие ошибки/предупреждения
5. Скопируйте и вставьте скрипт ниже в консоль и нажмите enter
6. Затем взаимодействуйте со страницей, например, кликните на меню — вы увидите, внедряются ли новые элементы

new MutationObserver((mutations) => {
mutations.forEach((mutation) => {
mutation.addedNodes.forEach((node) => {
if (node.nodeType === 1) {
// Ensure it's an element node
if (node.tagName === "A" && node.hasAttribute("href")) {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", node.href, node);
}

// Also check if an <a> tag is added inside a changed element
node.querySelectorAll &&
node.querySelectorAll("a[href]").forEach((link) => {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", link.href, link);
});
}
});
});
}).observe(document.body, { childList: true, subtree: true });

За скриншотами - сюда.

@MikeBlazerX

Читать полностью…

Mike Blazer

Конвертируйте PDF в HTML без потери текста и формата.

https://github.com/pdf2htmlEX/pdf2htmlEX

@MikeBlazerX

Читать полностью…

Mike Blazer

Рене Жирар:

В последнее время атаки скрейперов просто зверские - хуже, чем когда-либо!

Мой домен буквально бомбардируют с 2001:4860:7:622::ff.

Кто-нибудь ещё сталкивается с подобным от IPV6 из диапазона префиксов 2001:4860:7?!

Мы их блокируем, но есть подозрения, что это может быть гуглобот, хотя при проверке через верификатор юзер-агента он так не определяется.

Дэйв Смарт:

Похоже, это может быть один из префетч-прокси. По сути, Google предварительно загружает некоторые результаты выдачи, чтобы ускорить навигацию, подробнее тут.

Если проверить IP через ipinfo.io, должен показать ASN AS15169 (хотя я не уверен, что это универсально).

Если записывать все хедеры запросов в логах:

purpose будет prefetch
referer будет https://www.google.{thetld}
sec_fetch_mode будет no-cors

То есть, это не скрейпер и не гуглобот, а префетч для ускорения загрузки вашего сайта при клике пользователя (кстати, обычно это признак того, что вы хорошо ранжируетесь хотя бы по каким-то запросам!).

Есть опубликованный список IP для этих прокси здесь (изначально для геолокации, но подойдет и для этого!). Позже добавлю их в свой инструмент проверки реальных IP гуглбота.

Вы можете контролировать объем или даже полностью отключить эту функцию для своего сайта, как описано здесь.

@MikeBlazerX

Читать полностью…

Mike Blazer

SEO мертво, да здравствует Google Discover!

У вас есть сайт, соответствующий этим критериям?

💎 Тогда вы сидите на золотой жиле потенциального трафика.

Вот требования, которым нужно соответствовать:

☐ 🗞 Ваш сайт редакционного характера

— Вы управляете медиа-ресурсом, блогом или информационным сайтом, который в основном публикует редакционный контент вроде статей.
— Бонус: Ваш сайт включен в Google News (опционально).

☐ 🚀 У вашего сайта крепкая техническая база

— Ваши статьи (производительность главной страницы не так важна!) загружаются быстро и получают как минимум оранжевые, а в идеале зеленые показатели в инструментах Google (Page Speed Insights).
— Статьи индексируются быстро (естественным путём в течение 24 часов, в течение 3 часов если в Google News).
— Бонус: Ваш сайт проходит Core Web Vitals (опционально).

☐ 👪 У вас уже есть существующая аудитория

— Неважно откуда: из поиска, соцсетей или любых других источников трафика.
— Минимум желательно 5К посетителей в месяц, но чем больше, тем лучше!

☐ 💰 Ваш трафик идет (или мог бы идти) из стран с высоким RPM

— США, Великобритания, Канада, Австралия...
— Бонус: Вы уже монетизируете аудиторию через медийную рекламу (опционально).

☐ 💑 У вас сильные поведенческие метрики

— Лояльная аудитория, которая возвращается.
— Высокое время на страницах.
— Бонус: Высокая глубина просмотра (>2, опционально).

☐ 📈 Вы в хороших отношениях с Google

— Не попали под последние Core Update, HCU или другие апдейты Google.
— График трафика стабилен или растет последние 3 месяца.

☐ 🪩 Вкладка Discover уже видна в вашей GSC

— Даже если показатели низкие, это значит, что вы потенциально подходите.
— Бонус: У вас уже есть какие-то показы/клики органически, без активной стратегии.

☐ ✅ Вы уделяете внимание сигналам E-E-A-T

— Статьи подписаны реальными авторами, несут добавленную ценность, и ваши юридические данные прозрачны.
— Бонус: У вас есть UGC контент (секция комментариев, взаимодействие с пользователями и т.д.) (опционально).

Если вы отметили 6 (или больше) из этих 8 пунктов, у вашего сайта высокие шансы получить миллионы дополнительных посещений через Google Discover.

@MikeBlazerX

Читать полностью…

Mike Blazer

Всего за ПЯТЬ дней совершенно новое паразитическое SEO-партнерство прошло путь от 0 до более чем $1.2 МИЛЛИОНА ежемесячного трафика по данным Ahrefs...

Как этот нишевый сайт смог это сделать?

Скриншот

В настоящее время он занимает #1 место в США по таким ключам, как "best online casino", "online slots", "real money casinos", "new online casinos" и даже #6 место просто по запросу "slots"!

И всё это всего за 5 дней?!

Как им это удалось?

Скриншот

Ну, во-первых, Google пытался бороться с таким поведением с помощью "политики злоупотребления репутацией сайта", но спустя годы так и не смог внедрить что-либо на алгоритмическом уровне.

И именно алгоритм является причиной такого высокого ранжирования!

Скриншот

Алгоритм Google постепенно настраивался (в течение последних нескольких лет) на то, чтобы отдавать предпочтение сайтам с "авторитетом" - то есть сайтам, на которые ссылается наибольшее количество других сайтов в интернете.

Вероятно, здесь также играют роль фактор свежести, тематический авторитет и умная оптимизация контента, хотя они используют даже AI-изображения, так что...

Скриншот

Вы можете спросить себя, кто же стоит за этим?

В большинстве случаев сами сайты недостаточно умны, чтобы реализовать такие стратегии самостоятельно, и часто им не хватает воображения, чтобы придумать такую идею.

Кстати, ОЧЕНЬ прибыльную идею!

Скриншот

Если отследить автора всех этих постов, похоже, что это реальный человек, но маловероятно, что она подготовила ВЕСЬ этот контент самостоятельно за 2 дня...

Скриншот

Быстрая проверка её LinkedIn показывает, что она работает в Esports Insider, а также является "Контент-редактором" в "ClickOut Media".

Скриншот

Кто такие ClickOut Media?

Скриншот

Да, у Google есть политика против этого...

Но ручные санкции применяются редко, а алгоритм всё больше и больше настраивается на то, чтобы поощрять эту стратегию.

И это поощрение может составлять более $1 миллиона В НЕДЕЛЮ в комиссионных!

Скриншот

А когда Google всё-таки применяет санкции, они затрагивают только нарушающие подпапки, что не наносит реального ущерба издателю, а третья сторона может просто перейти к следующему новостному сайту с DR70+, готовому печатать бесплатные деньги, пока это возможно!

Скриншот
-

После того, как сайт попал под ручные санкции, Esports Insider практически ПОЛНОСТЬЮ ВОССТАНОВИЛСЯ всего за несколько дней на той же самой подпапке 👀

См. скриншот к посту.

@MikeBlazerX

Читать полностью…

Mike Blazer

Учитывает ли Google "стоимость извлечения" в качестве фактора ранжирования?

Марк Уильямс-Кук скептически относится к концепции "cost of retrieval", аргументируя это тем, что Google в любом случае необходимо получить контент, чтобы определить стоимость его извлечения, и что ранжирование качественного контента должно иметь лучшую ожидаемую ценность для Google, чем ранжирование контента более низкого качества только потому, что он имеет меньшую стоимость извлечения.

Признавая логичность того, что системы Google переходят от вычислительно дешёвых к вычислительно дорогим тестам (например, используя быстрые тесты для фильтрации 900 тысяч очевидно плохих страниц из миллиона перед применением более ресурсоёмких тестов), он ставит под вопрос, как этот процесс оптимизации связан со стоимостью извлечения контента как фактором ранжирования, отмечая, что некачественный контент останется некачественным в любом случае.

Ответы и мнения SEO-специалистов

1. Бизнес-перспектива:

— С точки зрения операционных расходов бизнеса, оптимизация для минимизации затрат имеет смысл, так как снижение расходов увеличивает прибыль
Prerender может быть фактором, хотя наблюдаемый буст может быть просто результатом улучшения скорости сайта, а не стоимости обработки

2. Перспектива краулинга:

— Поисковики краулят целые сети страниц, а не отдельные страницы
— Они настраивают оценки целесообразности инвестирования ресурсов в остальные страницы домена/сайта/кластера связанных страниц
— Эти оценки учитывают востребованность и уникальность контента
— Страницы в "хороших окрестностях" могут получить больше инвестиций благодаря своим связям

3. Инсайты по распределению ресурсов:

— Индексация веба - это задача оптимизации: цель - потратить минимум ресурсов для извлечения уникального контента, который нравится пользователям
— Частота краулинга - ранний индикатор инвестиций в контент
— Иерархия легкости обработки контента: размеченный семантический контент > чистый HTML > JS-рендеринг

4. Наблюдения по авторитетности и индексации:

— Сигналы авторитетности могут перевешивать другие сигналы, например, каноникалы
— Идентичные страницы авторитетных сайтов (с параметрами отслеживания) могут индексироваться и рендериться
— Медленно загружающиеся клиент-рендеринг сайты получают ограниченные ресурсы краулинга/индексации по сравнению со статическими быстрыми сайтами

5. Связь с Core Web Vitals:

CWV связаны с энергопотреблением за счет сокращения времени/ресурсов на обработку страниц
— Метрики стоимости можно определить только после рендеринга
— Любая стоимость извлечения будет ретроактивной метрикой
— Предположения о стоимости можно делать после сбора достаточного количества данных
— Сеть ссылок показывает ценность, которая распространяется по сети

6. Перспектива коммуникации Google:

— Если бы "стоимость извлечения" была важным фактором, Google, вероятно, более открыто коммуницировал бы об этом, поскольку они обычно делятся рекомендациями о том, как помочь им лучше индексировать веб, и возможно даже создали бы специальную метрику для этого

@MikeBlazerX

Читать полностью…
Subscribe to a channel