mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Когда Google анонсировал Helpful Content Update, ИМЕННО ОНИ официально заявили, что восстановление возможно, и что сайты могут начать возвращать трафик после внесения изменений и улучшений, которые снимут классификатор, подавляющий трафик сайтов.

На самом деле, есть даже запись, где Google изначально утверждал, что восстановление возможно "в течение нескольких недель".

Конечно, эта формулировка постепенно изменилась на "несколько месяцев", а затем на еще более расплывчатые временные рамки, вплоть до настоящего момента — где Google на нескольких Creator Summits — включая один пару недель назад — заявил, что "мы все еще работаем над этим и относимся к этому серьезно; это не мгновенное решение".

Владельцы сайтов ловили каждое слово Google и ждали месяцами — инвестируя в внешнюю поддержку и кардинально перестраивая свои сайты — хоть каких-то признаков изменений, которые помогли бы им восстановиться.

Прошло почти 2 года, и очень немногие HCU-сайты увидели какое-либо значительное восстановление, несмотря на кардинальные изменения и улучшения, пишет Лили Рэй.

Это не касается сайтов, затронутых другими обновлениями алгоритма помимо HCU.

Я лично работала над десятками восстановлений на протяжении многих лет, и есть бесчисленные примеры сайтов, которые смогли вернуться в хорошие отношения с Google после попадания под апдейты или санкции.

Это не относится к HCU.

Я говорила с самого начала — кажется, что HCU-сайты "посадили в тюрьму". Я также делала все возможное, чтобы привлечь внимание к тому, насколько несправедливо это для владельцев этих сайтов, и как эти результаты прямо противоречат рекомендациям, которые Google дал нам в начале апдейта.

Моя команда и я работали над различными сайтами, затронутыми HCU, с несколькими отличными кейсами восстановления, но многие сайты не смогли увидеть существенное восстановление.

Мы предоставляли этим клиентам те же рекомендации, которые даем всем клиентам, затронутым обновлениями алгоритма — проверенные временем методы, которые работали годами.

Эти рекомендации всегда основаны на реальном улучшении сайтов и делании их лучше для пользователей.

Я также потратила десятки часов, включая выходные, предоставляя бесплатные советы затронутым владельцам сайтов просто потому, что знала, как сильно это вредит их бизнесу, и хотела помочь.

Мы бы никогда не работали с HCU-клиентами, если бы Google просто был честен с самого начала — большинство сайтов, затронутых HCU, найдут восстановление в течение 2 лет практически невозможным, несмотря на кардинальные изменения.

Опять же, это отличается от поведения других обновлений алгоритма Google.

По моему мнению, нам нужно спрашивать, почему коммуникации Google вокруг этого апдейта так сильно изменились со временем, и почему эти сайты, похоже, получили несправедливое обращение по сравнению со всеми другими обновлениями Google.

@MikeBlazerX

Читать полностью…

Mike Blazer

Психологический и поведенческий маркетинг #1

(это небольшая серия постов, на подобии поста про лифты и зеркала, о новых внедрениях, принятии решений и измерение эффективности)

"Иллюзия Амина" ярко иллюстрирует распространённую бизнес-ловушку: соблазн оптимизации ради узких, легко измеримых показателей эффективности в ущерб менее осязаемым, но жизненно важным факторам.

Рассмотрим отель, который, руководствуясь исключительно соображениями экономии, рассматривает своего швейцара просто как человека, который "открывает дверь".

Автоматическая дверь, согласно такой логике, выполняет эту функцию гораздо дешевле, что приводит к увольнению швейцара.

Однако такая "эффективность" упускает из виду истинную, многогранную ценность швейцара.

Он – приветливое лицо, узнающее постоянных клиентов, помощник с багажом и такси, символ статуса отеля, оправдывающий высокие цены, и ненавязчивый элемент безопасности.

Этот вклад, хотя его и сложнее измерить, чем зарплату, имеет решающее значение для впечатлений гостей и бренда отеля.

Последствия?

Отель, несмотря на "экономию средств", часто сталкивается со снижением лояльности гостей, престижа и общего качества обслуживания.

Вывод очевиден: слишком узкое определение ценности и оптимизация по легко измеряемым показателям могут непреднамеренно разрушить саму суть того, что делает услугу или бизнес по-настоящему ценным.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google I/O 2025

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда SEO-конфа превратилась в дебаты о подпапках и поддоменах

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда клиент хочет перемен… но не хочет ничего менять.

@MikeBlazerX

Читать полностью…

Mike Blazer

Букмарклет ct.css от Гарри Робертса цветовым кодом отмечает степень блокировки рендеринга страниц:

javascript:(function(){ var ct = document.createElement('link'); ct.rel = 'stylesheet'; ct.href = 'https://csswizardry.com/ct/ct.css'; ct.classList.add('ct'); document.head.appendChild(ct); }());;

Или вы можете скачать его отсюда: https://csswizardry.com/ct/

Откройте свою страницу, дождитесь загрузки, нажмите на букмарклет, чтобы увидеть блокирующие рендеринг скрипты и таблицы стилей.

Вот презентация Гарри Робертса о том, как привести свой <head> в порядок: https://speakerdeck.com/csswizardry/get-your-head-straight

Рич Татум переписал букмарклет на чистом JavaScript с несколькими новыми функциями, такими как сворачиваемые детали и экспорт отчета.

Вы можете найти его здесь:

https://richtatum.notion.site/bookmarklet-ct-scan-v2

@MikeBlazerX

Читать полностью…

Mike Blazer

Ты думаешь, что учишься.

Ничего подобного.

Просмотры, чтение и прослушивание ощущаются как прогресс.

Но это не так.

Настоящее обучение происходит, когда ты борешься с идеями, применяешь их и преодолеваешь трудности.

Если кажется легко, ты просто собираешь информацию.

Большинство начинающих основателей и стартап-команд тратят годы в погоне за знаниями вместо мастерства.

Они верят, что больше чтения, больше прослушивания и больше заметок помогут им во всем разобраться.

Но узкое место не в знаниях.

А в реализации.

Тебе не нужно больше советов.

Тебе нужно применять то, что ты уже знаешь.

Если ты не можешь объяснить что-то просто, значит ты этого не понимаешь.

Если урок обещает научить тебя всему за десять минут, его не стоит изучать.

Книги и подкасты тебя не спасут.

Клиенты расскажут тебе всё, что нужно знать.

Основатели, которые быстро учатся, не выглядят умнее.

Они выглядят так, будто совершают ошибки публично, итерируют и быстро исправляют проблемы.

Потому что так оно и есть.

Твой самый большой риск – не провал.

А потратить годы, чувствуя себя продуктивным, вместо того чтобы реально становиться лучше.

Основатели, которые двигаются быстрее всех – те, кто возвращается к основам.

Говори с клиентами вместо того, чтобы говорить о клиентах.

Записывай то, что узнаёшь, вместо того чтобы полагаться на память.

Хорошо решай одну болезненную проблему, прежде чем гнаться за новыми идеями.

Принимай решения сегодня, а не откладывай их на завтра.

Начни сейчас, потому что ожидание никого не сделало великим.

@MikeBlazerX

Читать полностью…

Mike Blazer

Ваш якорный текст может тормозить ваш выход в топ Гугла.

Стратегия Оптимизации Якорного Текста:

1. Разбираемся в типах анкоров

Для сбалансированного ссылочного профиля нужен микс разных типов анкоров:

Целевые анкоры: Содержат любое слово из вашего ключа.
Брендовые анкоры: Название вашего бизнеса/сайта.
URL-анкоры: Сам URL (голый URL).
Тематические анкоры: Более широкая тема вашей страницы.
Прочие анкоры (безанкорка): "Кликни здесь", "этот сайт" и т.д.

Целевые анкоры дают наибольший буст, но перебор с ними грозит санкциями.

2. Избегайте ловушки с распределением

Избегайте шаблонных пропорций анкоров (например, 20% точных вхождений, 30% брендовых).

За такое ваш сайт может отхватить фильтр.

В каждой нише свои естественные паттерны анкоров.

Чтобы найти свое идеальное соотношение:

1. Проанализируйте анкоры топ-5 конкурентов с помощью Ahrefs.
2. Выгрузите и разбейте по категориям каждый анкор.
3. Сделайте сводную таблицу, показывающую распределение по типам.
4. Усредните распределение по всем конкурентам.
5. Это и будет ваше безопасное целевое распределение.

3. Никогда не частите с целевыми анкорами

Никогда не используйте один и тот же целевой анкор дважды.

Если ваш ключ "best protein powder", варианты должны включать:
top protein powders
high-quality protein supplement
protein powder reviews
recommended protein products

4. Лайфхак с SEO-тайтлом

Ваш SEO-тайтл естественным образом используется как якорный текст по всему вебу.

— Убедитесь, что ваш SEO-тайтл содержит целевой ключ.
— Это помогает получать целевые анкоры естественно, не выглядя как манипуляция.
— Когда вы выжали максимум из прямых целевых анкоров, делайте упор на анкоры из SEO-тайтлов.

5. Соотносите анкоры с источниками ссылок

Разные типы ссылок естественным образом используют разные паттерны анкоров:

— Статьи в блогах → Целевые/описательные анкоры.
— Списки ресурсов → Брендовые или URL-анкоры.
— Сайдбары → Тематические или пустые анкоры.
— Форумы → URL или SEO-тайтл.
— Комментарии → Имя автора.

Имитация этих паттернов делает ваш ссылочный профиль естественным для Гугла.

6. Разнообразьте URL-анкоры

Варьируйте форматы ваших URL-анкоров.

Миксуйте с такими вариантами:

https://www.yoursite.com
https://www.yoursite.com/
https://yoursite.com
www.yoursite.com
yoursite.com

Эта мелкая деталь делает ваш профиль гораздо более естественным.

7. Используйте синонимы

Когда вы исчерпали лимит целевых анкоров, используйте синонимы:

Если целитесь в "best car insurance", можете смело использовать:

top automobile coverage
great vehicle protection
quality auto insurance

Гугл понимает, что они связаны, и вы получите релевантность без риска санкций.

8. Окружайте ключевые слова нецелевыми анкорами

Гугл ассоциирует окружающий текст (околоссылочное) с вашей ссылкой, даже если сам анкор общий (безанкорный).

Распространенная ошибка сеошников: зацикливаться на количестве бэклинков, игнорируя качество якорного текста.

Грамотная оптимизация анкоров позволяет обходить конкурентов, имея вдвое меньше ссылок.

Дополнительные факторы для анкорной стратегии:

— Размещение
— Заметность
— Стиль (оформление)
— Вариации в единственном/множественном числе
— Варианты написания (например, британский/американский английский)
— Стратегические опечатки (использовать дозированно, позже исправлять)
— Взаимная релевантность (страница-донор/раздел к странице-акцептору/разделу)
— Картинки + атрибут Alt как текст ссылки
— Обработка Google нескольких ссылок на один и тот же адрес
— Несколько ссылок из одного источника могут снизить вес
— Оптимизированные, релевантные URL, используемые как анкор
— Разнообразьте анкоры ТОЛЬКО при наличии правильной каноникализации (редиректы, каноникал тег/HTTP-хидер, карта сайта), иначе рискуете навредить сайту.

@MikeBlazerX

Читать полностью…

Mike Blazer

Длиннохвостые запросы могут не приносить столько трафика, как высокочастотные, но они действительно дают конверсии.

Посмотрите на средний коэффициент конверсии по длине ключевых слов.

Эти данные получены от 40 компаний, которые запускают поисковую рекламу.

@MikeBlazerX

Читать полностью…

Mike Blazer

Чтобы получать 1к кликов в день, вот что я на самом деле сделал, — говорит Басит:

— Я собрал сущности, а затем добавил их в свой контент.
— Опубликовал 25 статей 8 месяцев назад.
— Добавил свои ключевики в свою ручную разметку Schema (я могу разметить каждое слово 😉, в основном я использую ручную разметку Schema, а не сгенерированную плагинами).
— Мета тайтлы я делал только на основе ключевых слов, никаких других слов там не было.

Потом я забросил этот домен, ссылок не ставил.

Этот домен переживал взлеты и падения во время апдейтов...

Теперь я вернулся к этому сайту, обновил весь контент и разместил "Дату последнего обновления" прямо под H1.

И в течение 3 дней трафик пошел вверх, ранжирование улучшилось.

Все статьи моего блога ранжируются в топ-10.

Еще одна вещь, которую я сделал:

я обратился к ChatGPT и сделал инструмент, который мгновенно ищет слово по всей статье, чтобы читатель мог легко перейти к тому, что ему нужно, вроде якорных ссылок.

Потому что я хотел создать эффект инструмента, так как сайты-инструменты сейчас хорошо ранжируются.

Так какие выводы можно сделать?:

— Обновление контента очень важно, таким образом молодые сайты могут улучшить ранжирование.
— Создание инструментов, специфичных для вашей ниши, также полезно для взаимодействия с пользователем.
— Google также хочет видеть новые изображения в вашей нише, поэтому новые сайты могут ранжироваться в разделе картинок (мой сайт основан на изображениях и тексте).
— Старайтесь выбирать темы строго под пользователя, чтобы никакие AI-обзоры не занимали ваше место в SERP.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы, ребята, походу, не догоняете, в какой заднице сейчас паблишеры.

График из Semrush ниже показывает состояние Techopedia.

За последние несколько месяцев они потеряли 99% своего трафика.

Просто вдумайтесь в это на секунду.

Я тут быстренько поресёрчил и почитал комменты о том, что сайт, возможно, баловался схемами паразитного SEO, но я сейчас не об этом, пишет Джон.

Общая картина пугает, потому что им пришлось уволить десятки авторов и редакторов, лишив людей средств к существованию.

И это не единичный случай, если что.

Это повсюду, и страдают мелкие независимые издатели.

Вспомните Retrododo (падение на 90%), Travel Lemming (минус 94%).

Если вы знаете этих ребят, то в курсе, что они пишут РЕАЛЬНО хороший контент, но их все равно карает HCU.

Я потратил месяцы в 2023 году, изучая апдейт HCU, каждый день зависая на Reddit и форумах, наблюдая, как люди пытаются сделать хоть что-то, чтобы восстановиться.

Я делал заметки, следил за кейсами, отслеживал изменения.

Я так этим всем проникся, что на какое-то время даже разочаровался в SEO.

Вся эта история, честно говоря, угнетала.

Но знаете, что я понял за все это время?

1. Никто толком не шарит, что происходит.

Все только строят догадки и, в лучшем случае, выдвигают более-менее обоснованные предположения.

2. Ко всей этой теме "пиши хороший контент и будешь ранжироваться" я отношусь с огромной долей скепсиса.

Я видел слишком много сайтов, которые штампуют исключительный контент, но все равно продолжают сливать трафик.

Всё намного сложнее.

3. Историй восстановления не так уж много (по крайней мере, когда я последний раз проверял).

Помню одного паблишера, которого накрыло: они переехали на новый домен, снова выросли, только чтобы через месяц-другой их прихлопнуло тем же классификатором.

Всё это восстановление похоже на какую-то лотерею.

4. Поиск сломан.

Google говорит, что им не все равно, но на самом деле это не так.

Недавно читал анализ Кевина Индига, и там все по делу.

Количество zero-click запросов подскочило с 72% до 76% с момента выкатки AI Overviews.

Но поисковые сессии без AI Overviews генерируют ВДВОЕ больше просмотров страниц, чем те, где они есть.

Давайте начистоту, что это значит: Google удерживает пользователей на своих площадках, не отправляя их на сайты, которые изначально и создали этот контент.

Тем временем Google заявляет, что они "растят трафик для экосистемы", что… ну, данные показывают совсем другое.

Вообще.

Вот почему я, как паблишер, научился не слишком полагаться на поисковый трафик.

Сейчас всё решает бренд.

Я диверсифицирую трафик, создаю вечнозеленый контент, наращиваю релевантность в соцсетях.

Это включает создание комьюнити, рассылки, мембершип-модели, инфлюенс-маркетинг, платную рекламу, email-листы.

Всё, что не зависит от показов рекламы из поискового трафика.

Если и есть что-то, что стоит вынести из моего этого спича, так это вот что:

Стройте то, что переживет будущие апдейты.

Потому что БУДЕТ еще один апдейт, и еще один за ним, и еще больше фич, чтобы упростить пользовательский поиск.

Но если вы зацементировали свой бренд в головах людей, у вас хотя бы есть шанс побороться.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как попасть в выдачу ChatGPT?

ChatGPT использует 3 основных юзер-агента:

ChatGPT-User
OAI-SearchBot
GPTBot

ChatGPT-User — это бот, работающий в реальном времени и действующий немедленно на основе промптов.

Ни один из 3 ботов OpenAI не умеет рендерить JavaScript.

Ваш основной контент должен находиться в HTML.

Основные шаги для ранжирования в поиске ChatGPT:

1. Быть проиндексированным в Bing.
2. Быть доступным для ботов OpenAI.

Поисковые запросы в ChatGPT — это в основном хвостовые запросы.

Bing поддерживает IndexNow.

Если ваш сайт на Shopify, Wordpress или Wix, проверьте доступные плагины IndexNow.

ChatGPT иногда использует несколько документов с одного и того же домена.

Иногда ChatGPT "галлюцинирует" `URL`ы.

Если `ChatGPT` продолжает посещать или "галлюцинировать" один и тот же URL, рассмотрите возможность его создания или настройки редиректа.

В настоящее время ChatGPT не краулит файлы llms.txt.

Это логично, поскольку llms.txt более актуален для агентных сценариев использования (agentic use cases).

Если вы укажете ваши XML-сайтмапы в robots.txt, ChatGPT будет их краулить.

А вы знали, что из поиска ChatGPT можно получить JSON с полными списками результатов?

С помощью Inspect > Network > Fetch/XHR вы можете получить доступ к JSON-файлу со всей информацией, которая пошла на генерацию результата.

Для доступа к файлу необходимо быть залогиненным.

В JSON есть разные типы URL:

search_results: все URL
sources_footnotes: основные цитаты
supporting_websites (поддерживающие веб-сайты)
safe_urls (безопасные URL)
blocked_urls: URL, к которым ChatGPT не может получить доступ или не хочет показывать пользователю по соображениям безопасности

Можно использовать инструменты вроде Peec AI для отслеживания нескольких сотен промптов.

Затем посмотрите список самых важных источников по всем этим промптам.

Многие из самых важных источников окажутся сайтами, которые ваши традиционные PR-усилия обошли бы стороной.

Вы можете спросить у ChatGPT, какие атрибуты он учитывает при вынесении рекомендации.

Используйте это для создания действительно холистического контента!

Многие предполагают, что структурированные данные помогают ранжироваться в ChatGPT.

Но пока никто не предоставил данных, подтверждающих это.

@MikeBlazerX

Читать полностью…

Mike Blazer

Меняющаяся экономика веб-контента: парсинг против трафика

По словам главы Cloudflare, соотношение между парсингом контента и объемом привлекаемого ими трафика радикально изменилось, что ставит под угрозу традиционную бизнес-модель веба.

Соотношение объема парсинга к числу привлеченных посетителей:

Google (10 лет назад): 2 спаршенные страницы : 1 привлеченный посетитель
Google (сегодня): 6 спаршенных страниц : 1 привлеченный посетитель
OpenAI: 250 спаршенных страниц : 1 посетитель
Anthropic: 6000 спаршенных страниц : 1 посетитель

Что изменилось?

Google по-прежнему краулит с той же скоростью, что и раньше, но теперь ответы на 75% поисковых запросов даются прямо в СЕРПе Google, и пользователям не нужно переходить на первоисточник.

Эта тенденция резко усиливается в случае с ИИ-компаниями, такими как OpenAI и Anthropic.

Последствия

Этот сдвиг угрожает жизнеспособности создания контента в онлайне.

Когда создатели оригинального контента получают значительно меньше трафика, в то время как их материалы продолжают использоваться, экономические стимулы для создания качественного контента ослабевают.

Как заявляет глава компании: "Если создатели контента не могут извлекать выгоду из того, что они делают, они перестанут создавать оригинальный контент".

Веб-экосистеме нужна новая бизнес-модель, чтобы устранить этот дисбаланс между созданием контента и его доставкой с помощью ИИ.

https://www.cfr.org/event/bernard-l-schwartz-annual-lecture-matthew-prince-cloudflare

@MikeBlazerX

Читать полностью…

Mike Blazer

Вращающиеся Редиректы

Вращающиеся редиректы - это агрессивная SEO-тактика, которая в основном используется в стратегиях "сжечь и заработать" (churn and burn).

Основная идея заключается в постоянном перенаправлении ссылочной массы с забаненного сайта на новый, активный.

Как это работает:

1. Создается сайт, который агрессивно спамится ссылками для быстрого достижения высоких позиций.
2. После монетизации этот сайт в конечном итоге получает санкции от поисковых систем.
3. Вместо потери силы ссылок, построенных на сожженный сайт, внедряются вращающиеся редиректы. Они перенаправляют входящую ссылочную массу на *следующий* новый сайт в последовательности (Сайт A -> Сайт B -> Сайт C и так далее).
4. Сами ссылки считаются хорошими; штраф получает именно *целевой сайт*.

Зачем их использовать?

Сохранение ссылочной ценности: Гарантирует, что ценная ссылочная масса, построенная на сайт, не теряется, когда конкретный домен получает санкции.
Непрерывная монетизация: Позволяет постоянно генерировать доход, быстро перенаправляя силу ссылок на свежий, незабаненный домен.
Упреждение негативных эффектов: Поскольку обработка ссылок Гуглом может задерживаться, смена цели этих ссылок может произойти *до того*, как потенциальное негативное влияние полностью материализуется на текущем монетизируемом сайте.

Ключевые моменты:

— Они активно используются в конкурентных, часто нерегулируемых рынках (например iGaming).
— Хотя технически возможно, автоматизация вращающихся редиректов рискованна и "очень легко всё зафакапить". Критический триггер - точное определение момента, когда сайт получает бан - трудно надежно автоматизировать. Часто предпочтительнее ручное управление опытным специалистом.

@MikeBlazerX

Читать полностью…

Mike Blazer

Из недавних судебных документов стало известно, что внутренние тесты Google показали: даже существенное ухудшение качества поисковой выдачи не повредит их бизнесу.

Такая очевидная невосприимчивость к проблемам с качеством, по-видимому, обусловлена доминирующим положением компании на рынке, на которое и обратил внимание недавний вердикт федерального суда.

> "Поскольку у Google нет реальной конкуренции, он может затруднять поиск лучшей информации, заставляя пользователей дольше оставаться на страницах Google и взаимодействовать с большим количеством рекламы", — отметил Пападимитриу.

> "Это опасно для пользователей, большинство из которых уверены, что лучшие результаты всегда показываются первыми".

Судя по всему, с точки зрения бизнеса эта стратегия работает.

Исследование предполагает, что низкое качество органической выдачи на самом деле выгодно Google по двум причинам:

— платная реклама становится более ценной для пользователей, ищущих точную информацию;
— пользователи вынуждены многократно уточнять свои поисковые запросы, что приводит к большему количеству показов рекламы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Трехлетний путь восстановления после Google Helpful Content Update за 200 000+ долларов

1. Первоначальные широкие действия

— Проанализировали свой архив из 12 000 статей построчно
— Закрыли от индексации тонкий контент
— Удалили мертвые категории и убрали теги
— Наняли настоящих экспертов
— Перестроили редакционную структуру с нуля

2. Консультация с Лили Рей ($600 за 1 час)

Внедрили и протестировали ее рекомендации:
— Понижение/перемещение категорий (изначально не удаляли)
— Сделали категории более детализированными
— Аудит каждого URL
— Усиление внутренней перелинковки
— Добавление текста к страницам с большим количеством видео
— Раздельная подача разделов Discover в Google Publisher Center
— Удаление/изоляция NSFW контента
— Тестирование нового поддомена для Discover
— Удвоение усилий по темам, показывающим жизнь в Discover
— Оценка широты тематического покрытия

3. Чистка и переписывание контента

Зачистили тонкий контент: Закрыли от индексации, отправили в черновики или удалили тысячи статей по метрикам количества слов (менее 200 слов)
Убрали контент с большим количеством вставок: Удалили вставки (TikTok, YouTube, твиты) из ~1300 статей и переписали как оригинальные материалы
Сократили новости/интервью с большим количеством цитат: Переписали или удалили статьи, сильно опирающиеся на цитаты из Reddit, пресс-релизы или заявления знаменитостей
Убрали партнерский контент: Удалили статьи с обзорами продуктов и подборками

4. Редакционные и структурные исправления

Исправили редакционную структуру: Вручную проверили оставшиеся статьи, чтобы добавить внутренние/внешние ссылки, обеспечить несколько изображений и включить встроенное связанное чтение
Удалили все страницы тегов: Полностью их убрали
Тестировали теории E-E-A-T: Привлекли предметных экспертов, создали биографии авторов, перекрестно связали профили и обеспечили высококачественный экспертный контент
Зачистили спящие категории: Полностью удалили целые контентные вертикали (стиль, спорт, груминг), что привело к дальнейшей потере трафика
Работа с YMYL и NSFW:
- Деиндексировали и удалили весь раздел здоровья (~2000 статей)
- Убрали весь мат и потенциально неподходящий язык
- Отредактировали статьи о фитнесе (удалили фото мужчин без рубашек)

5. Технические изменения на уровне сайта

Изменили структуру постоянных ссылок: Перестроили всю систему, чтобы включить подкаталоги для категорий (/watches/article-name), создав тысячи редиректов
Сократили рекламу: Резко урезали программатическую рекламу, зарабатывая только 3-5% от предыдущих доходов с рекламы
Техническое SEO: Ежегодные инвестиции в разработку, тестирование структур постоянных ссылок, конфигураций серверов, Core Web Vitals, краулинга и скорости сайта
Дизавуирование ссылок: Тестировали, но оказалось бесполезным

6. Стратегия публикации

Тестировали частоту публикаций: Варьировали от 8 историй в день (3 дня/неделю) до 1 длинного оригинального материала в день

7. Другие усилия

Анализ конкурентов: Исчерпывающее исследование конкурентов
Google News Initiative: Никакой значимой помощи не обнаружили

Сводка затрат

Общие затраты: 200 000+ долларов за 3 года
Потерянный доход: Значительная потеря доходов с рекламы от сокращения объявлений
Штат: Потеряли много штатных журналистов

Результат

Несмотря на все усилия и расходы, DMARGE не восстановил трафик.
Они "потеряли еще больше трафика и продолжают терять его сегодня."

Финальный результат: Сократились с 12 000 статей до 3 000, сосредоточившись только на часах, автомобилях и деловых путешествиях.

lucwiesman/looking-to-recover-from-the-google-helpful-content-update-or-any-algorithm-update-45c25d0d2b62" rel="nofollow">https://medium.com/@lucwiesman/looking-to-recover-from-the-google-helpful-content-update-or-any-algorithm-update-45c25d0d2b62

@MikeBlazerX

Читать полностью…

Mike Blazer

Большинство AI-агентов (Manus, Operator и т. д.) используют DOM для навигации и понимания структуры страницы.

При этом не используются движения мыши или классические сигналы сенсорного экрана.

Веб-сайты электронной коммерции должны обеспечить доступ AI ко всем важным деталям продуктов, которые были раскрыты пользователем.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google: Это не фактор ранжирования.

Сеошники: Это косвенный сигнал ранжирования

Пользователи: Это, вероятно, как-то полезно для нас

Министерство Юстиции: Это часть алгоритма

@MikeBlazerX

Читать полностью…

Mike Blazer

Вот как выглядит злоупотребление E-E-A-T.

Нет никаких причин для того, чтобы 3 автора ассоциировались со статьей о том, что такое валовая прибыль 😂.

@MikeBlazerX

Читать полностью…

Mike Blazer

Большинство попыток линкбилдинга проваливаются, потому что агентства юзают базы, а не реальный аутрич.

Я постоянно это вижу, когда к нам переходят e-commerce бренды, пишет Триггви.

Их прошлое агентство брало с них тысячи, закупая дешёвые ссылки из баз.

Мы же работаем совершенно иначе.

Мы покупаем новые домены, похожие на домен клиента, для настройки почты.

Мы как следует прогреваем эти аккаунты, чтобы не попадать под спам-фильтры.

Затем мы проводим аутрич от имени вашей компании, а не как очередное SEO-агентство.

Именно поэтому ручной аутрич работает там, где массовые рассылки сливаются.

Каждое письмо, ответ и полученная ссылка отслеживаются в вашем личном дашборде.

Никаких "чёрных ящиков".

Никаких ежемесячных отчётов с туманными обещаниями.

Только реальный линкбилдинг, который реально даёт результат вашему бизнесу.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google теперь обрабатывает временные 302 редиректы так же, как и постоянные 301-е.

Один из наших клиентов перенес весь свой сайт (более 3000 URL) на новый домен, используя 302 редиректы вместо 301-х, — рассказывает Абдерразак.

Что в итоге?

Быстрая деиндексация URL, с которых стояли редиректы.

Всего за 10 дней около 90% их страниц были удалены из индекса Google, и трафик успешно перетек на новый домен.

Это доказывает, что старое убеждение — будто Google не выкидывает из индекса страницы при использовании 302-х редиректов — больше не актуально.

@MikeBlazerX

Читать полностью…

Mike Blazer

Я оптимизирую краулинговый бюджет Гугла через техническое SEO... и вправо, и влево, говорит Суреш.

Я убрал все ненужные запросы и теперь сделал так, что CSS будет подгружаться только когда это абсолютно необходимо для гуглобота.

CSS-запросы снизились с 1022 -> меньше 10 запросов в день.

Магия E-tag.

Размещайте их в HTTP-хидерах.

На прошлой неделе я сделал 2 миграции сайта, и оба имеют одинаковый график!

Показы и клики растут.

Такую тему стоит обсуждать на конференциях, поскольку многие этим не занималиются.

https://developer.mozilla.org/en-US/docs/Web/HTTP/Reference/Headers/ETag

@MikeBlazerX

Читать полностью…

Mike Blazer

Агрессивная скорость наращивания ссылок

Наращивание большого объема ссылок, например, более 20 ссылок в день на одну страницу или 100 гостевых постов... в один и тот же день на новый сайт, определяет агрессивную скорость наращивания ссылок.

Эта тактика, хотя и потенциально ускоряет получение результатов, несет в себе значительные риски.

Опасность: Резкое проседание в позициях

Если это не контролировать, такая высокая скорость, скорее всего, приведет к тому, что ваша страница или сайт резко просядут в позициях.

Если страница без трафика внезапно получит много [ссылок] в день, эта страница может попасть под раздачу.

Неважно, насколько качественные эти ссылки.

Фикс: Маскировка с помощью имитации виральности

Чтобы этому противодействовать, основной метод маскировки — компенсировать часть этих ссылок трафиком, чтобы это выглядело так, будто контент стал вирусным.

Это часто включает в себя:

— Использование трафика, чтобы получение ссылок выглядело естественным.
— Имитацию трафика, который выглядит так, будто он пришел из социальных сетей.
— Постепенное наращивание этого вирусного трафикового сигнала, а не просто скачок с нуля до... 100 000.

Логика?

Google нормально относится к действительно вирусному контенту, который естественным образом и быстро привлекает много ссылок.

Маскировка пытается это имитировать, показывая Google, что это естественно, хотя на самом деле это не так.

Когда высокая скорость *может быть* нормальной:

Однако скорость наращивания ссылок не всегда является красным флагом:

Тип ссылок: Размещение 100 цитирований для локального бизнеса за один день обычно считается приемлемым.
Распределение: Распределение 20 ссылок в день, но на 20 разных страниц ежедневно воспринимается более положительно.
Авторитет домена: Высокоавторитетный сайт вроде Forbes может переварить много ссылок, в то время как какой-нибудь маленький семейный магазинчик может быть ограничен одной-двумя ссылками в день.

@MikeBlazerX

Читать полностью…

Mike Blazer

Расширение Chrome с помощью которого вы получите почасовые данные в GSC

https://chromewebstore.google.com/detail/gsc-unleashed/neagdejkpbhkejmjbkhoaendgeanhjnb

@MikeBlazerX

Читать полностью…

Mike Blazer

Манипуляция отзывами на Trustpilot

Блэкхэт-техника для манипуляции отзывами на Trustpilot предполагает использование функции импорта CSV, доступной пользователям Trustpilot.

1. Необходимое условие: Необходим доступ к Trustpilot Pro.

2. Использование функции импорта: Trustpilot Pro позволяет пользователям импортировать отзывы с других платформ (например, Google) через CSV-файл.

3. Уязвимость: Суть этого эксплойта заключается в отсутствии валидации содержимого загружаемого CSV-файла со стороны Trustpilot.

4. Метод:
— Скачайте ваши легитимные отзывы (например, из Google) в формате CSV.
— Отредактируйте этот CSV-файл, добавив строки с выдуманными, фейковыми отзывами.
— Загрузите модифицированный CSV на Trustpilot.

5. Результат: Эти фейковые отзывы могут отображаться на Trustpilot как настоящие, импортированные отзывы, потенциально даже с отметками "верифицировано" от предполагаемой исходной платформы (например, Google), несмотря на то, что они полностью сфабрикованы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Рецепт успешного аутрича в Телеграме

1. Подписываешься на канал
2. Через пару минут отписываешься
3. Пишешь автору канала, что давно читаешь канал и какой он классный, и спамишь свой оффер
4. Профит

Не благодарите.

@MikeBlazerX

Читать полностью…

Mike Blazer

Копирайтинг - странная работа.

Люди рассказывают вам что-то, вы пересказываете это им меньшим количеством слов, и они вам платят.

@MikeBlazerX

Читать полностью…

Mike Blazer

Народ, чекайте сертификаты доменов!

В этом кейсе смена типа HTTPS-сертификата привела к регрессии на 196.5%, поскольку время TLS увеличилось с 86 до 255 мс (на мобильных P90), пишет Эрвин Хофман.

Предыстория:

— От имени моего клиента я попросил включить HTTP2, чтобы выжать максимум из скорости сайта.
— 1 апреля этот хостер перепробовал всё.
— Но в итоге они также включили сертификат расширенной проверки (EV) для этого домена.

Проблема:

EV-сертификаты также подразумевают использование OCSP stapling,
— что влечёт за собой гораздо более сильное негативное влияние на веб-производительность,
— на что также ясно указывали данные мониторинга RUM CWV.

Решение:

— На самом деле нам нужен был HTTP2, а не ухудшенное время TLS.
— Хостер ещё неделю пытался, но безуспешно.
— Поэтому вчера мы в итоге перенесли весь сайт на другой хостинг.

EV vs DV сертификаты:

Среднестатистическому сайту/магазину вполне достаточно сертификата проверки домена (DV) вместо EV-сертификата.

Более того, браузеры всё равно уже убрали видимое различие между EV и DV.

Именно поэтому этому сайту не был нужен EV-сертификат, и мы решили не включать его после переезда на новый хостинг, чтобы вернуть потерянную производительность.

Самое приятное: мы уже видим улучшения (пока не на этом графике).

@MikeBlazerX

Читать полностью…

Mike Blazer

Первый первоисточник, подтверждающий, что Google использует данные Chrome в качестве сигнала популярности в контексте ранжирования — новые данные Министерства юстиции США:

III. Другие сигналы

eDeepRank. eDeepRank — это LLM-система, которая использует BERT и трансформеры. По сути, eDeepRank пытается брать сигналы на базе LLM и раскладывать их на компоненты, чтобы сделать их более прозрачными. HJ не особо в курсе деталей eDeepRank.

PageRank. Это единичный сигнал, связанный с удаленностью от известного качественного источника, и он используется как входной параметр для показателя качества.

— [redacted] сигнал (популярности), который использует данные `Chrome`.

@MikeBlazerX

Читать полностью…

Mike Blazer

Внутренний документ Google, Trial Exhibit PXR0357, обнародованный в ходе антимонопольного дела США, содержит заявление под присягой вице-президента Google по поиску, Хён-Джина Кима.

Ким показал, что внутренний сигнал Q* (Кью-Стар) играет "чрезвычайно важную" роль в ранжировании.

Этот сигнал, согласно документу, оценивает качество отдельных страниц, но Google, вероятно, интерпретирует эти оценки в контексте всего сайта.

Название Q* публично не объяснялось. "Q" традиционно означает "Quality" (качество) (как в PQ, HQE, QRG), а "*" может означать 'wildcard' или обобщенную комплексную оценку, делая Q* потенциальной мета-метрикой: системной, расчетной оценкой доверия, а не просто баллом.

Если контент не ранжируется или трафик падает, несмотря на оптимизацию и качество, недостающий элемент — Q*, а не ключевые слова или бэклинки.

Сигнал работает незаметно и системно в фоновом режиме.

Оценка Q* на уровне документа, интерпретируемая в масштабе домена, объясняет пользу удаления слабых, малоценных или нерелевантных страниц для крупных сайтов.

Удаляя "Q*-low-performers" (страницы с низким Q*), такие как дубли и малоценный контент, сайт снижает балласт в индексе, защищает системное доверие домена и улучшает его совокупный профиль доверия.

Доверие не просто зарабатывается, а рассчитывается Q* – вероятно, на основе пользовательских сигналов, ссылочных паттернов, рисков спама и поведения бренда.

Симптомы низкого Q*:
— обвал CTR,
— волатильность позиций,
— контент, выглядящий "деприоритизированным",
что указывает на потерю доверия со стороны системы.

Ханнс Кроненберг задокументировал более 20 случаев в сегменте, где домены систематически менялись видимостью: прирост одного почти зеркально отражал потери другого.

Этот феномен, названный "порядок ранжирования Q*", предполагает, что кажущиеся эффекты от обновления ядра часто являются внутрисегментной "гонкой за доверием".

Проигрыш в этой гонке означает потерю не только позиций, но и системной релевантности, даже при качественном контенте.

Чтобы повлиять на Q*, нужно забыть о краткосрочных хаках, так как он реагирует на долгосрочное поведение.

Q*, по сообщениям, отдает предпочтение брендам, узнаваемости и последовательности, демонстрируемым месяцами.

Google доверяет не "хорошим", а тем, кто ведет себя как уже доверенные им сущности.

Прогнозируется, что Q* может стать новым PageRank: публично неизмеряемым, напрямую не контролируемым, но решающим.

Сеошники, оптимизирующие только под ключевые слова, рискуют упустить этот фундаментальный сигнал.

Команды, стратегически выстраивающие доверие через поведение пользователей, узнаваемость и управление брендом, будут не просто конкурировать за видимость, а получат системное предпочтение.

https://www.linkedin.com/pulse/google-enth%C3%BCllt-q-der-unsichtbare-trust-score-kosten-kann-kronenberg-2dude/

Еще нюансы:

— У Гугла есть внутренний дебаггер, в котором они могут смотреть веса сигналов для каждого документа по конкретному запросу.

— Традиционный подход Гугла к ранжированию напоминал Okapi BM25 — это функция ранжирования, используемая для оценки релевантности документов по отношению к заданному поисковому запросу.

RankEmbed — это дуал-энкодер модель (dual encoder model), которая эмбеддит (преобразует в векторное представление) и запрос, и документ в пространство эмбеддингов (embedding space).

— Пространство эмбеддингов (embedding space) учитывает семантические свойства запроса и документа наряду с другими сигналами.

— Выборка и ранжирование затем представляют собой скалярное произведение (dot product) (меру расстояния в пространстве эмбеддингов).

Navboost описывается как QD table (таблица "query-document" - таблица поиска "запрос-документ"). Она используется в обоих направлениях и содержит счетчики/частоты (counts/frequencies) пользовательской активности по запросам (user query activity) для каждого документа.

@MikeBlazerX

Читать полностью…
Subscribe to a channel