mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Длиннохвостые запросы могут не приносить столько трафика, как высокочастотные, но они действительно дают конверсии.

Посмотрите на средний коэффициент конверсии по длине ключевых слов.

Эти данные получены от 40 компаний, которые запускают поисковую рекламу.

@MikeBlazerX

Читать полностью…

Mike Blazer

Чтобы получать 1к кликов в день, вот что я на самом деле сделал, — говорит Басит:

— Я собрал сущности, а затем добавил их в свой контент.
— Опубликовал 25 статей 8 месяцев назад.
— Добавил свои ключевики в свою ручную разметку Schema (я могу разметить каждое слово 😉, в основном я использую ручную разметку Schema, а не сгенерированную плагинами).
— Мета тайтлы я делал только на основе ключевых слов, никаких других слов там не было.

Потом я забросил этот домен, ссылок не ставил.

Этот домен переживал взлеты и падения во время апдейтов...

Теперь я вернулся к этому сайту, обновил весь контент и разместил "Дату последнего обновления" прямо под H1.

И в течение 3 дней трафик пошел вверх, ранжирование улучшилось.

Все статьи моего блога ранжируются в топ-10.

Еще одна вещь, которую я сделал:

я обратился к ChatGPT и сделал инструмент, который мгновенно ищет слово по всей статье, чтобы читатель мог легко перейти к тому, что ему нужно, вроде якорных ссылок.

Потому что я хотел создать эффект инструмента, так как сайты-инструменты сейчас хорошо ранжируются.

Так какие выводы можно сделать?:

— Обновление контента очень важно, таким образом молодые сайты могут улучшить ранжирование.
— Создание инструментов, специфичных для вашей ниши, также полезно для взаимодействия с пользователем.
— Google также хочет видеть новые изображения в вашей нише, поэтому новые сайты могут ранжироваться в разделе картинок (мой сайт основан на изображениях и тексте).
— Старайтесь выбирать темы строго под пользователя, чтобы никакие AI-обзоры не занимали ваше место в SERP.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы, ребята, походу, не догоняете, в какой заднице сейчас паблишеры.

График из Semrush ниже показывает состояние Techopedia.

За последние несколько месяцев они потеряли 99% своего трафика.

Просто вдумайтесь в это на секунду.

Я тут быстренько поресёрчил и почитал комменты о том, что сайт, возможно, баловался схемами паразитного SEO, но я сейчас не об этом, пишет Джон.

Общая картина пугает, потому что им пришлось уволить десятки авторов и редакторов, лишив людей средств к существованию.

И это не единичный случай, если что.

Это повсюду, и страдают мелкие независимые издатели.

Вспомните Retrododo (падение на 90%), Travel Lemming (минус 94%).

Если вы знаете этих ребят, то в курсе, что они пишут РЕАЛЬНО хороший контент, но их все равно карает HCU.

Я потратил месяцы в 2023 году, изучая апдейт HCU, каждый день зависая на Reddit и форумах, наблюдая, как люди пытаются сделать хоть что-то, чтобы восстановиться.

Я делал заметки, следил за кейсами, отслеживал изменения.

Я так этим всем проникся, что на какое-то время даже разочаровался в SEO.

Вся эта история, честно говоря, угнетала.

Но знаете, что я понял за все это время?

1. Никто толком не шарит, что происходит.

Все только строят догадки и, в лучшем случае, выдвигают более-менее обоснованные предположения.

2. Ко всей этой теме "пиши хороший контент и будешь ранжироваться" я отношусь с огромной долей скепсиса.

Я видел слишком много сайтов, которые штампуют исключительный контент, но все равно продолжают сливать трафик.

Всё намного сложнее.

3. Историй восстановления не так уж много (по крайней мере, когда я последний раз проверял).

Помню одного паблишера, которого накрыло: они переехали на новый домен, снова выросли, только чтобы через месяц-другой их прихлопнуло тем же классификатором.

Всё это восстановление похоже на какую-то лотерею.

4. Поиск сломан.

Google говорит, что им не все равно, но на самом деле это не так.

Недавно читал анализ Кевина Индига, и там все по делу.

Количество zero-click запросов подскочило с 72% до 76% с момента выкатки AI Overviews.

Но поисковые сессии без AI Overviews генерируют ВДВОЕ больше просмотров страниц, чем те, где они есть.

Давайте начистоту, что это значит: Google удерживает пользователей на своих площадках, не отправляя их на сайты, которые изначально и создали этот контент.

Тем временем Google заявляет, что они "растят трафик для экосистемы", что… ну, данные показывают совсем другое.

Вообще.

Вот почему я, как паблишер, научился не слишком полагаться на поисковый трафик.

Сейчас всё решает бренд.

Я диверсифицирую трафик, создаю вечнозеленый контент, наращиваю релевантность в соцсетях.

Это включает создание комьюнити, рассылки, мембершип-модели, инфлюенс-маркетинг, платную рекламу, email-листы.

Всё, что не зависит от показов рекламы из поискового трафика.

Если и есть что-то, что стоит вынести из моего этого спича, так это вот что:

Стройте то, что переживет будущие апдейты.

Потому что БУДЕТ еще один апдейт, и еще один за ним, и еще больше фич, чтобы упростить пользовательский поиск.

Но если вы зацементировали свой бренд в головах людей, у вас хотя бы есть шанс побороться.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как попасть в выдачу ChatGPT?

ChatGPT использует 3 основных юзер-агента:

ChatGPT-User
OAI-SearchBot
GPTBot

ChatGPT-User — это бот, работающий в реальном времени и действующий немедленно на основе промптов.

Ни один из 3 ботов OpenAI не умеет рендерить JavaScript.

Ваш основной контент должен находиться в HTML.

Основные шаги для ранжирования в поиске ChatGPT:

1. Быть проиндексированным в Bing.
2. Быть доступным для ботов OpenAI.

Поисковые запросы в ChatGPT — это в основном хвостовые запросы.

Bing поддерживает IndexNow.

Если ваш сайт на Shopify, Wordpress или Wix, проверьте доступные плагины IndexNow.

ChatGPT иногда использует несколько документов с одного и того же домена.

Иногда ChatGPT "галлюцинирует" `URL`ы.

Если `ChatGPT` продолжает посещать или "галлюцинировать" один и тот же URL, рассмотрите возможность его создания или настройки редиректа.

В настоящее время ChatGPT не краулит файлы llms.txt.

Это логично, поскольку llms.txt более актуален для агентных сценариев использования (agentic use cases).

Если вы укажете ваши XML-сайтмапы в robots.txt, ChatGPT будет их краулить.

А вы знали, что из поиска ChatGPT можно получить JSON с полными списками результатов?

С помощью Inspect > Network > Fetch/XHR вы можете получить доступ к JSON-файлу со всей информацией, которая пошла на генерацию результата.

Для доступа к файлу необходимо быть залогиненным.

В JSON есть разные типы URL:

search_results: все URL
sources_footnotes: основные цитаты
supporting_websites (поддерживающие веб-сайты)
safe_urls (безопасные URL)
blocked_urls: URL, к которым ChatGPT не может получить доступ или не хочет показывать пользователю по соображениям безопасности

Можно использовать инструменты вроде Peec AI для отслеживания нескольких сотен промптов.

Затем посмотрите список самых важных источников по всем этим промптам.

Многие из самых важных источников окажутся сайтами, которые ваши традиционные PR-усилия обошли бы стороной.

Вы можете спросить у ChatGPT, какие атрибуты он учитывает при вынесении рекомендации.

Используйте это для создания действительно холистического контента!

Многие предполагают, что структурированные данные помогают ранжироваться в ChatGPT.

Но пока никто не предоставил данных, подтверждающих это.

@MikeBlazerX

Читать полностью…

Mike Blazer

Меняющаяся экономика веб-контента: парсинг против трафика

По словам главы Cloudflare, соотношение между парсингом контента и объемом привлекаемого ими трафика радикально изменилось, что ставит под угрозу традиционную бизнес-модель веба.

Соотношение объема парсинга к числу привлеченных посетителей:

Google (10 лет назад): 2 спаршенные страницы : 1 привлеченный посетитель
Google (сегодня): 6 спаршенных страниц : 1 привлеченный посетитель
OpenAI: 250 спаршенных страниц : 1 посетитель
Anthropic: 6000 спаршенных страниц : 1 посетитель

Что изменилось?

Google по-прежнему краулит с той же скоростью, что и раньше, но теперь ответы на 75% поисковых запросов даются прямо в СЕРПе Google, и пользователям не нужно переходить на первоисточник.

Эта тенденция резко усиливается в случае с ИИ-компаниями, такими как OpenAI и Anthropic.

Последствия

Этот сдвиг угрожает жизнеспособности создания контента в онлайне.

Когда создатели оригинального контента получают значительно меньше трафика, в то время как их материалы продолжают использоваться, экономические стимулы для создания качественного контента ослабевают.

Как заявляет глава компании: "Если создатели контента не могут извлекать выгоду из того, что они делают, они перестанут создавать оригинальный контент".

Веб-экосистеме нужна новая бизнес-модель, чтобы устранить этот дисбаланс между созданием контента и его доставкой с помощью ИИ.

https://www.cfr.org/event/bernard-l-schwartz-annual-lecture-matthew-prince-cloudflare

@MikeBlazerX

Читать полностью…

Mike Blazer

Вращающиеся Редиректы

Вращающиеся редиректы - это агрессивная SEO-тактика, которая в основном используется в стратегиях "сжечь и заработать" (churn and burn).

Основная идея заключается в постоянном перенаправлении ссылочной массы с забаненного сайта на новый, активный.

Как это работает:

1. Создается сайт, который агрессивно спамится ссылками для быстрого достижения высоких позиций.
2. После монетизации этот сайт в конечном итоге получает санкции от поисковых систем.
3. Вместо потери силы ссылок, построенных на сожженный сайт, внедряются вращающиеся редиректы. Они перенаправляют входящую ссылочную массу на *следующий* новый сайт в последовательности (Сайт A -> Сайт B -> Сайт C и так далее).
4. Сами ссылки считаются хорошими; штраф получает именно *целевой сайт*.

Зачем их использовать?

Сохранение ссылочной ценности: Гарантирует, что ценная ссылочная масса, построенная на сайт, не теряется, когда конкретный домен получает санкции.
Непрерывная монетизация: Позволяет постоянно генерировать доход, быстро перенаправляя силу ссылок на свежий, незабаненный домен.
Упреждение негативных эффектов: Поскольку обработка ссылок Гуглом может задерживаться, смена цели этих ссылок может произойти *до того*, как потенциальное негативное влияние полностью материализуется на текущем монетизируемом сайте.

Ключевые моменты:

— Они активно используются в конкурентных, часто нерегулируемых рынках (например iGaming).
— Хотя технически возможно, автоматизация вращающихся редиректов рискованна и "очень легко всё зафакапить". Критический триггер - точное определение момента, когда сайт получает бан - трудно надежно автоматизировать. Часто предпочтительнее ручное управление опытным специалистом.

@MikeBlazerX

Читать полностью…

Mike Blazer

Из недавних судебных документов стало известно, что внутренние тесты Google показали: даже существенное ухудшение качества поисковой выдачи не повредит их бизнесу.

Такая очевидная невосприимчивость к проблемам с качеством, по-видимому, обусловлена доминирующим положением компании на рынке, на которое и обратил внимание недавний вердикт федерального суда.

> "Поскольку у Google нет реальной конкуренции, он может затруднять поиск лучшей информации, заставляя пользователей дольше оставаться на страницах Google и взаимодействовать с большим количеством рекламы", — отметил Пападимитриу.

> "Это опасно для пользователей, большинство из которых уверены, что лучшие результаты всегда показываются первыми".

Судя по всему, с точки зрения бизнеса эта стратегия работает.

Исследование предполагает, что низкое качество органической выдачи на самом деле выгодно Google по двум причинам:

— платная реклама становится более ценной для пользователей, ищущих точную информацию;
— пользователи вынуждены многократно уточнять свои поисковые запросы, что приводит к большему количеству показов рекламы.

@MikeBlazerX

Читать полностью…

Mike Blazer

В ближайшие 10 лет ценность "образовательного контента блогов" как маркетинговой стратегии снизится до нуля.

Практически все информационные запросы будут решаться с помощью LLMs в тех местах, где мы уже проводим время: в наших приложениях для обмена сообщениями и ведения заметок, в наших почтовых клиентах, в наших социальных сетях.

Не будет никаких причин посещать ресурсный центр случайной SaaS-компании только для того, чтобы найти полезную информацию.

Появятся сотни гораздо более удобных способов доступа к информации, каждый из которых будет персонализирован с учетом конкретных потребностей и предпочтений каждого пользователя.

Мы сможем получать информацию именно в том формате, в котором нам нужно: на том языке и в том тоне, которые нам нравятся, в контексте наших предыдущих разговоров, в тех местах, где мы хотим ее видеть.

Не останется места для перепечатанного контента из Википедии, размещенного на одной из сотен похожих статических HTML-страниц.

Никто не будет мириться с трениями, вызванными контент-маркетингом.

Пользователи больше не будут испытывать неудобства, просматривая корпоративные задворки Интернета, чтобы узнать, как установить программное обеспечение или приготовить обычное блюдо.

Компании больше не будут получать экономическую выгоду от простого информационного арбитража.

Неустойчивое перемирие, которое мы терпели в течение последнего десятилетия, закончится.

Мы наконец-то поставим точку в эпохе информационного арбитража как доминирующей маркетинговой стратегии.

Но вот в чем суть: маркетинг существовал до появления этой странной маленькой лазейки, и он будет существовать после нее.

Маркетинговые стратегии, которые сегодня находятся на подъеме, не являются новыми или необычными: мероприятия, брендинг, реклама, социальные сети.

Мы не отказываемся от маркетингового сценария, а просто пропускаем его.

Каждая маркетинговая тактика является частью цикла внедрения, насыщения и отказа.

Технологии ускорили этот процесс, но он существовал всегда.

Страшно видеть, как доминирующая маркетинговая стратегия последнего десятилетия сжимается и увядает с такой угрожающей скоростью, но это не должно быть неожиданностью.

Закон плохих кликов всегда побеждает: когда какая-либо тактика становится слишком популярной, ее эффективность начинает снижаться.

LLM значительно ускорили этот процесс, но, на мой взгляд, мы уже давно находимся на нисходящей кривой "образовательного контента для блогов".

Работа с такими изменениями — часть нашей работы.

Маркетинг — это постоянное стремление к новизне: как мы можем быть заметными и отличаться от других компаний?

Лучшие маркетологи гибки, критичны и достаточно рискованны, чтобы пробовать новые, странные, нарушающие шаблоны стратегии без гарантии успеха.

Люди, которые наиболее привязаны к "контентной" части "контент-маркетинга", могут столкнуться с трудностями в ближайшие несколько лет, но те, кто принимает "маркетинговую" часть своей работы, ждет фантастическое десятилетие.

@MikeBlazerX

Читать полностью…

Mike Blazer

Я не могу не улыбаться каждый раз, когда вижу, как Ahrefs показывает эти два противоречивых метрики.

Как можно легко ранжироваться по ключу с таким высоким поисковым объемом?

@MikeBlazerX

Читать полностью…

Mike Blazer

На прошлой неделе я принял звонок от одного из ведущих агентств по оптимизации LLM, рассказывает Зак Нотс.

Как сеошнику, мне было очень интересно.

Вот их предложение, вместе с моими мыслями...

— За $15К+ в месяц они будут поддерживать ваше ранжирование по одному ключевому слову в ChatGPT.

Если вы не ранжируетесь, вы не платите.

Я был довольно удивлен, услышав, что они предлагают такую структуру оплаты, особенно учитывая, что результаты меняются от промпта к промпту.

Они сказали, что больше всего тяги получают в B2B.

Учитывая стоимость, я думаю, вполне вероятно, что некоторые компании из Fortune 500, такие как Salesforce, платят за топовые ключи вроде "Best CRM".

— Они добиваются высоких позиций, манипулируя природой Reinforcement Learning (RL) у LLM; предоставляя "фидбек" LLM для изменения их выдачи.

Я точно не знаю, как это выглядит, но предполагаю, что это происходит в форме пользовательских ответов на изначальный промпт.

Это удивило меня, потому что я думал, что RL происходит отдельно, во время обучения.

Я спросил, используют ли они ботов или что-то вроде Amazon Turk, и они сказали, что используют оба метода.

— Они также манипулируют референсными документами, которые цитируют LLM, и эти документы могут находиться как на домене клиента, так и вне его.

Что касается изменений вне домена, это фактически возвращает нас в 2012 год до Penguin, когда покупные ссылки двигали позиции.

— Они утверждали, что трафик от LLM в GA4 часто неправильно атрибутируется как прямой, поэтому реальная ценность трафика намного выше, чем осознает большинство брендов.

Я видел, что и другие говорят то же самое об этом.

Это заставляет меня думать, что многие бренды, платящие за эту услугу, не рассчитывают на солидный трекинг и атрибуцию, это топовое $$$ повышение узнаваемости бренда.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда уходящее SEO-агентство передает проект новому.

@MikeBlazerX

Читать полностью…

Mike Blazer

Топ Гугла в рилтайме

@MikeBlazerX

Читать полностью…

Mike Blazer

Хоть Google и может измерять "консенсус", это не значит, что ваша страница должна соответствовать этому консенсусу для ранжирования. ⤵️

Существует много поисковых запросов, на которые нет объективно "правильного" ответа, и поэтому Google может стремиться предоставить различные точки зрения. 🚦

Это может объяснить, почему вы не ранжируетесь.

Если вы создали контент, "соответствующий консенсусу", а ваш клиент спрашивает: "Почему мы не ранжируемся, когда наш контент лучше по всем параметрам чем тот, что на позициях #2 и #4" - это может быть правдой, но Google специально хочет разместить на этих позициях нейтральные или несогласные с консенсусом документы. ☝️

Дело не в том, что ваш контент плохой, просто он не вписывается в рецепт того, что они пытаются приготовить! 👨‍🍳

@MikeBlazerX

Читать полностью…

Mike Blazer

Жизнь в налоговом раю: переезд из Германии на Кипр

Переезд из Германии на Кипр, чтобы уйти от налоговой ставки в 50% в пользу более привлекательных 12.5%, на бумаге казался идеальной оптимизацией в Excel-табличке, пишет Оле Леманн.

Будучи "табличным гуру" в Берлине, это казалось взломом секретного кода, но реальность показала, что я решал совершенно не то уравнение.

Жизнь в налоговой гавани оказалась гораздо сложнее и затратнее, чем ожидалось, фактически разделяя тебя как личность, когда вся жизнь организована вокруг налоговой оптимизации.

Требование о 60-дневном резидентстве на Кипре, которое изначально казалось выполнимым, в итоге стало контролировать каждый аспект жизни.

Визиты к семье, командировки и спонтанные возможности превратились в сложные расчеты риск-менеджмента резидентства.

По сути, одно ограничение (высокие налоги) сменилось другим (постоянный подсчет дней).

Физическая удаленность от основных инновационных хабов вроде SF, NYC и Сингапура оказалась губительной для развития бизнеса.

Находиться вдали от реальных инновационных центров стоит дороже любой налоговой экономии – энергетику и возможности, циркулирующие в этих локациях, невозможно воспроизвести в налоговом раю.

Бизнес растет медленнее в налогово-эффективных зонах, независимо от экономии на бумаге, при этом теряется доступ к критически важным драйверам роста бизнеса.

Проблемы с инфраструктурой и логистикой создавали постоянное трение, превращая простые задачи в многоступенчатые челленджи.

Обычная стойка для приседаний ехала три недели из-за особенностей логистики ЕС и островного положения.

Базовые бизнес-потребности сталкивались с повышенными расходами на доставку, а содержание нескольких жилищ плюс частые экстренные перелеты быстро съели обещанную налоговую экономию.

Профессиональная сеть контактов деградировала несмотря на Zoom-коллы, поскольку ничто не могло заменить случайные знакомства в реальных инновационных хабах.

Среда налоговой гавани привлекала людей с мышлением защиты капитала, а не его создания, где разговоры крутились вокруг налоговых схем вместо создания значимых венчуров.

Окружение не стимулирует создавать что-то значимое, потому что все здесь временно.

Психологическое влияние оказалось существенным.

Идентичность сместилась от гордого местного предпринимателя, создающего что-то значимое, до очередного экспата в погоне за налоговыми льготами.

Настоящая проблема Германии была не только в налоговой ставке, но в фундаментальном анти-предпринимательском настрое – однако обмен этого на место, ценящее только низкие налоги, не стал улучшением.

Жизнь с временным мышлением создала странное лимбо-состояние с вечной 70%-ной вовлеченностью во все – никаких инвестиций в правильное обустройство дома или офиса.

Построение длительных отношений стало практически невозможным из-за постоянной текучки людей, поддерживающих минимальные требования резидентства.

Комьюнити никогда не укреплялось, так как люди исчезали на месяцы, ненадолго возвращаясь, чтобы снова исчезнуть.

Налоговая оптимизация обошлась ценой реальной оптимизации жизни.

Урок очевиден - если вы не стали бы жить в месте, где нет налоговых преимуществ, не живите там ради налоговых преимуществ.

Истинная цена налоговой оптимизации оплачивается более ценными валютами: временем, энергией, комьюнити и душевным спокойствием.

@MikeBlazerX

Читать полностью…

Mike Blazer

Первичное ранжирование vs. Повторное ранжирование - Понимание гибридного конвейера оценки Google

Разберём на реальном примере SEO для казино 👇

1. Первичное ранжирование основано на статистической семантике:

Оцениваются сущности, предикаты и распределение фраз.

Здесь начинается индексация - показывая, что вы существуете в семантическом пространстве.

2. Повторное ранжирование происходит через сентенциальную семантику:

Точность, согласованность и извлекаемый смысл вашего контента определяют, поднимитесь вы или упадёте.

Дело не в том, чтобы один раз попасть в ранжирование.

А в том, чтобы выжить в циклах оценки.

3. Эти системы опираются на:

— Количественные проверки (структура, PageRank, охват)

— Качественные проверки (точность повествования, согласованность, удовлетворенность пользователей)

➡️ Вот почему некоторые сайты пропускают определенные фильтры.

Они заранее получают доверие благодаря тематическому авторитету, поэтому мгновенно краулятся и приоритизируются.

4. Система Google гибридная.

— Страница с высоким PageRank может быстро получить ранжирование - но плохие поведенческие сигналы или слабый тематический охват = падение.

— Страница с низким PageRank может быть проигнорирована - если только не получит 10 000+ показов и не запустит более глубокую оценку.

5. Это то, что называется конвейером ранжирования.

Новый проект с идентичным контентом набрал органический трафик через этот конвейер за 28 дней.

Каждый пик трафика = новое состояние ранжирования.

Google не вернется полностью к прежнему состоянию.

Он просто продолжает тестировать, может ли страница заменить другую.

Это не просто SEO.

Это наука информационного поиска в действии.

@MikeBlazerX

Читать полностью…

Mike Blazer

Расширение Chrome с помощью которого вы получите почасовые данные в GSC

https://chromewebstore.google.com/detail/gsc-unleashed/neagdejkpbhkejmjbkhoaendgeanhjnb

@MikeBlazerX

Читать полностью…

Mike Blazer

Манипуляция отзывами на Trustpilot

Блэкхэт-техника для манипуляции отзывами на Trustpilot предполагает использование функции импорта CSV, доступной пользователям Trustpilot.

1. Необходимое условие: Необходим доступ к Trustpilot Pro.

2. Использование функции импорта: Trustpilot Pro позволяет пользователям импортировать отзывы с других платформ (например, Google) через CSV-файл.

3. Уязвимость: Суть этого эксплойта заключается в отсутствии валидации содержимого загружаемого CSV-файла со стороны Trustpilot.

4. Метод:
— Скачайте ваши легитимные отзывы (например, из Google) в формате CSV.
— Отредактируйте этот CSV-файл, добавив строки с выдуманными, фейковыми отзывами.
— Загрузите модифицированный CSV на Trustpilot.

5. Результат: Эти фейковые отзывы могут отображаться на Trustpilot как настоящие, импортированные отзывы, потенциально даже с отметками "верифицировано" от предполагаемой исходной платформы (например, Google), несмотря на то, что они полностью сфабрикованы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Рецепт успешного аутрича в Телеграме

1. Подписываешься на канал
2. Через пару минут отписываешься
3. Пишешь автору канала, что давно читаешь канал и какой он классный, и спамишь свой оффер
4. Профит

Не благодарите.

@MikeBlazerX

Читать полностью…

Mike Blazer

Копирайтинг - странная работа.

Люди рассказывают вам что-то, вы пересказываете это им меньшим количеством слов, и они вам платят.

@MikeBlazerX

Читать полностью…

Mike Blazer

Народ, чекайте сертификаты доменов!

В этом кейсе смена типа HTTPS-сертификата привела к регрессии на 196.5%, поскольку время TLS увеличилось с 86 до 255 мс (на мобильных P90), пишет Эрвин Хофман.

Предыстория:

— От имени моего клиента я попросил включить HTTP2, чтобы выжать максимум из скорости сайта.
— 1 апреля этот хостер перепробовал всё.
— Но в итоге они также включили сертификат расширенной проверки (EV) для этого домена.

Проблема:

EV-сертификаты также подразумевают использование OCSP stapling,
— что влечёт за собой гораздо более сильное негативное влияние на веб-производительность,
— на что также ясно указывали данные мониторинга RUM CWV.

Решение:

— На самом деле нам нужен был HTTP2, а не ухудшенное время TLS.
— Хостер ещё неделю пытался, но безуспешно.
— Поэтому вчера мы в итоге перенесли весь сайт на другой хостинг.

EV vs DV сертификаты:

Среднестатистическому сайту/магазину вполне достаточно сертификата проверки домена (DV) вместо EV-сертификата.

Более того, браузеры всё равно уже убрали видимое различие между EV и DV.

Именно поэтому этому сайту не был нужен EV-сертификат, и мы решили не включать его после переезда на новый хостинг, чтобы вернуть потерянную производительность.

Самое приятное: мы уже видим улучшения (пока не на этом графике).

@MikeBlazerX

Читать полностью…

Mike Blazer

Первый первоисточник, подтверждающий, что Google использует данные Chrome в качестве сигнала популярности в контексте ранжирования — новые данные Министерства юстиции США:

III. Другие сигналы

eDeepRank. eDeepRank — это LLM-система, которая использует BERT и трансформеры. По сути, eDeepRank пытается брать сигналы на базе LLM и раскладывать их на компоненты, чтобы сделать их более прозрачными. HJ не особо в курсе деталей eDeepRank.

PageRank. Это единичный сигнал, связанный с удаленностью от известного качественного источника, и он используется как входной параметр для показателя качества.

— [redacted] сигнал (популярности), который использует данные `Chrome`.

@MikeBlazerX

Читать полностью…

Mike Blazer

Внутренний документ Google, Trial Exhibit PXR0357, обнародованный в ходе антимонопольного дела США, содержит заявление под присягой вице-президента Google по поиску, Хён-Джина Кима.

Ким показал, что внутренний сигнал Q* (Кью-Стар) играет "чрезвычайно важную" роль в ранжировании.

Этот сигнал, согласно документу, оценивает качество отдельных страниц, но Google, вероятно, интерпретирует эти оценки в контексте всего сайта.

Название Q* публично не объяснялось. "Q" традиционно означает "Quality" (качество) (как в PQ, HQE, QRG), а "*" может означать 'wildcard' или обобщенную комплексную оценку, делая Q* потенциальной мета-метрикой: системной, расчетной оценкой доверия, а не просто баллом.

Если контент не ранжируется или трафик падает, несмотря на оптимизацию и качество, недостающий элемент — Q*, а не ключевые слова или бэклинки.

Сигнал работает незаметно и системно в фоновом режиме.

Оценка Q* на уровне документа, интерпретируемая в масштабе домена, объясняет пользу удаления слабых, малоценных или нерелевантных страниц для крупных сайтов.

Удаляя "Q*-low-performers" (страницы с низким Q*), такие как дубли и малоценный контент, сайт снижает балласт в индексе, защищает системное доверие домена и улучшает его совокупный профиль доверия.

Доверие не просто зарабатывается, а рассчитывается Q* – вероятно, на основе пользовательских сигналов, ссылочных паттернов, рисков спама и поведения бренда.

Симптомы низкого Q*:
— обвал CTR,
— волатильность позиций,
— контент, выглядящий "деприоритизированным",
что указывает на потерю доверия со стороны системы.

Ханнс Кроненберг задокументировал более 20 случаев в сегменте, где домены систематически менялись видимостью: прирост одного почти зеркально отражал потери другого.

Этот феномен, названный "порядок ранжирования Q*", предполагает, что кажущиеся эффекты от обновления ядра часто являются внутрисегментной "гонкой за доверием".

Проигрыш в этой гонке означает потерю не только позиций, но и системной релевантности, даже при качественном контенте.

Чтобы повлиять на Q*, нужно забыть о краткосрочных хаках, так как он реагирует на долгосрочное поведение.

Q*, по сообщениям, отдает предпочтение брендам, узнаваемости и последовательности, демонстрируемым месяцами.

Google доверяет не "хорошим", а тем, кто ведет себя как уже доверенные им сущности.

Прогнозируется, что Q* может стать новым PageRank: публично неизмеряемым, напрямую не контролируемым, но решающим.

Сеошники, оптимизирующие только под ключевые слова, рискуют упустить этот фундаментальный сигнал.

Команды, стратегически выстраивающие доверие через поведение пользователей, узнаваемость и управление брендом, будут не просто конкурировать за видимость, а получат системное предпочтение.

https://www.linkedin.com/pulse/google-enth%C3%BCllt-q-der-unsichtbare-trust-score-kosten-kann-kronenberg-2dude/

Еще нюансы:

— У Гугла есть внутренний дебаггер, в котором они могут смотреть веса сигналов для каждого документа по конкретному запросу.

— Традиционный подход Гугла к ранжированию напоминал Okapi BM25 — это функция ранжирования, используемая для оценки релевантности документов по отношению к заданному поисковому запросу.

RankEmbed — это дуал-энкодер модель (dual encoder model), которая эмбеддит (преобразует в векторное представление) и запрос, и документ в пространство эмбеддингов (embedding space).

— Пространство эмбеддингов (embedding space) учитывает семантические свойства запроса и документа наряду с другими сигналами.

— Выборка и ранжирование затем представляют собой скалярное произведение (dot product) (меру расстояния в пространстве эмбеддингов).

Navboost описывается как QD table (таблица "query-document" - таблица поиска "запрос-документ"). Она используется в обоих направлениях и содержит счетчики/частоты (counts/frequencies) пользовательской активности по запросам (user query activity) для каждого документа.

@MikeBlazerX

Читать полностью…

Mike Blazer

🆕 Что там с использованием CTR в ранжировании?

Google годами твердил SEO-сообществу, что не использует CTR, но теперь из интервью Панду Наяка, инженера Google Поиска с многолетним стажем, в рамках судебных разбирательств Минюста США, стало известно обратное.

Панду Наяк сообщил Минюсту США:

Один из ранних сигналов измерял, сколько раз ссылка была показана в сравнении с количеством кликов по ней.

Выяснилось, что этот показатель искажался позицией ссылки.

... это модификация, разработанная инженером Google, которая производила расчет ... с учетом (и для устранения искажения, вносимого) позицией ссылки.


Так что, технически, Google не только использует CTR для корректировки ранжирования, но и разработал более совершенные формулы для нормализации данных, учитывающие также позицию ссылки в поисковой выдаче.

Источник — интервью инженера Google Панду Наяка от 31 января 2025 года в рамках антимонопольного дела Минюста США против Google, обнародованное Минюстом 2 мая 2025 года: https://www.justice.gov/atr/media/1398866/dl

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотел бы я, чтобы Google разрешил создать карту сайта, куда я мог бы загрузить очень старые URL и просто сказать: пожалуйста, перестаньте пытаться их запрашивать... эти URL были изменены вот на эти... 8 лет назад, и мы не хотим, чтобы вы продолжали их запрашивать, пишет Гэган Готра.

Google пытается запрашивать в среднем 2.5-3 миллиона старых URL каждую неделю, и они СТАРЫЕ - редирект был сделан еще 8 лет назад!

Заголовки cache-control для старых URL установлены на 1 год.

Для OLD на NEW настроен 301, затем 304 для одного набора URL, а для другого набора это запрос OLD с возвратом 410.

У этого набора OLD нет многих качественных бэклинков, поэтому я решил напрямую возвращать 410, а у другого набора так много качественных ссылок, что поэтому делаю 301.

Но даже для набора с 410 Гуглобот по какой-то причине продолжает делать запросы.

@MikeBlazerX

Читать полностью…

Mike Blazer

После ручных санкций, GeeksforGeeks закрыли доступ к подпапке /community/ своего форума в файле robots.txt, и вот что теперь происходит в результатах поиска...

Вероятно, вместо блокировки в файле robots, им следовало бы установить запрет на индексацию на уровне страницы...

Больше о их бане читайте тут, тут и тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Гайд: как заходить в GSC без футпринтов

@MikeBlazerX

Читать полностью…

Mike Blazer

Python-инструмент для обхода анти-бот страниц Cloudflare с помощью Requests

https://github.com/VeNoMouS/cloudscraper

@MikeBlazerX

Читать полностью…

Mike Blazer

Ваше навигационное меню может стоить вам трафика 📉

Вот почему 👇

Часто сайты используют креативные названия пунктов меню вроде:

❌ "Подарки и радости"
❌ "Для малыша"
❌ "Предметы первой необходимости"

Но проблема в том... что никто не ищет эти фразы.

Вместо этого, попробуйте фразы, которые люди реально ищут:

✅ "Уникальные идеи подарков"
✅ "Подарки для новорожденных"
✅ "Экологичные чистящие средства"

🧠 Простой аудит навигации может привести к быстрым победам в SEO:

1️⃣ Проверьте анкоры в навигационном меню
2️⃣ Проверьте тайтлы этих страниц или ключи, по которым они ранжируются
3️⃣ Замените креативные названия на фразы, которые ваши клиенты реально ищут

Небольшая правка. Большой прирост трафика.

@MikeBlazerX

Читать полностью…

Mike Blazer

Gym Shark получает 319 000 ежемесячных посещений от небрендовых поисковых запросов.

Более $400 000 оценочной стоимости трафика по данным Semrush (на самом деле они зарабатывают гораздо больше).

Их позиции?

— #1 по запросу "sports bra" (27 000 поисков)
— #1 по запросу "workout sets" (22 000)
— #1 по запросу "flared leggings" (27 000)
— #1 по запросу "gym bag" (50 000)
— #1 по запросу "athletic shorts" (10 000)
— #1 по запросу "oversized tees" (10 000)
— #1 по запросу "workout tops" (18 000)

Но спорим, вы никогда не догадаетесь, что является их секретным оружием...

Стратегическая внутренняя перелинковка.

На их страницах коллекций есть:

— Внутренние ссылки, размещенные по всему описанию коллекций
— Множество дополнительных ссылок внизу страниц
— Ссылки на подколлекции с использованием точных анкоров

Если вы посетите их страницу "workout sets", там повсюду ссылки на связанные категории:

Комбинезоны, спортивные комплекты, бесшовные комплекты...

Красиво ли это?

Возможно, нет.

Но это прибильно!

Когда приходится выбирать между эстетикой и дополнительными несколькими миллионами в месяц от органического дохода... выбор кажется очевидным.
-

"Дизайнеры, видимо, ушли с совещания до того, как всё утвердили."

И в этом вся суть.

Это просто обычные текстовые ссылки вверху/внизу страниц коллекций.

Они оптимизированы для МАКСИМАЛЬНОГО дохода через SEO... и руководству Gymshark, которое собирает дополнительные продажи благодаря им, пофиг, как они выглядят.

Что бы вы предпочли: "красивые" страницы или трафик такого уровня?

Да, ссылочный профиль Gymshark – важный фактор их успеха.

Их узнаваемость бренда огромна.

Но если бы они завтра убрали эти "уродливые" внутренние ссылки, их органический небрендовый трафик, вероятно, значительно снизился бы.

Внутренняя перелинковка часто является самым быстрым способом повысить позиции страниц коллекций, особенно когда вы ставите функциональность выше формы.

Многомиллиардные компании это понимают.

Они не позволяют дизайнерским предпочтениям перевесить решения, приносящие доход.

Иногда "уродливое" решение – это то, что оплачивает счета.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда позиции клиента резко упали с #3 до страниц 2-3 по основным запросам в пик сезона, Кевал Шах определил, что Google изменил поисковый интент для этих запросов.

Что произошло

Google переключился с ранжирования страниц категорий товаров на предпочтение главных страниц брендов для целевых запросов клиента.

Решение

Были реализованы три простых шага:

1. Оптимизировали мета-тайтл главной страницы, используя формат "[Запрос] | [Название бренда]"
2. Сделали редирект с ранжирующейся страницы категории на главную, передав ссылочную массу
3. Воссоздали страницу категории с новым URL, чтобы сохранить юзабилити без конкуренции за основные запросы

Результаты

— В течение 24 часов: Позиции улучшились до середины первой страницы
— Через неделю: Клиент достиг #1 позиции по целевым запросам

@MikeBlazerX

Читать полностью…
Subscribe to a channel