mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Как меня дважды кинул один и тот же кандидат

Я ищу Senior Full Stack разраба в RevyOps и, как соло-фаундер, провожу кучу собеседований, пишет Бенджамин Рид.

Откликнулся BARTLOMIEJ CZESLAW JAKUBOW.

Обычно я провожу быстрый скрининговый созвон, просто чтобы понять, нравится ли мне человек.

На звонок пришел чел с польским акцентом; он откликнулся через польский джоб-борд для разрабов, так что все казалось норм.

Но чуйка подсказывала, что происходит какая-то фигня.

На втором собеседовании к звонку подключился мой CTO.

На экране появился совершенно другой человек.

Что за хрень.

Я аж перепроверил.

Это тот же самый человек?

Я прищурился.

Я выплюнул воду.

Это другой человек!

Чтобы убедиться, что я не сошел с ума, я рванул в кабинет к жене.

"Ты должна это заценить. Мне нужно твое мнение".

Она вбежала в мой кабинет.

Я показал ей сравнение: новый парень в Zoom и запись первого звонка.

"Это один и тот же человек?"

Ее ответ был: "Серьезно?

Очевидно, что нет, лол".

Я включил микрофон и немедленно закончил собеседование.

Я загуглил имя "Барта".

И вот оно... он уже кидал других раньше.

"Почему я не чекнул это раньше?" — пробормотал я.

В следующий раз буду умнее.

Мир полон воров, обманщиков и людей, которые хотят тебя использовать.

Как сказал один предприниматель: "Люди приходят в твою жизнь только потому, что им что-то от тебя нужно".

Реальный вопрос в том, хорошие у них намерения или плохие, и могут ли они дать тебе в ответ равную или большую ценность.

Ключевые скиллы здесь — проницательность и умение судить о людях.

Годы найма, увольнений, управления и ведения бизнеса научили меня одному: всегда будь начеку.

Следующий мошенник уже за углом.

@MikeBlazerX

Читать полностью…

Mike Blazer

Код ответа 499 — новая метрика производительности для видимости в AI

Хотя производительность все еще важна для AI Overviews, многие сеошники переходят на серверный рендеринг, думая, что это серебряная пуля для видимости в AI.

Но что происходит, когда ваш сервер слишком долго отвечает?

Сливаются все, включая ботов.

У них просто нет времени ждать, пока вы все загрузите во время поиска в реальном времени.

Когда вы смотрите свои лог-файлы и чекаете, что происходит, нужно искать в логах код ответа 499, объясняет Джейми Индиго.

Этот код — сигнал "Всё, я сдаюсь", тайм-аут на стороне клиента.

Вы увидите его именно от юзер-агентов ChatGPT-User, и это прямой показатель того, что ваша страница была слишком медленной для запроса.

Модель была отправлена за вашей информацией для ответа в реальном времени, но бросила попытку, потому что ваш сервер не смог отдать контент достаточно быстро.

Это осязаемый сигнал, что производительность вашего сайта напрямую влияет на его шансы попасть в AI-ответы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Мы внедрили дропдаун, ориентированный на вовлеченность, вместо заточенного под SEO, и вовлеченность просто взлетела до небес, — говорит Росс Хадженс.

Показатель отказов снизился на 6%, а глубина просмотра выросла на 7%.

Выводы делать пока рано, но поисковый/LLM трафик за тот же период также вырос примерно на 6%.

@MikeBlazerX

Читать полностью…

Mike Blazer

Деконструкция AI Overviews для поиска скрытых запросов Google

Хотя можно использовать языковые модели для экстраполяции "синтетических запросов", которые Google может сгенерить из промпта пользователя, некоторым эти данные кажутся недостаточно реальными, потому что они вероятностные.

Для тех, кому нужен более конкретный метод, мы можем реверс-инжинирить то, что Google на самом деле делает, на основе уже готовых AI Overviews, рассказывает Майк Кинг.

Процесс простой: берем урлы всех лендосов, которые засветились в цитатах AI Overview, и пробиваем все ключи, по которым они ранжируются.

Затем вы пересекаете эти списки ключевиков, чтобы найти общие моменты — те самые ключи, которые встречаются чаще всего во всех цитируемых документах.

Например, для запроса "what is Star Trek?" этот метод покажет самые частые ключевики, общие для всех страниц, которые Гугл заюзал для построения ответа.

Эти пересекающиеся ключевики и есть те самые базовые запросы, которые система Гугла посчитала необходимыми, чтобы ответить на первоначальный промпт юзера.

Так вы получаете набор целей, основанный на том, что Гугл уже сделал, а не на том, что AI мог бы предсказать.

@MikeBlazerX

Читать полностью…

Mike Blazer

Ищете сабдомены, которые используются или использовались раньше?

https://crt.sh предоставляет исторические данные по SSL-сертификатам, по которым можно найти сабы.

Для сеошки может быть полезно поискать сабдомены с хорошим ссылочным, которые сейчас отдают 404.

@MikeBlazerX

Читать полностью…

Mike Blazer

Тест показал: тайтлы длиннее 200 символов увеличили видимость в Google на 15%

Большинство SEO-специалистов никогда не порекомендуют делать тайтлы слишком длинными, но мы обнаружили, что использование тайтлов длиннее 200 символов может иметь огромное влияние.

Джоэл Хедли из Lead Ferno поделился одной из таких стратегий, — говорит Джой Хокинс.

Он тестировал это на тысячах клиентов еще в Patient Pop, добавляя всевозможные названия районов и вставляя их в конец тайтлов.

Конечным результатом стал 15%-ный рост видимости в Google, что означает, что эти сайты начали ранжироваться по гораздо большему числу ключевых слов.

Мы сами используем эту тактику уже много лет, и результаты кристально ясны.

Более того, мы протестировали старый совет "чем короче, тем лучше" и на самом деле увидели падение позиций.

Когда мы вернули длинные тайтлы, их позиции снова выросли.

Дело не в том, чтобы просто впихнуть как можно больше слов в тайтл; дело в стратегии.

Когда вы добавляете названия районов или конкретных городов в свои тайтлы, вы говорите Google: "Эй, мы местные и мы релевантны этому поиску".

Так много компаний упускают этот простой трюк, но он может дать заметную разницу.

@MikeBlazerX

Читать полностью…

Mike Blazer

Хак "мертвых байтов": как внедрить микроразметку прямо в файлы изображений

Хотя большинство людей фокусируются на данных EXIF, которые в основном удаляются при загрузке, существует более надежный способ встроить структурированные данные прямо в изображение.

Мы используем HEX-редактор, чтобы внедрить микроразметку Schema прямо в байты PNG-файла.

Это не метаданные; это часть основной структуры файла.

Процесс включает в себя открытие изображения в HEX-редакторе, прокрутку до самого низа и поиск "мертвых байтов" — пустого пространства прямо перед финальным закрывающим хэшем или информацией об авторских правах.

Это и есть точка вставки.

Вы просто берете свой скрипт микроразметки и вставляете байты прямо в это пустое пространство.

Чтобы это было эффективно, изображение должно быть захостировано.

И вот где эта тактика становится мощной.

Когда вы загружаете измененное изображение в пост Google Business Profile, хостом становится сервер Google.

А поскольку Google позволяет хотлинковать и встраивать их изображения, вы, по сути, используете их собственную инфраструктуру для хостинга и отдачи вашего изображения, обогащенного микроразметкой, — намекает Крис Палмер.

Это позволяет вам отдавать много данных прямо с их платформы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Дорогие сеошники, помните, что ИИ может делать многое из того, что делаете вы, но он вас не заменит, потому что не умеет бодаться с вашей продуктовой/технической командой, чтобы продавить внедрение SEO-рекомендаций :)

@MikeBlazerX

Читать полностью…

Mike Blazer

Аккаунт "публикации" на Medium за $5 может в 10 раз ускорить вашу индексацию

Хотя бесплатные варианты для паразитного SEO, такие как LinkedIn Pulse и Medium, все еще работают очень хорошо, я нашел простую тактику с высоким ROI специально для Medium.

Вместо того чтобы просто использовать бесплатный аккаунт, я создаю на платформе свою собственную "публикацию", что стоит всего 5 долларов в месяц.

Поскольку вы заплатили деньги, Medium относится к этому лучше, и такой контент, как правило, индексируется в 10 раз лучше, чем с бесплатного аккаунта, — объясняет Джеймс Оливер.

Платная публикация считается более трастовой для платформы.

Это одна из моих любимых стратегий, потому что ROI здесь практически 100%; единственные затраты помимо небольшой платы — это ваше время и контент, который можно сгенерить с помощью ИИ, а потом размножить под разные платформы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Чернушный трюк с "ротатором ссылок", который загоняет упрямые страницы в индекс Google

Когда на сайте есть десятки или даже тысячи страниц, которые никак не хотят индексироваться, часто это проблема с краулинговым бюджетом.

Хитрый способ загнать страницы в индекс — использовать так называемый ротатор ссылок, это чернушная стратегия, которая однозначно работает, — говорит Касра Даш.

Процесс начинается с возрастного домена, который мы сначала прокачиваем многоуровневыми ссылками.

Затем мы ставим 301 редирект с этого мощного возрастного домена на одну из наших неиндексируемых страниц.

Через короткое время мы переключаем этот 301 редирект на другую неиндексируемую страницу, затем на следующую, и так далее.

Эта техника размазывает краулинговый сигнал по нескольким упрямым URL, заставляя гуглобота заходить на них и в итоге индексировать.

Это работает благодаря "эффекту эха ссылки".

Когда я ставлю на вас ссылку, вы можете подскочить в позициях.

Но если я уберу эту ссылку, вы, скорее всего, продержитесь на этой позиции четыре-пять месяцев, потому что Google не сразу узнает, что ссылка исчезла.

Ротатор ссылок использует этот принцип: он направляет мощный редирект на страницу на достаточное время, чтобы ее просканировали и проиндексировали, а затем переходит к следующей, оставляя за собой остаточное "эхо" авторитета, которое и держит первые страницы в индексе.

@MikeBlazerX

Читать полностью…

Mike Blazer

Немного диких данных из анализа 3В+ AI-цитирований и 250М+ ответов поисковиков

— Семантические урлы получают на 11.4% больше цитирований.
— Позиции 5-10 в Google вполне рабочие для видимости в AI.
— Статьи-списки и сравнительный контент доминируют (25%+ всех цитирований).
— Мета-дескрипшены, которые "спойлерят" контент, работают лучше.

Цитирования с Reddit рванули вверх на 800%+ (сейчас это 8% всех цитирований).

ChatGPT по-тихому переключился с Bing на гибридный индекс, заюзав SerpApi.

А традиционные сеошные сигналы типа трафика объясняют менее 5% поведения AI в плане цитирований.

Самый удивительный вывод: 37% поисковых запросов к AI имеют "генеративный интент" — юзеры просят AI что-то создать, а не найти.

Это совершенно новый паттерн поискового поведения, под который нам нужно оптимизироваться.

https://speakerdeck.com/joshbly/josh-blyskal-profound-i-analyzed-40-million-search-results-heres-what-i-found

@MikeBlazerX

Читать полностью…

Mike Blazer

Как ИИ-модели оценивают бэклинки: анализ 1000 доменов

В исследовании Semrush проанализировали 1000 доменов и сопоставили метрики бэклинков с упоминаниями в ИИ-моделях вроде ChatGPT, Gemini, гугловских AI Overviews и Perplexity.

И хотя авторитет, основанный на ссылках, влияет на видимость в ИИ, механика тут отличается от классического поиска.

Качество ссылок бьет количество, а nofollow и ссылки с картинок имеют значительный вес.

В рамках методологии сопоставляли упоминания в ИИ с метриками, включая общее число бэклинков, уникальные домены, Authority Score (Ascore) и типы ссылок (follow, nofollow, текстовые, с картинок).

Коэффициенты корреляции Пирсона и Спирмена помогли выявить как линейные, так и нелинейные зависимости.

Это показало пороговые значения, после которых отдача от ссылок резко ускоряется.

Вывод 1: Авторитет — это база, но он не решает всё

Authority Score имеет умеренную, но нелинейную связь с AI Share of Voice (SoV): корреляция по Пирсону ~0.23, по Спирмену ~0.36.

Этот гэп показывает, что рост видимости неравномерен; чтобы получить заметный выхлоп, нужно перешагнуть определенный порог авторитета.

Уникальные домены-доноры коррелируют с видимостью в ИИ сильнее, чем общее количество бэклинков.

Вывод 2: Качество ссылок важнее их количества

Самая сильная связь во всех моделях наблюдалась между Authority Score от Semrush и упоминаниями в ИИ (Пирсон 0.65, Спирмен 0.57).

Это говорит о том, что LLM-ки в первую очередь смотрят на качество ссылок, а Ascore тут — надежный показатель.

Эффект сильно смещен в сторону топов: медианное число упоминаний прыгает с ~21,5 для 8-го дециля авторитетности до ~79,0 для 9-го.

Вес параметра в разных моделях отличается:

Самый большой вес: стандартный ChatGPT

Самый низкий вес: ChatGPT с поиском и Perplexity

Вывод 3: `Nofollow`-ссылки работают почти так же, как `follow`

Данные показывают, что разница в силе корреляции между nofollow и follow ссылками незначительна.

`Follow`-ссылки → Упоминания: Пирсон 0.334, Спирмен 0.504

`Nofollow`-ссылки → Упоминания: Пирсон 0.340, Спирмен 0.509

Эффект отличается в зависимости от платформы:

AI Overviews от Гугла и Perplexity дают наибольший вес стандартным follow-ссылкам.

Gemini и ChatGPT отдают предпочтение nofollow-ссылкам.

Вывод 4: Ссылки с картинок коррелируют сильнее текстовых

Бэклинки с картинок показали более сильную корреляцию с упоминаниями в ИИ, чем текстовые ссылки, особенно для доменов с уже прокачанным авторитетом.

Ссылки с картинок → Упоминания: Пирсон 0.415, Спирмен 0.538

Текстовые ссылки → Упоминания: Пирсон 0.334, Спирмен 0.472

Эта стратегия лучше всего работает на конкретных платформах.

Самая сильная корреляция у Perplexity и ChatGPT с доступом к поиску (Спирмен ≈ 0.53–0.55), а у стандартного ChatGPT, Gemini и гугловских AI Overviews она чуть ниже (Спирмен ≈ 0.46–0.52).

https://www.growth-memo.com/p/how-ai-really-weighs-your-links-analysis

@MikeBlazerX

Читать полностью…

Mike Blazer

Почему противоположное мнение — ключ к видимости в AI Overview

Пару лет назад я предсказывала, что фичерд сниппет в конечном итоге разделится пополам, представляя одну точку зрения "за" или подтверждающую, и одну противоположную точку зрения из другого источника, рассказывает Джейми.

Цель будет в том, чтобы дать общий сбалансированный ответ на вопросы с несколькими гранями.

Это отчасти и произошло с AI-ответами, где у вас сейчас больше шансов быть включенным в качестве источника, если то, что вы говорите, представляет собой другой взгляд на ответ по сравнению со всеми остальными.

Это относится даже к обзорам продуктов; если вы предлагаете иную перспективу, даже негативную, это может повысить вашу видимость.

Например, при обсуждении CRM, вместо того чтобы повторять, что HubSpot и Salesforce хороши, вы могли бы уточнить их сильные стороны, а затем выделить ключевую слабость для определенного кейса.

Вы могли бы сказать, что для отдела продаж, сфокусированного на специфической воронке агентства, не хватает определенной фичи, и порекомендовать другой инструмент, который преуспевает в этой узкой области.

Представляя эти конкретные, противоположные точки зрения, ваш контент становится кандидатом на включение в качестве альтернативного источника информации.

Это дает ИИ шанс охватить весь интент запроса пользователя, потому что теперь он может представить каждую точку зрения на эту тему.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как резкое изменение структуры URL может привести к выпадению сайта из индекса

На своем кейсовом сайте я допустил глупую ошибку: обновление кода изменило всю структуру URL-адресов, — объясняет Джеймс Оливер.

Я обычно создаю сайты и даю им отлежаться, чтобы они набрали возраст, поэтому, когда трафик немного просел, я не сразу понял, что происходит.

Позже, когда я разобрался в проблеме, я попытался вернуть всю структуру сило обратно, как было.

Это было большой ошибкой.

Из-за того, что я слишком часто и быстро менял URL-ы, Гугл просто перестал индексировать весь сайт.

Мораль простая: придерживайтесь основ.

Не нужно мудрить и вносить слишком много безумных изменений, особенно в фундаментальные вещи вроде URL-адресов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Почему наша PR-кампания на £10 000, основанная на данных, сгенерила ноль ценных ссылок

Проработав много лет в индустрии, я решила попробовать этот "новый digital PR" и сделать все по уму.

Я обратилась в YouGov, очень уважаемую исследовательскую компанию, и вместе с ними и PR-агентством мы создали реально интересное исследование, говорит Джудит Льюис.

Это была недешевая затея: когда работаешь с YouGov, это тысячи фунтов только на старте, не говоря уже о вложенном времени на разработку идеи и управление процессом.

Исследование было реально хорошим — я до сих пор от него тащусь, и PR-агентство считало, что оно выстрелит.

Тема была о женщинах и девушках в STEM, сделанная уникальной, интересной и фановой, с целью изменить подходы к привлечению молодежи в эти сферы.

Я был лично в это вовлечена.

Несмотря на все это, кампания была супер эпичным провалом.

Она не взлетела.

Мы получили ноль ценных ссылок от медиа, потому что, видимо, журналисты — народ переменчивый.

Когда я говорю, что мы не получили ничего, я не считаю сайты-агрегаторы пресс-релизов.

Таких ссылок было дохера, и все они были абсолютно бесполезны, но клиент был доволен, видя их количество.

Честно говоря, если бы я сожгла эти 10 000 фунтов, пользы было бы больше — хоть кто-то бы согрелся, в отличие от того выхлопа, что дало мне это исследование.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как улучшение "embedding-оценок" страниц развернуло полуторагодовой спад трафика

Я могу поделиться конкретным примером компании, чей трафик на сайте падал в течение полутора лет, потеряв примерно половину своего объема за этот период.

Вместо широкой контент-стратегии они сосредоточились на очень специфическом процессе оптимизации существующего контента, — говорит Эрик Энге.

Мы определили их сто самых важных страниц и систематически переоптимизировали их с единственной целью — улучшить их embedding-оценки по отношению к целевым запросам.

Этот процесс заключается в систематическом повышении релевантности страницы.

Embedding — это математический способ уловить семантическое значение запроса и страницы, и, улучшая оценку, вы делаете страницу более подходящей для того, что ищут пользователи.

Всего через 30 дней после завершения этих оптимизаций их трафик уже развернулся и вернулся к росту.

Они выросли примерно на 20% и продолжали расти, что демонстрирует прямую связь между улучшением оценок релевантности на уровне страниц и разворотом значительного спада трафика.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как внутренний глоссарий помогает сохранять и приумножать ссылочный вес

Однажды я понял, что мы постоянно ссылаемся на Википедию и dictionary.com на сайтах наших клиентов просто потому, что цитируем сложные юридические термины.

И тут меня осенило: зачем мы сливаем весь этот DR и ссылаемся наружу, когда могли бы сохранить этот ссылочный вес для себя? — отмечает Джейсон Хеннесси.

Это привело нас к созданию нашего собственного огромного внутреннего глоссария.

Мы написали определения для сотен юридических терминов, что создало новый актив для сайта.

Теперь, вместо того чтобы передавать авторитет внешним доменам каждый раз, когда нам нужно определить термин в нашем контенте, мы ссылаемся внутри на страницы нашего собственного глоссария.

Это заставляет ссылочный вес циркулировать внутри нашей собственной экосистемы, укрепляя весь сайт.

@MikeBlazerX

Читать полностью…

Mike Blazer

Трюк без разработчиков, который позволил запустить 5000 SEO-страниц за два месяца

Перед нами стояли амбициозные цели для нашего клиента, New Look, но был критический барьер: отсутствие ресурсов разработки.

Чтобы найти точки роста на падающем рынке моды, мы вышли за рамки нашего обслуживаемого рынка и посмотрели на весь доступный рынок — весь сектор, который мы потенциально могли бы охватить.

Для этого мы создали скрипт для глубокого парсинга Keyword Planner, — объясняет Оливер.

Скормив ему список основных фраз, скрипт вернул более 40 000 потенциальных ключевых слов.

Этот первоначальный список был зашумлен, содержал брендовые запросы и нерелевантные товары.

Учитывая объем, мы разработали ИИ-промпт, который выступил в роли фильтра, сгенерировав список минус-слов, который сократил основной список до 5000 качественных возможностей — микс цветовых вариаций, материалов и стилей.

Создание этого вручную заняло бы у их команды почти 500 дней.

Решение с фасетной навигацией тоже отпало, так как оно было сложным и не настроенным для поисковиков.

У нас была куча возможностей, но не было способа быстро их реализовать.

Прорыв случился благодаря знанию технологического стека сайта от и до.

New Look использует Akamai, что позволило нам превратить задачу из бэклога разработки в простую настройку конфигурации.

Мы создали точную копию сайта на сабдомене, а затем использовали обратный прокси на уровне CDN, чтобы связать его с основным доменом.

Это означало, что любой созданный нами URL будет находиться в подпапке, наследуя полный авторитет сайта, но не затрагивая основной технологический стек.

С этим фреймворком мы могли масштабно создавать категории.

Мы использовали ИИ для массового заполнения всех основных SEO-элементов, копируя фронтенд сайта и придерживаясь тональности бренда.

Чтобы обеспечить немедленную находимость, мы создали автоматические XML и HTML сайтмапы.

Наконец, внутренние ссылки были сгруппированы и созданы программно, открывая эти новые категории для Google и давая нам наилучший шанс на быстрое ранжирование.

Вся техническая настройка была завершена за 21 день, что позволило нам создать более 5000 новых категорий за первые два месяца и сэкономить примерно 40 000 часов ручной работы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Этот метод клоакинга обходит редакторов трастовых сайтов для Parasite SEO

Для паразитного SEO очень сложно купить посты на трастовых государственных или образовательных сайтах, поэтому для получения такой практически недоступной ссылки можно использовать клоакинг.

С обычным паразит-постом вы не можете просто поставить свой скрипт клоакинга на их сайт, так как получить такой уровень доступа невозможно, говорит Доминик Мона.

Решение — клоачить конечный URL, на который ссылается паразит-пост.

Владелец трастового домена отклонит ваше предложение, если увидит, что вы ссылаетесь на что-то вроде iGaming или гэмблинг-сайта.

Так что, чтобы пост одобрили, вы настраиваете клоакинг на своей стороне.

Это можно сделать по IP, геолокации или стране.

Например, если владелец сайта находится в США, вы можете заблочить всех пользователей из США от просмотра реального контента.

Когда владелец кликает по ссылке, чтобы чекнуть вашу страницу, ему показывается "белая" версия, например, только с регулируемыми брендами.

Поскольку он видит безопасную страницу, он одобряет пост.

Однако для всех остальных пользователей вы можете показывать реальный контент — другой лендос с другими, или даже нерегулируемыми, брендами.

Мы даже можем настроить клоакинг по рефереру; система проверяет, идет ли трафик с этого конкретного трастового домена, и затем показывает клоаченный контент только этим пользователям.

Это помогает получить жирный трафик с мощного сайта, который обычно бы вас отклонил.

@MikeBlazerX

Читать полностью…

Mike Blazer

Программатик SEO — лучший способ повысить видимость в LLM.

Представим, что конкурируют два бренда автострахования:

👉 У бренда А есть навороченная страница с ценами.

Она рассказывает о средних значениях, расчетах и все в таком духе.

👉 А что у бренда Б?

У них более 300 страниц с разбивкой цен по городам, каждая из которых насыщена местными ценообразующими факторами, трендами и структурированными данными.

Кто попадет в выдачу LLM?

Бренд Б. Всегда. Без исключений.

LLM обожают структурированную, конкретную и хорошо организованную информацию.

Вас не будут цитировать за общие фразы.

Большинство агентств и "SEO-инфлюенсеров" избегают программатик, потому что это сложно.

Это технически заморочено.

Это не масштабируется с помощью контент-планов и гострайтеров.

И когда pSEO выстреливает, то выстреливает по-настоящему.

Мы занимаемся этим уже более 5 лет и отладили 99% всех процессов, — говорит Шон Хилл.

Одна из кампаний, которую мы запустили 6 месяцев назад, уже приносит $200 тыс. в месяц.

И это для бренда, о котором вы никогда не слышали.

Таких результатов не добиться одними лишь статьями в блоге и бэклинками.

Для этого требуется:

— Настоящая команда разработчиков (а не просто фрилансеры на WordPress)
— Реальный пайплайн данных + data science
— Кастомные инструменты, как наша внутренняя CMS (мы называем ее DICE), созданная для управления тысячами уникальных страниц со встроенными структурированными данными

Также нужны авторы, обученные мыслить как инженеры, способные превращать наборы данных в цельные истории.

Мы обучаем своих внутри компании, потому что готовых специалистов на рынке нет.

Если у вас сильный бренд и трастовый домен, для вас здесь определенно есть потенциал.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как мы симулируем AI-ранжирование до публикации контента

В этой новой среде вероятностного поиска нужно перестать просто публиковать контент в надежде, что он выстрелит; нужно тестировать и дорабатывать.

Мы делаем это с помощью того, что я называю AI-симуляцией, где вы можете фактически симулировать свои позиции, говорит Майк Кинг.

Это возможно, потому что у нас есть доступ к тем же самым инструментам, которые юзают эти большие языковые модели.

У нас есть эмбеддинги, которые использует Gemini, и эмбеддинги OpenAI.

Используя их, мы можем эффективно симулировать, как любое изменение в контенте повлияет на релевантность, еще до выкатки на прод.

Процесс такой: векторизуем пассажи нашего контента и сравниваем их с целевыми промптами и запросами, чтобы посмотреть, как мы выглядим на фоне конкурентов.

Это позволяет нам находить гэпы и улучшать контент с высокой степенью уверенности, встраивая релевантность прямо в страницу, а не оптимизируя ее задним числом.

@MikeBlazerX

Читать полностью…

Mike Blazer

Каждый раз, когда я делаю аудит Core Web Vitals, в какой-то момент я аудирую хидеры сайта, пишет Арьен Карел.

Это не гламурно, не весело, это муторная работа, но ее нужно делать.

Потому что почти на каждом сайте, который я аудирую, есть как минимум несколько анти-паттернов, которые при определенных условиях будут замедлять сайт.

Я говорю о таких вещах, как:

Cache-Control: no-store, который отлично подходит для сред с высокими требованиями к безопасности типа онлайн-банкинга, но ломает кеш для кнопок "Назад/Вперед".
— Установка кук на статической странице, что ломает кросс-доменную предзагрузку из таких мест, как серп Google.
— Большие хидеры, вызывающие лишние round-trips, устаревшие и легаси-хидеры и так далее.

Большинство разрабов — не спецы по HTTP-хидерам, и это совершенно норм.

Чтобы упростить этот процесс для всех, я автоматизировал свой чек-лист для аудита в удобный инструмент.

https://www.corewebvitals.io/tools/pagespeed-header-analyzer

@MikeBlazerX

Читать полностью…

Mike Blazer

Требование "плотности доказательств" для видимости в AI

Когда мы ревьюим контент, один из ключевых факторов, который мы измеряем, — это "извлекаемость" (extractability), то есть способность AI-системы легко выцепить кусок инфы из контента и заюзать его в сгенерированном ответе.

У вас может быть реально хорошо написанный контент, который система просто скипнет, потому что он размытый, неконкретный и данные в нем поданы так, что машине их сложно вытащить.

Именно поэтому мы заморачиваемся над высокой "плотностью доказательств" (evidence density), говорит Майк Кинг.

Это значит, что контент должен быть нашпигован проверяемыми утверждениями.

Для этого мы вычищаем двусмысленные формулировки.

Не надо писать: "У покупки дома у озера много плюсов".

Нужно быть предельно конкретным и строить предложения по схеме "субъект-предикат-объект", например: "Дом у озера обеспечивает владельцам отдых на выходных и потенциальный доход от аренды".

Такую структуру, мы ее называем "семантический триплет", системе гораздо проще извлечь и заюзать.

Мы также используем инсайты на основе данных и цифры, потому что машине легко извлекать числа из предложений.

Вместо общих советов нужно писать что-то типа: "На февраль 2025 года вот такая тактика для бегуна-новичка, который может пробежать три мили".

Для контента, где важна временная привязка, свежесть — тоже критичный фактор.

Системы ищут что-то с датой и четким указанием на то, что контент обновлялся.

Использование дат прямо на странице и в структурированных данных может быть очень ценным сигналом.

В итоге ваш контент должен быть структурирован для извлечения: используйте списки, правильные заголовки и короткие, сфокусированные абзацы, которые не распыляются на несколько тем.

@MikeBlazerX

Читать полностью…

Mike Blazer

Продвинутое негативное SEO теперь использует ваши же анкоры с точным вхождением против вас

В конкурентной нише, такой как iGaming, вы должны защищаться, потому что самый простой способ атаковать конкурента — это построить всего пять или десять токсичных ссылок с коммерческими анкорами на его страницу, чего часто достаточно, чтобы ее обвалить, говорит Касра Даш.

Некоторые люди владеют токсичными PBN-сетками и продают такое негативное SEO как услугу.

Эти атаки стали гораздо более изощренными, чем просто простановка ссылок с нерелевантными анкорами типа "viagra" на сайт; Google хорошо научился их игнорировать.

Основная причина, по которой сайт проседает от этих атак, — это переоптимизация анкорного текста.

Продвинутое негативное SEO теперь включает массовый спам через GSA с использованием коммерческих анкоров с точным вхождением, по которым конкурент пытается ранжироваться, например "best casino sites" или "live casino sites", объясняет Джеймс Дули.

Это делается потому, что атакующие очень хорошо понимают алгоритмы.

Они знают, что не работает, и применяют эти негативные факторы ранжирования к своим конкурентам, чтобы те получили санкции за этот анкор с точным вхождением.

Другой вектор атак, который мы видели, — использование PBN под санкциями в качестве оружия.

Атакующие находят PBN, которые раньше ранжировались, но теперь вылетели из индекса, что означает, что у них есть алгоритмический штраф, отмечает Карл Хадсон.

Затем эти сайты 301-редиректом направляются на сайт конкурента, чтобы попытаться передать этот штраф.

Внезапно у вас может появиться 20 PBN под санкциями, которые все были средиректены на ваш сайт, и если вы активно не дизавуируете их, это становится серьезной проблемой.

@MikeBlazerX

Читать полностью…

Mike Blazer

Сайты, которые до сих пор работают по протоколам HTTP/1 или HTTP/2 (а значит, используют TCP-соединения), грузятся значительно быстрее, если их размер не превышает 14 кБ!

Сегодня наткнулся на одну крутую статью, в которой подробно разбираются тонкости работы TCP и объясняется, почему лучше всего держать размер данных в рамках TCP-соединения в пределах 14 кБ.

Если уложиться в этот лимит не получается, то стоит позаботиться о том, чтобы ваши страницы отдавались как минимум по HTTP/3, поскольку он работает на базе UDP.

https://endtimes.dev/why-your-website-should-be-under-14kb-in-size/

https://http1mustdie.com/

@MikeBlazerX

Читать полностью…

Mike Blazer

Стивен ван Вессум завел тред со скепсисом к точности данных об "частотке промптов" от AI-инструментов типа Profound.

Его смутила заява, что у "hyaluronic acid" объем в полмиллиарда.

Он считает все обоснования ответами в стиле "верь мне, бро" и пытается понять, как эти цифры бьются с поисковыми объемами Гугла.

Он разделяет новые AI-метрики и тулзы типа Semrush и Ahrefs.

У вторых, говорит, сравнение честнее, так как они сверяют свои кликстрим-данные с GAKP и данными из GSC, хотя и признает, что эти цифры тоже неидеальны.

Мнения комьюнити

1. Основной источник данных для инструментов по объему AI-промптов типа Profound — купленные у провайдеров массивы кликстрим-данных.

Так же работают Semrush и Ahrefs.

2. Ключевое различие старых SEO-тулзов и новых AI-инструментов — использование данных для сверки.

Первые дополняют кликстрим-модели данными из GAKP и GSC, чтобы проверить цифры на адекватность.

3. Есть разница в качестве AI-инструментов.

Игроки с финансированием адекватно работают с покупными данными, в отличие от других, которые, по слухам, юзают "хакерские, бредовые" методы и некорректно моделируют AI-запросы на основе обычных ключей.

4. Название "кликстрим" неточное: собираются не только клики, но и полный текст, вбиваемый в ChatGPT или поисковик Гугла.

5. Profound может получать адекватные оценки объемов, фокусируясь на "топиках", а не на гранулярных, длиннохвостых запросах.

Это компромисс: меньше детализации, но выше точность на уровне тем.

6. Кликстрим-данные лучше работают для B2C-запросов, чем для B2B, так как в панелях пользователей мало кто занят покупкой B2B-софта.

7. Рынок поставщиков кликстрим-данных фрагментирован.

Крупнейший игрок — Datos, купленный Semrush в декабре 2023 за $13.86 млн.

8. Для масштаба: seoClarity процессит около миллиарда серчей в месяц через несколько кликстрим-баз, собрав базу на 37 миллиардов запросов.

9. Кликстрим/панельные данные собирают с юзеров, согласившихся на отслеживание своего поведения в обмен на вознаграждение вроде подарочных карт, денег или доступа к премиум-софту.

10. Методы сбора: бесплатные мобильные VPN, антивирусы, расширения для браузеров, мобильные приложения (погода, фонарик, игры) и интернет-провайдеры (ISP).

11. "Резидентные прокси" — еще один мутный метод сбора данных, который некоторые считают вредоносным ПО.

12. Пример неэтичного сбора данных — отчет Malwarebytes о том, как Facebook шпионил за пользователями Snapchat ради аналитики.

13. Общий консенсус: ко всем данным по объему поиска, как из SEO-инструментов, так и с AI-платформ, стоит относиться со скепсисом.

14. Циничное, но стратегическое наблюдение: рынок заберет та AI-платформа, которая нарисует самые большие "объемы" и не будет публично дискредитирована, потому что клиентам нужны большие цифры.

@MikeBlazerX

Читать полностью…

Mike Blazer

Атаки CTR-ботами могут временно обвалить позиции, но стоят дорого

Хотя многие тактики негативного SEO сложно реализовать, манипуляция CTR работает очень хорошо, хотя ее эффект лишь временный.

Стратегия заключается в том, чтобы заспамить страницу конкурента кликами от ботов со 100% CTR, отмечает Чарльз Флоат.

Это действие обычно приводит к тому, что целевая страница проседает в результатах поиска.

Однако страница будет оставаться просаженной только до тех пор, пока вы активно спамите CTR-ботами, хотя "эффект призрака" может сохраняться еще несколько дней после этого.

С точки зрения ресурсов, это обычно не стоит потраченного времени и вложений.

Стоимость отправки такого объема бот-трафика на страницу конкурента на постоянной основе, скорее всего, будет такой же, если не больше, чем то, что вы потратили бы, фокусируясь на улучшении SEO вашего собственного сайта.

@MikeBlazerX

Читать полностью…

Mike Blazer

Почему блокировка SEO-краулеров — это очевидный и неэффективный футпринт

Мы никогда ничего не блочим от ботов, потому что это просто еще один способ для людей найти вас и еще один повод для Google задаться вопросом, почему вы их вообще блокируете, объясняет Чарльз Флоат.

Это сигнал; если сеошник смотрит сайт в Ahrefs и не видит данных, потому что боты заблочены, его немедленная реакция — найти инструмент, который не блокируется, и все равно раскопать данные.

В конечном счете, тактика неэффективна.

Ahrefs, например, теперь использует бота Yep, так что даже если вы заблочите их основного краулера, они все равно получат ваши данные.

Упертый конкурент может использовать сам Google с поисковыми операторами или даже манипуляции с RSS-лентами, чтобы найти спрятанные PBN-сетки.

Если кто-то захочет найти вашу сетку, он ее найдет.

Нет смысла блокировать ботов; это просто еще один футпринт.

@MikeBlazerX

Читать полностью…

Mike Blazer

Этот метод клоакинга использует PWA для обхода правил рекламных платформ

Очень популярный инструмент для клоакинга, который я сейчас вижу, — это Progressive Web Application, или PWA.

Вместо того чтобы отправлять юзера из кампании напрямую на лендос, вы отправляете его на PWA, который является типом приложения, говорит Доминик Мона.

Пользователю предлагается установить это приложение на свой мобильный телефон.

После установки PWA может отправлять много пуш-уведомлений с промоакциями.

Когда пользователь кликает на одно из этих уведомлений, его редиректит на реальную партнерскую ссылку или другой конечный пункт.

Весь этот процесс эффективно переносит механизм доставки промо с исходной рекламной платформы на устройство пользователя.

@MikeBlazerX

Читать полностью…

Mike Blazer

Анализ Semrush: использование "BEST" в верхнем регистре повышает CTR на 7%

Использование заглавных букв в тайтле может звучать нелепо — будто вы кричите на свою аудиторию — но это сеошный трюк, который работает как магия для улучшения CTR, — рассказывает Джой Хокинс.

Мы начали делать это много лет назад, заметив, что популярные сайты вроде Yelp и TripAdvisor постоянно используют капс для слов типа "BEST" в своих тайтлах.

Мы поняли, что за этим что-то стоит.

Мы протестировали это, взяв компанию, которая ранжировалась ниже некоторых конкурентов, и добавив слово "BEST" заглавными буквами в их тайтл.

Их кликабельность немедленно выросла.

Даже на более низкой позиции они стали получать больше кликов; это как будто влить в их сниппет шот эспрессо.

В другом тесте для другого клиента мы изменили их тайтл с "top rated" на "BEST" капсом.

Только на пяти страницах это небольшое изменение принесло эквивалент еще 159 кликов, а у этого клиента были тысячи таких страниц.

И не только мы видим такие результаты.

Анализ Semrush показал, что страницы со словом "BEST" в верхнем регистре работают на 7% лучше, чем без него.

Search Pilot также тестировали это и обнаружили 14%-ный рост мобильного трафика, когда они использовали заглавные буквы в тайтле.

Это как дать вашему тайтлу мегафон — люди просто не могут его не заметить.

@MikeBlazerX

Читать полностью…
Subscribe to a channel