mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Как мы симулируем AI-ранжирование до публикации контента

В этой новой среде вероятностного поиска нужно перестать просто публиковать контент в надежде, что он выстрелит; нужно тестировать и дорабатывать.

Мы делаем это с помощью того, что я называю AI-симуляцией, где вы можете фактически симулировать свои позиции, говорит Майк Кинг.

Это возможно, потому что у нас есть доступ к тем же самым инструментам, которые юзают эти большие языковые модели.

У нас есть эмбеддинги, которые использует Gemini, и эмбеддинги OpenAI.

Используя их, мы можем эффективно симулировать, как любое изменение в контенте повлияет на релевантность, еще до выкатки на прод.

Процесс такой: векторизуем пассажи нашего контента и сравниваем их с целевыми промптами и запросами, чтобы посмотреть, как мы выглядим на фоне конкурентов.

Это позволяет нам находить гэпы и улучшать контент с высокой степенью уверенности, встраивая релевантность прямо в страницу, а не оптимизируя ее задним числом.

@MikeBlazerX

Читать полностью…

Mike Blazer

Каждый раз, когда я делаю аудит Core Web Vitals, в какой-то момент я аудирую хидеры сайта, пишет Арьен Карел.

Это не гламурно, не весело, это муторная работа, но ее нужно делать.

Потому что почти на каждом сайте, который я аудирую, есть как минимум несколько анти-паттернов, которые при определенных условиях будут замедлять сайт.

Я говорю о таких вещах, как:

Cache-Control: no-store, который отлично подходит для сред с высокими требованиями к безопасности типа онлайн-банкинга, но ломает кеш для кнопок "Назад/Вперед".
— Установка кук на статической странице, что ломает кросс-доменную предзагрузку из таких мест, как серп Google.
— Большие хидеры, вызывающие лишние round-trips, устаревшие и легаси-хидеры и так далее.

Большинство разрабов — не спецы по HTTP-хидерам, и это совершенно норм.

Чтобы упростить этот процесс для всех, я автоматизировал свой чек-лист для аудита в удобный инструмент.

https://www.corewebvitals.io/tools/pagespeed-header-analyzer

@MikeBlazerX

Читать полностью…

Mike Blazer

Требование "плотности доказательств" для видимости в AI

Когда мы ревьюим контент, один из ключевых факторов, который мы измеряем, — это "извлекаемость" (extractability), то есть способность AI-системы легко выцепить кусок инфы из контента и заюзать его в сгенерированном ответе.

У вас может быть реально хорошо написанный контент, который система просто скипнет, потому что он размытый, неконкретный и данные в нем поданы так, что машине их сложно вытащить.

Именно поэтому мы заморачиваемся над высокой "плотностью доказательств" (evidence density), говорит Майк Кинг.

Это значит, что контент должен быть нашпигован проверяемыми утверждениями.

Для этого мы вычищаем двусмысленные формулировки.

Не надо писать: "У покупки дома у озера много плюсов".

Нужно быть предельно конкретным и строить предложения по схеме "субъект-предикат-объект", например: "Дом у озера обеспечивает владельцам отдых на выходных и потенциальный доход от аренды".

Такую структуру, мы ее называем "семантический триплет", системе гораздо проще извлечь и заюзать.

Мы также используем инсайты на основе данных и цифры, потому что машине легко извлекать числа из предложений.

Вместо общих советов нужно писать что-то типа: "На февраль 2025 года вот такая тактика для бегуна-новичка, который может пробежать три мили".

Для контента, где важна временная привязка, свежесть — тоже критичный фактор.

Системы ищут что-то с датой и четким указанием на то, что контент обновлялся.

Использование дат прямо на странице и в структурированных данных может быть очень ценным сигналом.

В итоге ваш контент должен быть структурирован для извлечения: используйте списки, правильные заголовки и короткие, сфокусированные абзацы, которые не распыляются на несколько тем.

@MikeBlazerX

Читать полностью…

Mike Blazer

Продвинутое негативное SEO теперь использует ваши же анкоры с точным вхождением против вас

В конкурентной нише, такой как iGaming, вы должны защищаться, потому что самый простой способ атаковать конкурента — это построить всего пять или десять токсичных ссылок с коммерческими анкорами на его страницу, чего часто достаточно, чтобы ее обвалить, говорит Касра Даш.

Некоторые люди владеют токсичными PBN-сетками и продают такое негативное SEO как услугу.

Эти атаки стали гораздо более изощренными, чем просто простановка ссылок с нерелевантными анкорами типа "viagra" на сайт; Google хорошо научился их игнорировать.

Основная причина, по которой сайт проседает от этих атак, — это переоптимизация анкорного текста.

Продвинутое негативное SEO теперь включает массовый спам через GSA с использованием коммерческих анкоров с точным вхождением, по которым конкурент пытается ранжироваться, например "best casino sites" или "live casino sites", объясняет Джеймс Дули.

Это делается потому, что атакующие очень хорошо понимают алгоритмы.

Они знают, что не работает, и применяют эти негативные факторы ранжирования к своим конкурентам, чтобы те получили санкции за этот анкор с точным вхождением.

Другой вектор атак, который мы видели, — использование PBN под санкциями в качестве оружия.

Атакующие находят PBN, которые раньше ранжировались, но теперь вылетели из индекса, что означает, что у них есть алгоритмический штраф, отмечает Карл Хадсон.

Затем эти сайты 301-редиректом направляются на сайт конкурента, чтобы попытаться передать этот штраф.

Внезапно у вас может появиться 20 PBN под санкциями, которые все были средиректены на ваш сайт, и если вы активно не дизавуируете их, это становится серьезной проблемой.

@MikeBlazerX

Читать полностью…

Mike Blazer

Сайты, которые до сих пор работают по протоколам HTTP/1 или HTTP/2 (а значит, используют TCP-соединения), грузятся значительно быстрее, если их размер не превышает 14 кБ!

Сегодня наткнулся на одну крутую статью, в которой подробно разбираются тонкости работы TCP и объясняется, почему лучше всего держать размер данных в рамках TCP-соединения в пределах 14 кБ.

Если уложиться в этот лимит не получается, то стоит позаботиться о том, чтобы ваши страницы отдавались как минимум по HTTP/3, поскольку он работает на базе UDP.

https://endtimes.dev/why-your-website-should-be-under-14kb-in-size/

https://http1mustdie.com/

@MikeBlazerX

Читать полностью…

Mike Blazer

Стивен ван Вессум завел тред со скепсисом к точности данных об "частотке промптов" от AI-инструментов типа Profound.

Его смутила заява, что у "hyaluronic acid" объем в полмиллиарда.

Он считает все обоснования ответами в стиле "верь мне, бро" и пытается понять, как эти цифры бьются с поисковыми объемами Гугла.

Он разделяет новые AI-метрики и тулзы типа Semrush и Ahrefs.

У вторых, говорит, сравнение честнее, так как они сверяют свои кликстрим-данные с GAKP и данными из GSC, хотя и признает, что эти цифры тоже неидеальны.

Мнения комьюнити

1. Основной источник данных для инструментов по объему AI-промптов типа Profound — купленные у провайдеров массивы кликстрим-данных.

Так же работают Semrush и Ahrefs.

2. Ключевое различие старых SEO-тулзов и новых AI-инструментов — использование данных для сверки.

Первые дополняют кликстрим-модели данными из GAKP и GSC, чтобы проверить цифры на адекватность.

3. Есть разница в качестве AI-инструментов.

Игроки с финансированием адекватно работают с покупными данными, в отличие от других, которые, по слухам, юзают "хакерские, бредовые" методы и некорректно моделируют AI-запросы на основе обычных ключей.

4. Название "кликстрим" неточное: собираются не только клики, но и полный текст, вбиваемый в ChatGPT или поисковик Гугла.

5. Profound может получать адекватные оценки объемов, фокусируясь на "топиках", а не на гранулярных, длиннохвостых запросах.

Это компромисс: меньше детализации, но выше точность на уровне тем.

6. Кликстрим-данные лучше работают для B2C-запросов, чем для B2B, так как в панелях пользователей мало кто занят покупкой B2B-софта.

7. Рынок поставщиков кликстрим-данных фрагментирован.

Крупнейший игрок — Datos, купленный Semrush в декабре 2023 за $13.86 млн.

8. Для масштаба: seoClarity процессит около миллиарда серчей в месяц через несколько кликстрим-баз, собрав базу на 37 миллиардов запросов.

9. Кликстрим/панельные данные собирают с юзеров, согласившихся на отслеживание своего поведения в обмен на вознаграждение вроде подарочных карт, денег или доступа к премиум-софту.

10. Методы сбора: бесплатные мобильные VPN, антивирусы, расширения для браузеров, мобильные приложения (погода, фонарик, игры) и интернет-провайдеры (ISP).

11. "Резидентные прокси" — еще один мутный метод сбора данных, который некоторые считают вредоносным ПО.

12. Пример неэтичного сбора данных — отчет Malwarebytes о том, как Facebook шпионил за пользователями Snapchat ради аналитики.

13. Общий консенсус: ко всем данным по объему поиска, как из SEO-инструментов, так и с AI-платформ, стоит относиться со скепсисом.

14. Циничное, но стратегическое наблюдение: рынок заберет та AI-платформа, которая нарисует самые большие "объемы" и не будет публично дискредитирована, потому что клиентам нужны большие цифры.

@MikeBlazerX

Читать полностью…

Mike Blazer

Атаки CTR-ботами могут временно обвалить позиции, но стоят дорого

Хотя многие тактики негативного SEO сложно реализовать, манипуляция CTR работает очень хорошо, хотя ее эффект лишь временный.

Стратегия заключается в том, чтобы заспамить страницу конкурента кликами от ботов со 100% CTR, отмечает Чарльз Флоат.

Это действие обычно приводит к тому, что целевая страница проседает в результатах поиска.

Однако страница будет оставаться просаженной только до тех пор, пока вы активно спамите CTR-ботами, хотя "эффект призрака" может сохраняться еще несколько дней после этого.

С точки зрения ресурсов, это обычно не стоит потраченного времени и вложений.

Стоимость отправки такого объема бот-трафика на страницу конкурента на постоянной основе, скорее всего, будет такой же, если не больше, чем то, что вы потратили бы, фокусируясь на улучшении SEO вашего собственного сайта.

@MikeBlazerX

Читать полностью…

Mike Blazer

Почему блокировка SEO-краулеров — это очевидный и неэффективный футпринт

Мы никогда ничего не блочим от ботов, потому что это просто еще один способ для людей найти вас и еще один повод для Google задаться вопросом, почему вы их вообще блокируете, объясняет Чарльз Флоат.

Это сигнал; если сеошник смотрит сайт в Ahrefs и не видит данных, потому что боты заблочены, его немедленная реакция — найти инструмент, который не блокируется, и все равно раскопать данные.

В конечном счете, тактика неэффективна.

Ahrefs, например, теперь использует бота Yep, так что даже если вы заблочите их основного краулера, они все равно получат ваши данные.

Упертый конкурент может использовать сам Google с поисковыми операторами или даже манипуляции с RSS-лентами, чтобы найти спрятанные PBN-сетки.

Если кто-то захочет найти вашу сетку, он ее найдет.

Нет смысла блокировать ботов; это просто еще один футпринт.

@MikeBlazerX

Читать полностью…

Mike Blazer

Этот метод клоакинга использует PWA для обхода правил рекламных платформ

Очень популярный инструмент для клоакинга, который я сейчас вижу, — это Progressive Web Application, или PWA.

Вместо того чтобы отправлять юзера из кампании напрямую на лендос, вы отправляете его на PWA, который является типом приложения, говорит Доминик Мона.

Пользователю предлагается установить это приложение на свой мобильный телефон.

После установки PWA может отправлять много пуш-уведомлений с промоакциями.

Когда пользователь кликает на одно из этих уведомлений, его редиректит на реальную партнерскую ссылку или другой конечный пункт.

Весь этот процесс эффективно переносит механизм доставки промо с исходной рекламной платформы на устройство пользователя.

@MikeBlazerX

Читать полностью…

Mike Blazer

Анализ Semrush: использование "BEST" в верхнем регистре повышает CTR на 7%

Использование заглавных букв в тайтле может звучать нелепо — будто вы кричите на свою аудиторию — но это сеошный трюк, который работает как магия для улучшения CTR, — рассказывает Джой Хокинс.

Мы начали делать это много лет назад, заметив, что популярные сайты вроде Yelp и TripAdvisor постоянно используют капс для слов типа "BEST" в своих тайтлах.

Мы поняли, что за этим что-то стоит.

Мы протестировали это, взяв компанию, которая ранжировалась ниже некоторых конкурентов, и добавив слово "BEST" заглавными буквами в их тайтл.

Их кликабельность немедленно выросла.

Даже на более низкой позиции они стали получать больше кликов; это как будто влить в их сниппет шот эспрессо.

В другом тесте для другого клиента мы изменили их тайтл с "top rated" на "BEST" капсом.

Только на пяти страницах это небольшое изменение принесло эквивалент еще 159 кликов, а у этого клиента были тысячи таких страниц.

И не только мы видим такие результаты.

Анализ Semrush показал, что страницы со словом "BEST" в верхнем регистре работают на 7% лучше, чем без него.

Search Pilot также тестировали это и обнаружили 14%-ный рост мобильного трафика, когда они использовали заглавные буквы в тайтле.

Это как дать вашему тайтлу мегафон — люди просто не могут его не заметить.

@MikeBlazerX

Читать полностью…

Mike Blazer

Мы и Гугл, в двух словах

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда я был молод, я был беден.

Но после многих лет упорного труда я больше не молод.

@MikeBlazerX

Читать полностью…

Mike Blazer

Этот запрос с точным вхождением определяет, что вам нужно: больше контента или больше ссылок

Чтобы быстро чекнуть силу и потенциал ранжирования новой страницы, я люблю искать ее точный мета-тайтл.

Тот факт, что новая страница ранжируется по своему полному мета-тайтлу, — это очень, очень хороший знак, что она правильно проиндексирована и имеет потенциал, рассказывает Джеки Чоу.

Это первый шаг, чтобы увидеть, как система реагирует.

Для более точной диагностики, особенно для страниц с плохими показателями, я использую стратегию Кайла Руфа, чтобы определить, достигла ли страница порога оптимизации контента.

Для этого я беру основной ключ, ставлю его в двойные кавычки и ищу в Google, говорит Омар Файзан.

Если страница появляется в первых пяти результатах по этому запросу с точным вхождением, это значит, что порог по контенту достигнут, и страница, скорее всего, готова к приему ссылок.

Если она не в топ-5, это указывает на проблему с самой оптимизацией контента.

Этот тест проясняет, стоит ли вам продолжать допиливать онпейдж-элементы или пора переключить фокус на оффпейдж-сигналы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Запуск AI-агентов в Reddit

@MikeBlazerX

Читать полностью…

Mike Blazer

Тест на косинусное сходство, который оправдывает разбивку контента на части

Чтобы ответить на заявления, что разбивка на чанки — это развод, я провел простой тест, чтобы показать, как она влияет на релевантнсть, говорит Майк Кинг.

Я начал с одного абзаца, заточенного под два разных ключа: "machine learning" и "data privacy".

Когда я посчитал косинусное сходство между этим объединенным абзацем и каждым из ключевиков, результаты были 0.6481 и 0.6948 соответственно.

Затем я разделил этот контент на два отдельных, более сфокусированных абзаца — по одному на каждую тему.

Косинусное сходство для обоих абзацев выросло.

Это не фокус, а прямое отражение того, как работают эти системы.

Если мы принимаем, что релевантность измеряется сравнением векторного представления запроса с векторным представлением пассажей, то создание более сфокусированных пассажей логично улучшает этот показатель.

Цель — разбивать контент на мелкие, очень сфокусированные абзацы, которые системам легче извлечь и которые улучшают метрики релевантности.

По сути, это то же самое, что Гугл выкатил много лет назад под названием "индексация по пассажам".

Это был первый шаг от восприятия страницы как единого целого к пониманию ее как набора отдельных компонентов.

Нам стоит больше думать о разбивке с учетом верстки (layout-aware chunking), а не только о семантической, но основной принцип тот же: создавать отдельные, извлекаемые компоненты, которые соответствуют тому, как векторный поиск считает релевантность.

@MikeBlazerX

Читать полностью…

Mike Blazer

Хак "мертвых байтов": как внедрить микроразметку прямо в файлы изображений

Хотя большинство людей фокусируются на данных EXIF, которые в основном удаляются при загрузке, существует более надежный способ встроить структурированные данные прямо в изображение.

Мы используем HEX-редактор, чтобы внедрить микроразметку Schema прямо в байты PNG-файла.

Это не метаданные; это часть основной структуры файла.

Процесс включает в себя открытие изображения в HEX-редакторе, прокрутку до самого низа и поиск "мертвых байтов" — пустого пространства прямо перед финальным закрывающим хэшем или информацией об авторских правах.

Это и есть точка вставки.

Вы просто берете свой скрипт микроразметки и вставляете байты прямо в это пустое пространство.

Чтобы это было эффективно, изображение должно быть захостировано.

И вот где эта тактика становится мощной.

Когда вы загружаете измененное изображение в пост Google Business Profile, хостом становится сервер Google.

А поскольку Google позволяет хотлинковать и встраивать их изображения, вы, по сути, используете их собственную инфраструктуру для хостинга и отдачи вашего изображения, обогащенного микроразметкой, — намекает Крис Палмер.

Это позволяет вам отдавать много данных прямо с их платформы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Дорогие сеошники, помните, что ИИ может делать многое из того, что делаете вы, но он вас не заменит, потому что не умеет бодаться с вашей продуктовой/технической командой, чтобы продавить внедрение SEO-рекомендаций :)

@MikeBlazerX

Читать полностью…

Mike Blazer

Аккаунт "публикации" на Medium за $5 может в 10 раз ускорить вашу индексацию

Хотя бесплатные варианты для паразитного SEO, такие как LinkedIn Pulse и Medium, все еще работают очень хорошо, я нашел простую тактику с высоким ROI специально для Medium.

Вместо того чтобы просто использовать бесплатный аккаунт, я создаю на платформе свою собственную "публикацию", что стоит всего 5 долларов в месяц.

Поскольку вы заплатили деньги, Medium относится к этому лучше, и такой контент, как правило, индексируется в 10 раз лучше, чем с бесплатного аккаунта, — объясняет Джеймс Оливер.

Платная публикация считается более трастовой для платформы.

Это одна из моих любимых стратегий, потому что ROI здесь практически 100%; единственные затраты помимо небольшой платы — это ваше время и контент, который можно сгенерить с помощью ИИ, а потом размножить под разные платформы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Чернушный трюк с "ротатором ссылок", который загоняет упрямые страницы в индекс Google

Когда на сайте есть десятки или даже тысячи страниц, которые никак не хотят индексироваться, часто это проблема с краулинговым бюджетом.

Хитрый способ загнать страницы в индекс — использовать так называемый ротатор ссылок, это чернушная стратегия, которая однозначно работает, — говорит Касра Даш.

Процесс начинается с возрастного домена, который мы сначала прокачиваем многоуровневыми ссылками.

Затем мы ставим 301 редирект с этого мощного возрастного домена на одну из наших неиндексируемых страниц.

Через короткое время мы переключаем этот 301 редирект на другую неиндексируемую страницу, затем на следующую, и так далее.

Эта техника размазывает краулинговый сигнал по нескольким упрямым URL, заставляя гуглобота заходить на них и в итоге индексировать.

Это работает благодаря "эффекту эха ссылки".

Когда я ставлю на вас ссылку, вы можете подскочить в позициях.

Но если я уберу эту ссылку, вы, скорее всего, продержитесь на этой позиции четыре-пять месяцев, потому что Google не сразу узнает, что ссылка исчезла.

Ротатор ссылок использует этот принцип: он направляет мощный редирект на страницу на достаточное время, чтобы ее просканировали и проиндексировали, а затем переходит к следующей, оставляя за собой остаточное "эхо" авторитета, которое и держит первые страницы в индексе.

@MikeBlazerX

Читать полностью…

Mike Blazer

Немного диких данных из анализа 3В+ AI-цитирований и 250М+ ответов поисковиков

— Семантические урлы получают на 11.4% больше цитирований.
— Позиции 5-10 в Google вполне рабочие для видимости в AI.
— Статьи-списки и сравнительный контент доминируют (25%+ всех цитирований).
— Мета-дескрипшены, которые "спойлерят" контент, работают лучше.

Цитирования с Reddit рванули вверх на 800%+ (сейчас это 8% всех цитирований).

ChatGPT по-тихому переключился с Bing на гибридный индекс, заюзав SerpApi.

А традиционные сеошные сигналы типа трафика объясняют менее 5% поведения AI в плане цитирований.

Самый удивительный вывод: 37% поисковых запросов к AI имеют "генеративный интент" — юзеры просят AI что-то создать, а не найти.

Это совершенно новый паттерн поискового поведения, под который нам нужно оптимизироваться.

https://speakerdeck.com/joshbly/josh-blyskal-profound-i-analyzed-40-million-search-results-heres-what-i-found

@MikeBlazerX

Читать полностью…

Mike Blazer

Как ИИ-модели оценивают бэклинки: анализ 1000 доменов

В исследовании Semrush проанализировали 1000 доменов и сопоставили метрики бэклинков с упоминаниями в ИИ-моделях вроде ChatGPT, Gemini, гугловских AI Overviews и Perplexity.

И хотя авторитет, основанный на ссылках, влияет на видимость в ИИ, механика тут отличается от классического поиска.

Качество ссылок бьет количество, а nofollow и ссылки с картинок имеют значительный вес.

В рамках методологии сопоставляли упоминания в ИИ с метриками, включая общее число бэклинков, уникальные домены, Authority Score (Ascore) и типы ссылок (follow, nofollow, текстовые, с картинок).

Коэффициенты корреляции Пирсона и Спирмена помогли выявить как линейные, так и нелинейные зависимости.

Это показало пороговые значения, после которых отдача от ссылок резко ускоряется.

Вывод 1: Авторитет — это база, но он не решает всё

Authority Score имеет умеренную, но нелинейную связь с AI Share of Voice (SoV): корреляция по Пирсону ~0.23, по Спирмену ~0.36.

Этот гэп показывает, что рост видимости неравномерен; чтобы получить заметный выхлоп, нужно перешагнуть определенный порог авторитета.

Уникальные домены-доноры коррелируют с видимостью в ИИ сильнее, чем общее количество бэклинков.

Вывод 2: Качество ссылок важнее их количества

Самая сильная связь во всех моделях наблюдалась между Authority Score от Semrush и упоминаниями в ИИ (Пирсон 0.65, Спирмен 0.57).

Это говорит о том, что LLM-ки в первую очередь смотрят на качество ссылок, а Ascore тут — надежный показатель.

Эффект сильно смещен в сторону топов: медианное число упоминаний прыгает с ~21,5 для 8-го дециля авторитетности до ~79,0 для 9-го.

Вес параметра в разных моделях отличается:

Самый большой вес: стандартный ChatGPT

Самый низкий вес: ChatGPT с поиском и Perplexity

Вывод 3: `Nofollow`-ссылки работают почти так же, как `follow`

Данные показывают, что разница в силе корреляции между nofollow и follow ссылками незначительна.

`Follow`-ссылки → Упоминания: Пирсон 0.334, Спирмен 0.504

`Nofollow`-ссылки → Упоминания: Пирсон 0.340, Спирмен 0.509

Эффект отличается в зависимости от платформы:

AI Overviews от Гугла и Perplexity дают наибольший вес стандартным follow-ссылкам.

Gemini и ChatGPT отдают предпочтение nofollow-ссылкам.

Вывод 4: Ссылки с картинок коррелируют сильнее текстовых

Бэклинки с картинок показали более сильную корреляцию с упоминаниями в ИИ, чем текстовые ссылки, особенно для доменов с уже прокачанным авторитетом.

Ссылки с картинок → Упоминания: Пирсон 0.415, Спирмен 0.538

Текстовые ссылки → Упоминания: Пирсон 0.334, Спирмен 0.472

Эта стратегия лучше всего работает на конкретных платформах.

Самая сильная корреляция у Perplexity и ChatGPT с доступом к поиску (Спирмен ≈ 0.53–0.55), а у стандартного ChatGPT, Gemini и гугловских AI Overviews она чуть ниже (Спирмен ≈ 0.46–0.52).

https://www.growth-memo.com/p/how-ai-really-weighs-your-links-analysis

@MikeBlazerX

Читать полностью…

Mike Blazer

Почему противоположное мнение — ключ к видимости в AI Overview

Пару лет назад я предсказывала, что фичерд сниппет в конечном итоге разделится пополам, представляя одну точку зрения "за" или подтверждающую, и одну противоположную точку зрения из другого источника, рассказывает Джейми.

Цель будет в том, чтобы дать общий сбалансированный ответ на вопросы с несколькими гранями.

Это отчасти и произошло с AI-ответами, где у вас сейчас больше шансов быть включенным в качестве источника, если то, что вы говорите, представляет собой другой взгляд на ответ по сравнению со всеми остальными.

Это относится даже к обзорам продуктов; если вы предлагаете иную перспективу, даже негативную, это может повысить вашу видимость.

Например, при обсуждении CRM, вместо того чтобы повторять, что HubSpot и Salesforce хороши, вы могли бы уточнить их сильные стороны, а затем выделить ключевую слабость для определенного кейса.

Вы могли бы сказать, что для отдела продаж, сфокусированного на специфической воронке агентства, не хватает определенной фичи, и порекомендовать другой инструмент, который преуспевает в этой узкой области.

Представляя эти конкретные, противоположные точки зрения, ваш контент становится кандидатом на включение в качестве альтернативного источника информации.

Это дает ИИ шанс охватить весь интент запроса пользователя, потому что теперь он может представить каждую точку зрения на эту тему.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как резкое изменение структуры URL может привести к выпадению сайта из индекса

На своем кейсовом сайте я допустил глупую ошибку: обновление кода изменило всю структуру URL-адресов, — объясняет Джеймс Оливер.

Я обычно создаю сайты и даю им отлежаться, чтобы они набрали возраст, поэтому, когда трафик немного просел, я не сразу понял, что происходит.

Позже, когда я разобрался в проблеме, я попытался вернуть всю структуру сило обратно, как было.

Это было большой ошибкой.

Из-за того, что я слишком часто и быстро менял URL-ы, Гугл просто перестал индексировать весь сайт.

Мораль простая: придерживайтесь основ.

Не нужно мудрить и вносить слишком много безумных изменений, особенно в фундаментальные вещи вроде URL-адресов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Почему наша PR-кампания на £10 000, основанная на данных, сгенерила ноль ценных ссылок

Проработав много лет в индустрии, я решила попробовать этот "новый digital PR" и сделать все по уму.

Я обратилась в YouGov, очень уважаемую исследовательскую компанию, и вместе с ними и PR-агентством мы создали реально интересное исследование, говорит Джудит Льюис.

Это была недешевая затея: когда работаешь с YouGov, это тысячи фунтов только на старте, не говоря уже о вложенном времени на разработку идеи и управление процессом.

Исследование было реально хорошим — я до сих пор от него тащусь, и PR-агентство считало, что оно выстрелит.

Тема была о женщинах и девушках в STEM, сделанная уникальной, интересной и фановой, с целью изменить подходы к привлечению молодежи в эти сферы.

Я был лично в это вовлечена.

Несмотря на все это, кампания была супер эпичным провалом.

Она не взлетела.

Мы получили ноль ценных ссылок от медиа, потому что, видимо, журналисты — народ переменчивый.

Когда я говорю, что мы не получили ничего, я не считаю сайты-агрегаторы пресс-релизов.

Таких ссылок было дохера, и все они были абсолютно бесполезны, но клиент был доволен, видя их количество.

Честно говоря, если бы я сожгла эти 10 000 фунтов, пользы было бы больше — хоть кто-то бы согрелся, в отличие от того выхлопа, что дало мне это исследование.

@MikeBlazerX

Читать полностью…

Mike Blazer

Новые группы в Facebook начинают ранжироваться в Google менее чем за 72 часа

Мы видим, что наша новая группа в Facebook начинает ранжироваться, и это очень хороший знак для ее использования в качестве актива для паразитного SEO.

Мне нравится искать ключи, под которые люди пытаются продвигаться, и смотреть, где мы находимся в плане позиций.

По некоторым запросам мы уже появляемся, что очень обнадеживает, учитывая возраст группы — ей всего два-три дня, — объясняет Джеки Чоу.

Ключевой момент, который нужно помнить: если конкретный пост в группе не проиндексирован, он не может ранжироваться.

Я проверил некоторые наши посты, и несколько из них не были в индексе.

Когда такое случается, решение простое: отправить URL поста в индексатор и затем мониторить его перформанс.

Мы видели, что когда пост попадает в индекс, он ранжируется довольно высоко.

Чтобы помочь группе набрать больше авторитета, мы также направляем на нее несколько редиректов.

Думаю, сейчас их уже 12 или 13, так что дело пошло.

Комбинация индексации страниц и передачи им авторитета показывает многообещающие результаты для ранжирования контента группы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда нужно немножечко успеха

@MikeBlazerX

Читать полностью…

Mike Blazer

Самые долговечные ссылки с Reddit — в тредах, которые скоро будут заархивированы

Проблема с Reddit в его нестабильности: у супермодераторов раздутое эго, и они могут удалить пост, пользователя или целый сабреддит по любой причине или вообще без нее.

Это лотерея, и если вы привлечете к себе внимание и встанете у кого-то на пути, на вас настучат и вас снесут.

У меня бывало, что целые сабреддиты, которые я создавала, даже 20-летние, удаляли за несколько дней, потому что какой-то супермодератор просто не хотел их там видеть, — говоит Холли Старкс.

Чтобы противостоять этому, одна из самых эффективных тактик — целиться в треды, которые скоро будут заархивированы.

Вы ищете треды, которые приближаются к отметке в 180 дней или шесть месяцев — моменту, когда их заблокируют и больше нельзя будет оставлять комментарии.

Именно на них и нужно постить прямо перед тем, как это произойдет.

Как только мы делаем пост и тред блокируется, мы знаем, что этот пост уже не так-то просто удалить.

Это создает гораздо более долговечный актив на платформе, снижая риск того, что ваши усилия будут уничтожены по прихоти одного модератора.

@MikeBlazerX

Читать полностью…

Mike Blazer

F5Bot шпионит за Reddit, чтобы вам не приходилось.

Выбираете свои запросы, и он будет присылать вам автоматические емейлы о новых тредах и постах:

Поскольку Reddit доминирует и в традиционном поиске, и в LLM, нас все чаще спрашивают, как брендам его мониторить и оставаться в теме.

Один из способов, который мы рекомендуем, — это настроить F5Bot для автоматического мониторинга Reddit.

Настраивается он предельно просто.

Вы просто создаете аккаунт, а затем выбираете запрос/тему, которую хотите мониторить.

Можно задать более точные настройки и выбрать конкретные сабреддиты для отслеживания с помощью команды-флага "only-url".

Каждый раз, когда появляется новый пост или тред, вы будете получать емейл прямо в инбокс.

Так что если вы знаете, что хотите активно отслеживать что-то вроде вашего бренда или основного ключевика, можете заюзать этот инструмент для настройки автоматического мониторинга.

https://f5bot.com/

@MikeBlazerX

Читать полностью…

Mike Blazer

Как атакующие перехватывают цепочки редиректов, чтобы откачивать ссылочный вес

Один из самых хитрых способов использования 301-редиректов включает в себя эксплуатацию существующих цепочек редиректов на крупных, авторитетных доменах.

Это тактика, при которой вы находите на целевом сайте страницу с ценным ссылочным профилем, которая к тому же уже является частью внутренней цепочки редиректов, описывает Чарльз Флоат.

Цель состоит в том, чтобы вмешаться в эту цепочку, перенаправив одну из ее ссылок на внешний сайт.

Это позволяет вам перехватить поток ссылочного веса с исходной мощной страницы и передать его на вашу собственную страницу или категорию, чтобы прокачать ее.

Это похоже на другой метод, когда хакеры получают доступ к крупному домену, находят одну страницу с большим количеством хороших ссылок и редиректят только эту конкретную страницу на свой сайт.

Владельцы сайта часто даже не замечают, что это произошло, или на это могут уйти месяцы или даже годы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как SEO по методу "Churn and Burn" использует двухнедельную задержку Google в обработке ссылок

Системы Google по обработке ссылок работают с задержкой, что создает окно, в котором ссылка может дать положительный эффект до того, как ее негативные качества будут полностью учтены.

Мы иногда это видим, когда ссылка дает сайту буст, а позже — системе может потребоваться две недели или больше, чтобы ее обработать — та же самая ссылка оказывает негативный эффект, рассказывает Чарльз Флоат.

Это технический концепт, часто используемый в "churn and burn" SEO — тактике, когда вы создаете сайт, заспамливаете его по полной пару недель, выводите его на первое место, чтобы быстро заработать, прежде чем он будет сожжен Google.

Сама по себе ссылка может быть мощной, но в конечном итоге она сожжет все, на что ссылается.

"Ротация ссылок" — это метод, используемый для эксплуатации этой задержки в обработке.

Вы используете ссылку ровно столько, чтобы получить этот первоначальный буст, а затем убираете ее со страницы до того, как она окажет негативный эффект.

Когда первый сайт сгорает, вы просто перемещаете ссылку на следующий, и на следующий, и на следующий.

Это типичная тактика для iGaming на нерегулируемых международных рынках, где вы просто переходите от сайта к сайту, передавая мощь тому активу, который ранжируется в данный момент.

@MikeBlazerX

Читать полностью…
Subscribe to a channel