mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2557

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

К вам, как к SEO-специалисту, часто обращаются уже после того, как трафик упал.

И что-то, что часто упускается из виду, - это унаследованные редиректы...

И когда вы спрашиваете, были ли у домена/компании другие миграции.... часто отвечают..... НЕТ, это наша первая.

Формально они правы, потому что часто это первая миграция с тех пор, как они начали там работать...

Однако.... "Way Back Machine" часто рассказывает совсем другую историю.

Так что.... поиграйте с этой таблицей Google для любого домена.

/channel/MikeBlazerX/2977

И будете поражены.

@MikeBlazerX

Читать полностью…

Mike Blazer

‼️ В преддверии ежегодной переиндексации жизни помните:

Ваш PageRank счастья зависит не от количества ссылок, а от авторитетных доменов вашего окружения.

Не гонитесь за быстрыми апдейтами судьбы - юзабилити органического роста всегда надёжнее.

Пусть мета-теги вашей личной выдачи будут оптимизированы под правильный интент, а сниппеты ваших решений — с самым высоким CTR.

Пусть LCP (Limitless Creative Potential) наполнит кластера радости, а CLS (Cumulative Life Stability) держится в зелёной зоне.

Да помогут вам нейросети в голосовом поиске ваших желаний!

Но не забывайте регулярно чистить карму от спамных и битых ссылок прошлого, а также держать robots.txt своей совести в актуальном состоянии: для отклонения плохого и открытия новых возможностей.

И помните - даже если алгоритмы жизни меняются, главное чтобы конверсия ваших усилий в счастье была максимальной.

С новым 2025 АПДЕЙТОМ вас, коллеги!

Пусть все ваши запросы к жизни попадают в ТОП-1! 🎉

@MikeBlazerX

Читать полностью…

Mike Blazer

Большинство людей неправильно используют данные PAA (People Also Ask / "Люди также спрашивают"), просто добавляя FAQ на свой сайт 🤦‍♂️

Данные из блоков Google "Люди также спрашивают" - это потрясающий источник информации, который показывает, какой следующий вопрос пользователь, скорее всего, задаст.

Возьмем пример с поисковым запросом "что такое удаленная работа".

Google знает, что люди, вероятно, захотят узнать разницу между работой из дома и удаленной работой, а также поищут примеры удаленной работы.

Пользовательский интент многослойный, и если Google видит, что ваша страница с наибольшей вероятностью удовлетворит поисковое намерение пользователя, то вас наградят более высокими позициями в выдаче.

Это означает, что для создания максимально качественного контента нужно понимать эти запросы и отвечать на них в рамках основного текста, а не просто добавлять их в конце в виде FAQ.

@MikeBlazerX

Читать полностью…

Mike Blazer

Домейнерам:

Хотите понять, есть ли реальная ценность у домена?

Ключевые факторы для оценки:

1. Присутствие в LinkedIn

— 24 000 результатов = Перспективно

— 9 компаний = Лучше пропустить

2. Анализ размера компаний

— Ищите крупные корпорации

— Консалтинговые фирмы, состоящие из одного человека, менее ценны.

3. История домена

— Недавно на рынке?

— Ранее продавался через брокера?

— Первоначальный владелец домена?

4. Проверка конкурентов

— Есть ли доступные альтернативы?

— Оправдана ли премиум-цена .com домена

Запомните: Однословные домены .com всегда имеют ценность.

Домены, зарегистрированные вручную, могут никогда не найти покупателей.

Бонус: Какие возможные применения у домена?

Если кто-то купит его, для чего они "реально" будут его использовать, и будут ли размещать на нём сайт?

Существует множество доменов, которые "выглядят" хорошими, но на практике никто не будет использовать такой домен для сайта.

@MikeBlazerX

Читать полностью…

Mike Blazer

Переживаете, что контент, сгенеренный ИИ, звучит слишком роботизированно?

Попробуйте такой промт:

Do not start any sentence with the same two words in a row.

Do not use any three-word phrase more than once.

Do not repeat any word within eight words of the most recent iteration of the same word.

🦾 Избегайте начала предложений с одинаковых двух слов подряд.
🤖 Не используйте трехсловные фразы более одного раза.
🦾 Не повторяйте слова в пределах восьми слов от последнего использования.


Источником этого совет послужил блог легендарного Марти Вайнтрауба:

https://aimclear.com/gpt-4-prompt-engineering-master-elements-controlling-complexity-repetitiveness-tone-person-and-believability/

@MikeBlazerX

Читать полностью…

Mike Blazer

Важное напоминание для владельцев доменов, которые не используют их для отправки электронной почты.

Ничто не мешает мошенникам отправлять письма, якобы исходящие с вашего домена.

И чем старше домен, тем более привлекательным он становится для спуферов (злоумышленников, занимающихся подменой адресов).

Это может со временем навредить репутации вашего домена и даже привести к его попаданию в блеклисты, если вы не предпримете меры, чтобы уведомить почтовые серверы о необходимости отклонять любые письма, якобы отправленные с вашего домена.

Просто добавьте эти две TXT-записи в DNS вашего домена:

TXT v=spf1 -all
TXT v=DMARC1; p=reject;

Первая запись говорит о том, что ни один SMTP-сервер в мире не авторизован для отправки почты от имени вашего домена.

Вторая указывает, что любое письмо, утверждающее обратное, должно быть отклонено.

Если же вы используете домен для отправки электронной почты, обязательно добавьте 3 записи:

1. SPF-запись, указывающую, какие SMTP-серверы имеют право отправлять вашу почту.

2. DKIM-записи для добавления цифровой подписи к письмам, позволяющей принимающему серверу проверить отправителя и целостность сообщения.

3. DMARC-запись, которая сообщает принимающему почтовому серверу, как обрабатывать письма, не прошедшие любую из проверок.

SPF и DMARC записи должны иметь правильные имена.

SPF-запись должна иметь имя "@", а DMARC-запись должна называться "_dmarc".

Вы не можете помешать мошенникам отправлять письма якобы с вашего домена, так же как не можете помешать людям использовать ваш домашний адрес в качестве обратного адреса на почтовом конверте.

Но вы можете защитить и свой домен, и потенциальных жертв мошенников, добавив соответствующие DNS-записи.

Вот что у меня настроено для одного из доменов (см. скриншот), Jerry/113657096385754371">пишет Джерри Лерман.

Единственное отличие в том, что я запрашиваю у почтовых провайдеров еженедельный агрегированный отчет при обнаружении спуфинга.

Gmail и Microsoft отправляют такие отчеты, большинство провайдеров - нет, но поскольку большая часть писем проходит через Gmail, эти отчеты весьма познавательны.

@MikeBlazerX

Читать полностью…

Mike Blazer

Чем больше ссылок, тем больше трафика?

@MikeBlazerX

Читать полностью…

Mike Blazer

Судя по утечке Google API Content Warehouse:

Сайт может отправлять до 200 исходящих анкоров на один домен, прежде чем Гугл начнет считать их избыточными.

@MikeBlazerX

Читать полностью…

Mike Blazer

Пару месяцев назад я помог клиенту настроить редирект с домена, который они используют для офлайн-рекламы, на их основной сайт, пишет Билл Хартзер.

Редирект был настроен на GoDaddy, а DNS хостился на Cloudflare.

Сегодня клиент обнаружил, что редирект перестал работать и начал выдавать ошибку 405.

Буквально НИЧЕГО не менялось в конфигурации.

Так что в дальнейшем я не буду полагаться на редиректы через регистратора доменов.

Вместо этого я поднял домен на своём выделенном сервере и настроил редирект через .htaccess.

DNS теперь указывает на мой сервер вместо регистратора.

Проверяйте свои редиректы!

Мы их настраиваем и думаем, что они будут работать вечно.

Но теперь мне придётся настроить процесс их мониторинга.

@MikeBlazerX

Читать полностью…

Mike Blazer

Для улучшения эффективности краулинга Google рекомендует размещать как можно больше ресурсов на сторонних доменах:

В статье Google "Crawling December", они опубликовали материал, в котором Google реально рекомендует перенести максимальное количество ресурсов на сторонние сайты.

Они советуют использовать CDN или даже "хостить ресурсы на отдельном поддомене".

Получается, что ресурсы на вашем сайте влияют на эффективность краулинга.

Если вы храните много ресурсов на своём сайте (например, JavaScript и CSS), Google учитывает это в краулинговом бюджете.

Чем больше таких ресурсов, тем меньше времени Google выделит на краулинг непосредственно HTML-страниц.

Это показывает, что эффективность краулинга определяется на уровне поддомена.

Для небольших сайтов это вообще не проблема.

Однако если у вас крупный сайт с серьезными проблемами краулинга, стоит подумать о переносе тяжелых ресурсов на CDN или отдельный поддомен.
-

Но эти рекомендации могут и навредить — если не быть осторожным.

Хотя с точки зрения краулинга, хостить все ресурсы сайта на отдельном хостнейме, - это логично, применение такого подхода ко всем ресурсам, особенно критичным для рендеринга, создаёт реальные проблемы с производительностью:

1️⃣ Дополнительные DNS-запросы
2️⃣ Усложнение кэширования и поддержки
3️⃣ Возможные задержки для критичных ассетов

А вот в чём главный подвох:

Google также отмечает:

"Если WRS (сервис веб рендеринга) не может получить критичный для рендеринга ресурс, Google Search может испытывать трудности с извлечением контента страницы и её ранжированием в поиске".

Какой вывод?

✔️ Всегда оценивайте лучшие практики через призму потребностей ваших пользователей

✔️ Приоритизируйте критичные для рендеринга ресурсы

✔️ Тщательно тестируйте перед внедрением инфраструктурных изменений, которые могут повлиять на производительность

В конечном счёте, ключ к долгосрочному успеху — это баланс между рекомендациями Google и тем, что лучше работает для ваших пользователей.

@MikeBlazerX

Читать полностью…

Mike Blazer

Этот сайт заноиндексил все подпапки (3 штуки), по которым в прошлом месяце прилетел ручник.

noindex они поставили примерно 27 ноября и отправили запрос на снятие санкций - предоставили всю инфу о том, что сделали, и объяснили, почему ручник теперь можно снять.

Но веб-спам команда Гугла отклонила запрос, указав, что "не было предоставлено существенных доказательств изменения редакционной политики".

На скриншоте - часть ответа от веб-спам команды.

В сообщении выше есть некоторая инфа об их урлах.

Интересно, что веб-спам команда требует убедительных доказательств изменения редакционной политики для снятия ручных санкций за репутационные нарушения!!
-

Похоже, они хотят не просто убрать страницы из индекса, а получить гарантии, что сайт прекратит такие практики?

Тогда возникает вопрос:

это значит, что контент нужно полностью удалить с сайта (удалить или перенести куда-то), или достаточно убрать/нофолловить/заблокировать ссылки на него?
-

Это может быть связано со страницами редакционной политики на сайте.

SEO-команда этого издания заноиндексила проблемные страницы, но в редакционной политике всё ещё указано, что часть контента управляется PTY LTD (компания по обзору и тестированию продуктов)!

Вероятно, веб-спам команда это заметила и предполагает, что подобный контент может появиться снова, поэтому хочет, чтобы издание как минимум убрало эту информацию со страниц редакционной политики, а в идеале - вообще прекратило деловые отношения с этим внешним поставщиком.

@MikeBlazerX

Читать полностью…

Mike Blazer

В 2 декабря Google выписал ручники сети сайтов Finixio, что привело к значительному падению трафика:

Techopedia потеряла 64% трафика,
ReadWrite лишился 98 000 визитов,
Business2Community испытал падение на 75%.

Их реакция показала сложную трехступенчатую стратегию по уклонению от обнаружения их действий при сохранении работоспособности.

Во-первых, они выполнили немедленное тактическое отступление: весь гемблинг-контент исчез с их основных сайтов.

После такой "чистки" остался только скелет соответствующего требованиям сайта, при этом некоторые элементы навигации все еще вели на страницы с ошибкой 404.

Параллельно они внедрили сложную сеть редиректов.

Они купили дропы с высоким трастом, такие как cfiw.org.uk (ранее сайт валлийской благотворительной организации, теперь редиректит на Top Casino Sites) и Richmond Review.

Используя эти домены, они создали продвинутую сеть 301-редиректов.

Например, страница о гемблинге на Techopedia, которая была удалена во время наложения санкций, редиректила на casinoutanspelpaus.io, который в свою очередь редиректил посетителей на CoinTelegraph.

Третьим элементом была стратегия перераспределения.

Они восстановили гемблинг-контент, используя сложную систему геоклоакинга, показывая разный контент в зависимости от локации посетителя.

Шведские гемблинг-страницы отображали реальный контент только для шведских IP, в то время как немецкий контент был виден только посетителям из Германии.

Они использовали специальные куки для контроля доступа к страницам, делая контент невидимым для асессоров Google.

Например, при посещении techopedia.com/se/gambling/casino-utan-svensk-licens с немецкого IP показывалась страница "статья не найдена", в то время как при доступе со шведского IP открывалась полная казино-страница с топ-листами и играми.

Они также расширились через стратегические приобретения, такие как Cardplayer.com и Pokerscout.com, добавив шведские поддиректории, нацеленные на шведское игорное законодательство.

Оба сайта линковали на topcasinosites.eu, который был скрыт от индексации Google.

Их партнерство с CoinTelegraph создало отдельную iGaming секцию с другим кодом и стилизацией.

Они переиспользовали идентичный контент на своих сайтах - те же топ-листы казино, цепочки редиректов и параллельные контент-структуры на разных языках.

Они внедрили продвинутый клоакинг для мобильных/десктопных устройств.

На cryptonews.com десктопные юзеры видели безобидный контент, в то время как мобильным показывались топ-листы казино.

За создание контента отвечали сотрудники Finixio.

Они использовали партнерства с региональными медиа, такими как Augusta Free Press и East Bay Times, покупая место под спонсорский контент для поддержания авторитета.

Международные разделы этих изданий содержали гемблинг-контент, редиректящий на ресурсы Finixio.

Комбинация геоклоакинга, стратегических редиректов, платформенных партнерств и контента под разные устройства позволила Finixio возобновить операции, сохраняя видимость соответствия требованиям.

Их техническая реализация была настолько тщательной, что даже инструменты Google видели другие версии страниц, чем живые проверяющие.

За неделю они вернули гемблинг-контент онлайн и снова начали ранжироваться, демонстрируя, как хорошо обеспеченные ресурсами операторы могут адаптироваться и обходить санкции поисковых систем.

https://recleudo.com/under-googles-watchfull-eye-getting-out-of-a-manual-site-reputation-abuse-penalty-and-continuing-business-as-usual/

@MikeBlazerX

Читать полностью…

Mike Blazer

Список основных факторов ранжирования Google в 2025 году (для основной поисковой выдачи) от Джо Янгблада:

1. Страница доступна для краулинга и индексации и уже проиндексирована Google
2. Целевой ключ включен в тайтл
3. Целевой запрос присутствует в контенте
4. Страница имеет высокий показатель PageRank
5. Контент на странице соответствует пользовательскому интенту
6. Ваш контент соответствует общепринятому мнению
7. Анкоры входящих ссылок совпадают или семантически релевантны целевому запросу
8. Качественный скор сайта
9. Количество внутренних ссылок на страницу
10. Показатель вероятности клика
11. Отсутствие SEO-спама на странице
12. Страница не является тонкой или мусорной
13. Контент считается высококачественным
14. Страница быстро загружается для целевых пользователей
15. Страница обеспечивает хороший юзабилити
16. Изображения оптимизированы для людей с ограниченными возможностями с помощью alt-атрибутов
17. Тематический авторитет через векторные эмбеддинги
18. Страница, сайт или компания соответствуют локальному интенту и/или текущей геолокации
19. Показатель авторитета сайта
20. Весь сайт соответствует пользовательскому интенту
21. Контент настолько свежий, насколько этого ожидает пользователь
22. Контент не дублируется и/или является каноникалом для дублированного контента
23. Страница обеспечивает хороший пользовательский опыт
24. Страница подходит под фичерд сниппет и получает его
25. Ваш сайт имеет хорошее техническое SEO и легко краулится
26. Является UGC-обсуждением или рекомендацией на авторитетном UGC-сайте (UCL - пользовательский контент)
27. У вашего сайта положительная онлайн-репутация и отзывы
28. Значимость сущности, связность и релевантность
29. Целевой запрос содержится в домене или у вас домен с прямым вхождением ключа
30. Имеет высокий показатель "новостности" для актуальной трендовой новостной темы
31. Страница имеет высокую значимость на сайте
32. Насколько сложно конкуренту продублировать вашу страницу
33. Ваш сайт превосходит остальные по большинству факторов ранжирования

Факторы ранжирования, которые не существуют, устарели или навредят вашему сайту в 2025 году

1. Плотность ключевых слов (тошнота текста)
2. 100% точное совпадение анкор-текстов
3. Клоакинг ключевых слов
4. Переспам ключевиками в контенте
5. Максимальное количество доменов, ссылающихся на вашу страницу
6. Ссылки с .EDU доменов
7. Переспам ключевиками в заголовках
8. Покупка Google Ads
9. Наличие YouTube-канала
10. Ссылки из комментариев в блогах

https://www.joeyoungblood.com/seo/google-ranking-factors/

@MikeBlazerX

Читать полностью…

Mike Blazer

Фокусируйтесь на CTR в SEO, а не только на позициях

1. Кликабельность (CTR) потенциально важнее для успеха в SEO, чем просто позиции в топе.

2. CTR измеряет процент пользователей, которые кликают на сайт в топе.

3. Позиции показывают потенциал, а CTR его реализует.

4. CTR — это динамическая, пользовательская метрика, отражающая релевантность и качество контента.

5. Высокий CTR говорит о том, что тайтл, мета-деск и воспринимаемая ценность контента резонируют с целевой аудиторией.

6. По данным антимонопольного процесса против Google, поисковик использует CTR в своих алгоритмах ранжирования.

7. Поведение пользователей сигнализирует поисковикам, что контент:

— Релевантен поисковому запросу
— Потенциально ценнее, чем у конкурентов
— Соответствует пользовательскому интенту
— Достаточно привлекателен для мгновенного интереса

8. Стратегии повышения CTR:

— Создание привлекательных тайтлов
— Оптимизация мета-десков
— Использование структурированных данных
— Понимание пользовательского интента

9. Высокий CTR укрепляет узнаваемость бренда как у пользователей, так и у алгоритмов.

10. CTR служит предиктивной метрикой эффективности контента.

11. Важно отслеживать CTR через GSC и Bing Webmaster Tools.

12. Ключевые метрики CTR для мониторинга:

CTR по разным запросам
— Вариации по страницам
— Изменения после обновления тайтлов или мета-десков
— Сравнительный CTR по всему контенту
— Влияние в разных странах
— Изменения на мобайле vs десктоп
CTR брендовых vs небрендовых запросов
CTR для конкретных позиций

13. Аномалии CTR нужно анализировать для понимания расхождений в эффективности.

14. Приоритизация CTR оптимизирует под интересы людей, а не только поисковиков.

15. CTR должен стать основным KPI в SEO для фокуса на потребностях пользователей, а не только на позициях.

https://www.productledseo.com/p/focus-on-seo-ctr-and-not-just-rankings

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотите занять более высокое место в Google Shopping?

Это, пожалуй, самое полное исследование факторов, коррелирующих с более высокими позициями в Google Shopping!

Они проанализировали 5000 результатов Google Shopping.

Вот что они обнаружили:

1. Победитель – Amazon.com явно лидирует в Google Shopping, занимая первую позицию в 52% случаев, за ним следуют Walmart (первое место в 6% случаев) и Home Depot (первое место в 3% случаев).

2. Авторитет – Общий ссылочный авторитет (измеренный с помощью DR от Ahrefs) показал самую сильную корреляцию с ранжированием в Google Shopping среди всех изученных факторов.

3. Ссылающиеся домены – Страницы товаров на первых двух позициях имели в 2.72 раза больше реферальных доменов, чем позиции #3 – #10.

4. Тайтлы – Обнаружена лишь незначительная корреляция между использованием ключевых слов в тайтле и более высокими позициями.

5. Мета-дески – Страницы товаров с точным вхождением ключевой фразы в мета-описании заметно превосходили те, где его не было.

6. H1-заголовки – Точное вхождение ключевых слов в H1 показало небольшую корреляцию с ранжированием.

7. Длина URL – Обнаружена очень слабая корреляция между длиной URL и позициями.

Короткие URL имели небольшое преимущество перед длинными.

8. Длина названия товара – Длина названия также имела небольшую корреляцию с ранжированием, где более короткие названия ранжировались чуть лучше длинных.

9. Поисковый трафик – Страницы товаров, хорошо ранжирующиеся в обычной выдаче Google, отлично ранжируются и в Google Shopping.

Страницы на первых двух позициях в шоппинге имели в 4.4 раза больше органического трафика (по данным Ahrefs), чем позиции #3-#10.

10. Отзывы клиентов – Товары с отзывами значительно превосходили те, у которых их не было.

11. Рейтинг – Обнаружена небольшая корреляция между звёздным рейтингом магазина и позициями.

Средний рейтинг по всем магазинам составил 4.37.
12. Цены – Товары с низкой ценой ранжируются значительно лучше дорогих товаров.

13. Скоры Google Shopping – Магазины с высокими оценками в Google Shopping превосходят магазины с низкими оценками.

14. Структурированные данные – Разметка товаров практически не коррелировала с ранжированием.

15. Интересный факт – Amazon не использует структурированные данные на страницах своих товаров.

Факторы ранжирования с коэффициентами корреляции:

— Рейтинг домена (DR): 0.123
— Структурированные данные обзора: 0.115
— Оценка доставки: 0,095
— Звездный рейтинг: 0.065
— Кол-во уникальных структурированных типов данных: 0.065
— Цена ниже средней: 0.060
— Оценка возврата: 0.055
— Ключевое слово присутствует в мета-деске: 0.050
— Количество фич структурированных данных: 0.045
— Бейдж "Топовый продавец": 0.045
— Использование ключевых слов в тайтл-теге: 0.040
— Оценка качества сайта: 0.035
— Оценка вариантов оплаты: 0.035
— Ссылающиеся домены: 0.030
— Поисковый трафик: 0.030
— Количество типов структурированных данных: 0.030
— Использование ключевых слов в H1: 0.025
— Обратные ссылки: 0.025
— Рейтинг URL: 0.025
— Количество отзывов: 0.005
— Конкурентная ценовая оценка: -0.015
— Длина URL-адреса товара: -0.020
— Стоимость доставки: -0.020
— Структурированные данные Product: -0.020
— Время доставки: -0.025
— Любые структурированные данные: -0.030
— Длина названия товара: -0.040
— Цена выше средней: -0.040

https://www.180marketing.com/google-shopping-ranking-factors/

@MikeBlazerX

Читать полностью…

Mike Blazer

134 SEO-советa для интернет-магазинов

Содержание:

— Техническое SEO
— Аналитика и отчетность
— Контент-стратегия
— Исследование ключевых слов и аудитории
— Линкбилдинг
— SEO карточек товаров
— SEO категорий
— Международное SEO
CRO (конверсионная оптимизация)
— Продвинутые и бонусные SEO-советы

https://freddiechatt.com/ecommerce-seo-tips/

@MikeBlazerX

Читать полностью…

Mike Blazer

@MikeBlazerX

Читать полностью…

Mike Blazer

Про клоакинг

В декабре 2014 года транспортный департамент Портленда начал спецоперацию против Uber, нацеленную на поимку водителей, работающих без соответствующих разрешений.

Однако их усилия были сорваны продвинутым инструментом Uber под названием Greyball.

Вот как это происходило:

Спецоперация

Джон, ветеран госслужбы, и его коллеги из транспортного департамента, одетые в гражданское, пытались заказать поездки Uber, используя одноразовые телефоны.

Несмотря на то, что в приложении отображались доступные машины, они постоянно получали ошибку "нет доступных автомобилей".

Программа Greyball

Uber разработал Greyball, изначально как часть программы "Нарушений условий обслуживания", для выявления и нейтрализации угроз, таких как агрессивные пользователи, мошенники и конкуренты.

К 2013 году этот инструмент эволюционировал в систему обхода правоохранительных органов, блокируя аккаунты, предположительно принадлежащие госслужащим.

Как работал Greyball

Uber использовал различные методы для идентификации потенциальных угроз:

— Проверка профилей в соцсетях на связь с госструктурами
— Мониторинг привязки банковских карт к государственным счетам
— Отслеживание частоты открытия и закрытия приложения
— Идентификация моделей телефонов, часто используемых госорганами
— Наблюдение за локациями вблизи правительственных зданий

Призрачное приложение

Для аккаунтов, помеченных Greyball, Uber показывал поддельную версию приложения с фантомными машинами, создавая иллюзию доступных поездок, но постоянно проваливая попытки их заказать.

Это эффективно мешало правоохранителям собирать доказательства против Uber.

Игра в кошки-мышки

Правоохранители пытались противодействовать, используя одноразовые телефоны, активированные в разных районах, но Uber адаптировался, отслеживая отсутствие истории данных и паттернов поездок у новых аккаунтов, в итоге блокируя и их.

Внутренний конфликт и разоблачение

Несмотря на эффективность, Greyball вызывал внутренний дискомфорт в Uber.

Некоторые сотрудники считали программу слишком сомнительной и потенциально незаконной.

В итоге инсайдеры слили информацию в СМИ, что привело к разоблачительной статье в New York Times в 2017 году.

Общественная реакция и юридические последствия

Раскрытие Greyball испортило имидж Uber, изменив общественное восприятие компании с инновационной на нечестную.

Регуляторы по всему миру начали проверку практик Uber, что привело к временным запретам в некоторых городах.

Защита Uber

Uber представлял Greyball как инструмент безопасности для борьбы со злоумышленниками, а не целенаправленное противодействие правоохранителям.

Они утверждали, что блокировка подозрительных аккаунтов была необходимой мерой, даже если случайно затрагивала государственных инспекторов.

Результат

Несмотря на скандал, Greyball позволил Uber стремительно расшириться с 200 до 600 городов и увеличить оценку с $3 млрд до почти $70 млрд.

Этот рост был обеспечен обходом регуляторных барьеров, что подняло вопросы о корпоративной этике и балансе между инновациями и законностью.

@MikeBlazerX

Читать полностью…

Mike Blazer

Людей, которые могут рассказать вам, как продвинуть сайт, гораздо больше, чем тех, кто сам умеет продвигать сайты.

Однако большинство все же прислушивается к советам первых.

@MikeBlazerX

Читать полностью…

Mike Blazer

Hindustan Times попадает в сниппеты практически для каждого популярного поискового запроса о дате выхода новой главы манги.

Они используют шаблонные вступления (похоже, сгенерированные с помощью ИИ), без каких-либо обзоров предыдущих глав или предположений о следующих.

Просто перефразируют информацию с других сайтов и получают сниппеты в выдаче.

@MikeBlazerX

Читать полностью…

Mike Blazer

SEO в 2025 году - это не для слабонервных.

Адаптируйся или умри
Gemini
SearchGPT
Perplexity

@MikeBlazerX

Читать полностью…

Mike Blazer

О брендах.

Ты переплачиваешь лишние 200 баксов за телек от Самсунга по сравнению с каким-то ноунеймом.

Не потому что думаешь, что он реально круче, а потому что шансов, что это окажется полным отстоем, меньше.

Потому что на уровне инстинктов ты понимаешь: у того, кто рискует репутацией, гораздо больше причин не впаривать тебе фуфло, чем у какого-то левака.

Вот почему репутация, бабки, вбуханные в рекламу и все такое по сути позволяют задирать ценник - это своего рода страховка.

Когда ты страхуешь свой дом, он от этого не становится круче.

Но это уменьшает вероятность того, что твоя жизнь станет ужасной из-за того, что дом сгорит дотла.

И когда ты берешь брендовую вещь, ты не обязательно получаешь объективно лучший продукт, но снижаешь вероятность того, что нарвешься на какое-нибудь говно, ну, типа телека, в котором все работает через жопу или вообще не пашет...

@MikeBlazerX

Читать полностью…

Mike Blazer

Приоритизация важных URL в сайтмапах:

— При создании карт сайта - выстраивайте их в "четком организованном порядке", размещая самые важные URL в начале.

— Рандомно распределяйте оставшиеся УРЛы после списка важных страниц.

— Идея рандомизации URL заключается в том, чтобы сайтмап выглядел как уникальный список каждый раз, когда краулер его обходит.

— Показ слегка измененного сайтмапа при каждом краулинге может мотивировать поисковики вроде Бинга чаще возвращаться к карте сайта.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google недавно опубликовал короткую статью про оптимизацию фасетной навигации.

Поработав с большим количеством сложных фасетных навигаций, меня беспокоит то, что в статье упущено много полезной информации и контекста, пишет Райан Сиддл.

Еще в 2017 году мы активно использовали подход с URI-фрагментами.

Это даже попало на Search Engine Roundtable, когда я оставил комментарий про использование фрагментов, на что получил ответ, что это не лучшая идея.

Перенесемся в конец 2024...

Фрагменты действительно оказались не лучшей идеей.

Вот 5 основных причин почему:

1. Не соответствует требованиям доступности (WCAG)

2. Проблемы с превью-сниппетами при шеринге в соцсетях

3. Невозможность серверного рендеринга (SSR), мы сильно зависели от веб-воркеров, что увеличивало задержки

4. Скорость (см.

пункт 3 про доп.

задержки) вызывает глюки и подмену товаров

5. Реализация очень затратна из-за сложностей с полустатическими пермалинками

Одно агентство оценило реализацию в 14 дней, что мы считали оптимистичным прогнозом.

Спустя 9 месяцев они все еще пытались решить проблемы.

Теперь я склоняюсь к более традиционному и SEO-френдли подходу, который проще внедрить.
-

URI-фрагменты работали неплохо в течение нескольких лет.

Согласен, что есть сложности с внедрением, но для платформ с миллионами URL у меня были хорошие результаты в плане более эффективного управления индексацией и краулингом, пишет Ян-Виллем Боббинк.

Сейчас вижу, что Google начинает подхватывать все больше и больше этих URL.

Пока только 18 из общего количества 1.5 миллиона страниц.

@MikeBlazerX

Читать полностью…

Mike Blazer

Длина мета-тайтла - это миф!

Мне посчастливилось послушать выступление Майкла Кинга на SEO IRL (очень рекомендую посетить) про утечку алгоритма Google, пишет Джонатан Кларк.

Один из выводов: "В этом датасете нет никакой метрики, которая учитывает длину тайтлов или сниппетов по количеству знаков".

Раньше длинные тайтлы часто были не оптимальны для получения кликов, но нормально работали для ранжирования.

Однако сейчас, когда Google переписывает примерно 50% title-тегов, заспамленные тайтлы не показываются, но иногда Google использует дополнительный текст для переписывания тайтлов.

В чём выгода?

Использовать GSC API для добавления топ-3 ключевиков страницы в тайтл.

Гениально!

Майкл также упомянул: "Каждый раз, когда мы это делаем, получаем прирост на 10-25%".

Мы протестировали это на очень небольшом наборе страниц.

Результат - почти 20% прироста кликов за первые 28 дней, даже с учётом общего падения трафика во время "Дня благодарения" в США.

Не терпится внедрить это на весь сайт!

Ссылка на презентацию Майка Кинга - тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Более 1/3 всех поисковых запросов в Гугле - "брендовые"!

Ahrefs использовали ИИ для категоризации ~150 млн ключей на "брендовые" и "небрендовые".

И они даже не учитывали имена знаменитостей в качестве брендов.

(Например, в базе данных Ahrefs есть 544 857 ключей, упоминающих Тейлор Свифт.)

Такое огромное количество брендовых запросов подсказывает, что Гугл обслуживает спрос, но не обязательно создает его.

@MikeBlazerX

Читать полностью…

Mike Blazer

Я занимаюсь анализом небольших паблишеров, которые используют ключевые слова сторонних брендов, по которым должны ранжироваться эти бренды, но у них еще не было возможности создать контент, пишет Талеб Каббара.

Например:

"из чего сделаны шнурки найк"

Nike.com находится на 11-м месте по этому запросу.

По этому ключу выдаётся десяток страниц, но ни одна из них не раскрывает эту тему, то есть ни одна страница не отвечает пользовательскому интенту.

#1 страница находится в разделе помощи и рассказывает о замене шнурков Nike, но не объясняет, из чего они сделаны.

Если посмотреть на топ-10 страниц по этому запросу, вы заметите, что laceter.com идеально раскрывает эту тему.

Дальше идут видео из TikTok и YouTube, но Nike там нет.

У Laceter есть отдельная страница под эту тему.

Похоже, это французский нишевый сайт, посвященный шнуркам, с DR32 и средним месячным трафиком менее 8000.

Nike забил на эти запросы - они информационные и практически не приносят бабок.

Это отличный SEO кейс для небольших паблишеров - они всегда могут подхватить похожие ключи у брендов, которым все равно на ранжирование по ним.

Однако большинство мелких сайтов таргетят запросы, под которые бренды уже создали контент.

Именно здесь, как я считаю, HCU ударил по ним сильнее всего.

Ранее приводился похожий пример о том, как Hulu игнорируют огромную возможность получения органического трафика.

Вы можете работать с брендовыми запросами, но убедитесь, что темы, о которых вы пишете, не раскрыты самим брендом, и получите подтверждение, что им действительно все равно.

Не полагайтесь на ИИ в принятии такого решения.

Хотя использовать ИИ для написания контента - нормально.

За скриншотами - сюда.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google стали больше учитывать "возраст" бэклинков, пишет Ральф Кристиан.

Чем дольше существует ссылка, тем выше ты поднимаешься в СЕРПах, не делая ничего дополнительного.

И какие ссылки существуют дольше всего?

Те, которые ты контролируешь.

PBN рулят 🚀

@MikeBlazerX

Читать полностью…

Mike Blazer

Анализ поведения ИИ-краулеров

Объем и распределение трафика

GPTBot (ChatGPT): 569 млн запросов/месяц
Claude: 370 млн запросов/месяц
— Совокупный объем ИИ-краулеров составляет примерно 28% от объема Гуглбота (4,5 млрд запросов)
— Географическая концентрация: только дата-центры США (против 7 локаций у Гуглбота)

Обработка JavaScript

— Основные ИИ-краулеры (OpenAI, Anthropic, Meta, ByteDance, Perplexity) не рендерят JavaScript
— Только Gemini (через Гуглбот) и AppleBot могут полностью рендерить JavaScript
ChatGPT и Claude подгружают JS-файлы, но не исполняют их
ChatGPT: 11,50% запросов
Claude: 23,84% запросов

Приоритеты по типам контента

ChatGPT: фокусируется на HTML (57,70%)
Claude: приоритизирует изображения (35,17%)
— Оба тратят значительные ресурсы на неисполняемый JavaScript
— У Гуглбота более сбалансированное распределение по типам контента

Неэффективности

— Высокий процент 404-ошибок:
ChatGPT: 34,82%
Claude: 34,16%
— (против 8,22% у Гуглбота)
ChatGPT: 14,36% запросов проходят через редиректы
— Частые попытки получить устаревшие ассеты

SSR (рендеринг на стороне сервера)

1. Серверный рендеринг критически важен, так как ИИ-краулеры не могут обрабатывать клиентский контент
2. Критически важный контент должен быть в изначальном HTML-ответе
3. SEO-видимость теперь зависит как от традиционных поисковиков, так и от ИИ-краулеров
4. Необходимо улучшить управление URL из-за высокой неэффективности краулеров

https://vercel.com/blog/the-rise-of-the-ai-crawler

@MikeBlazerX

Читать полностью…

Mike Blazer

Forbes разрывает отношения с фрилансерами из-за политики Google по борьбе со спамом

Forbes приостановил сотрудничество с внештатными авторами для своего раздела обзоров продуктов (Forbes Vetted).

Это решение связано с обновленной политикой Google по борьбе со злоупотреблениями репутацией сайтов, которая направлена на борьбу с практиками "паразитного SEO".

— Фрилансерам платили до $3,000 за большой обзор продукта

— Редакционный процесс включал тестирование продуктов, несколько раундов правок и интервью с источниками

— Ранее опубликованные статьи могут потребовать полного переписывания штатными сотрудниками

-

Authority Hacker закрывают свои флагманские SEO-курсы (TASS и AH Pro):

1. Бизнес-модель контентных сайтов перестала быть надежной из-за:

— Крупных апдейтов Google

— Повсеместного присутствия AI-контента

— Существенных изменений в СЕРПах

2. Этические соображения:

— Они отказываются продолжать продавать курсы, обучающие стратегиям, которые больше не работают надежно для большинства людей, несмотря на то, что эти курсы принесли 8-значную выручку.

Структура и цены курсов

The Authority Site System (TASS) стоил $1,499

Authority Hacker Pro стоил $1,997

Authority Hacker Pro Platinum стоил ~$6,000

Закрытие знаменует конец 10-летней эпохи в SEO-образовании, хотя основатели утверждают, что SEO не умерло, просто модель контентных сайтов стала менее жизнеспособной для большинства людей.

@MikeBlazerX

Читать полностью…
Subscribe to a channel