mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2557

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Я создал скрипт, который поможет вам найти внутренние ссылки, указывающие на "неправильную" страницу, пишет Эверетт Сайзмор.

Всё, что вам нужно, это отчёт All Inlinks из Screaming Frog и отчёты о ранжировании ключевых слов из aHrefs или SEMrush (или из любого другого источника, главное переименовать колонки в [Keyword | Ranking Position | Top Ranking URL]. Удалите все остальные колонки).

Загрузите эти два CSV-файла, и скрипт выдаст вам три CSV-файла:

Multiple Destinations:

Когда одно и то же ключевое слово/фраза ссылается на несколько URL/страниц.

Inconsistencies by Most Links:

Когда страница, на которую ведёт ссылка, не является страницей/URL с наибольшим количеством ссылок.

Inconsistencies by Ranking:

Когда страница, на которую ведёт ссылка, не является страницей с наивысшей оценкой.

Важно:

Не просто отдавайте эти данные джуниор-сеошнику или контент-менеджеру со словами "исправьте это", потому что иногда вы на самом деле не хотите, чтобы страница с наивысшей оценкой оставалась таковой.

Используйте этот инструмент для выявления и исправления проблем с канибализацией или оптимизацией.

Вот всё, что вам нужно сделать:

1. Перейдите по ссылке и сделайте копию Colab Notebook:

https://colab.research.google.com/drive/1GTU7gOc-aFnkGb3nZQi1XYpRhwXHo7Sm

2. Нажмите кнопку "Play".

3. Прокрутите вниз до области, где вы загружаете два файла, начиная с All Inlinks, а затем отчёт о ранжировании.

4. Будьте готовы сохранить три полученных CSV-файла.

Окна сохранения должны автоматически появляться одно за другим.

@MikeBlazerX

Читать полностью…

Mike Blazer

Саймон Кокс столкнулся с деиндексацией сайта simoncox.com, когда проверял его работу в Bing Webmaster Tools (BWT) в январе 2025 года.

Несмотря на обычно небольшой трафик с Bing, растущая важность индекса Bing для LLM и других поисковых систем, таких как DuckDuckGo, делала решение проблемы крайне важным.

Инструмент проверки URL-адресов BWT показывал статус главной страницы как "Обнаружена, но не пройдена", без ожидаемых зеленых галочек, указывающих на успешное индексирование.

Парадоксально, но вкладка "Живая страница" подтвердила, что URL может быть проиндексирован Bing.

Дальнейшее исследование с помощью отчета Crawl and Indexing в разделе Search Performance показало катастрофическое падение: количество проиндексированных страниц упало со 120 до нуля, начиная с августа 2024 года.

Хотя было зарегистрировано 158 ошибок при переползании, Саймон не считал, что они напрямую связаны со сроками деиндексации.

Запрос site:simoncox.com в поиске Bing подтвердил катастрофу - ни одна страница с его сайта не присутствовала в SERP.

Чтобы решить эту проблему, Саймон предпринял следующие шаги:

1. Провел сканирование сайта с помощью BWT, выявив пять ошибок HTTP 500, которые не удалось воспроизвести с помощью других инструментов для поиска, что указывает на проблемы с краулером Bing, а не с сайтом в целом.

2. Вручную добавил 37 страниц в индекс с помощью URL Inspection и запроса на индексацию, который оказался безуспешным через неделю.

3. Исследовал проблемы "качества контента", отмеченные IndexNow.

Внес изменения в потенциально проблемную статью, заменив цитируемый текст скриншотами, чтобы избежать признаков плагиата.

4. Следовал контрольному списку для исправления сайтов, исключенных из индексации Bing, проверяли достоверность XML sitemap, валидность robots.txt, правильность ответов 404 и технические SEO-элементы.

5. Повторно отправил основную карту сайта и RSS-ленту после удаления старой записи карты сайта.

6. Удалил блоки AI crawler из своего файла robots.txt, опасаясь, что они могут конфликтовать с интеграцией Co-pilot от Bing.

7. Обратился в службу поддержки Bing, получив бесполезный ответ, что сайт не соответствует стандартам.

8. Переключил хостинг с Netlify на Cloudflare Pages после обнаружения постоянной 500-й ошибки, настроив двойное развертывание для гибкости.

9. Устранил проблемы с редиректами на Cloudflare, консолидировав правила с помощью splats, после того как обнаружил практические ограничения для статических редиректов.

10. Отправили второй тикет в службу поддержки с тем же бесполезным результатом.

11. Включили в Cloudflare функцию Crawler Hints для использования IndexNow, автоматически отправив 839 URL, что привело к увеличению активности краулеров.

12. Обнаружил, что его скрипт Fathom Analytics был неправильно размещен после закрывающего тега </html>, но перед </body>, что нарушало стандарты HTML.

Это изменение было сделано незадолго до начала деиндексации.

13. Исправил размещение скрипта и повторно отправил URL-адреса всех страниц с помощью инструмента отправки URL-адресов BWT.

После этих изменений Bing стал ежедневно сканировать больше страниц.

Сайт снова появился в SERP, иногда с расширенными списками, показывающими подссылки и описания, а BWT сообщила о возобновлении количества кликов и показов.

Однако восстановление оказалось недолгим.

Вскоре после документирования своего опыта Саймон заметил, что его сайт снова пропал из поиска по оператору site: в Bing, несмотря на то что Webmaster Tools показывал количество показов и кликов.

Он заподозрил, что выявил новую причину, и внес еще одно изменение, запланировав тест, чтобы убедиться, что исправление сработало.

https://www.simoncox.com/post/2025-04-07-recovery-from-a-bing-de-indexing/

@MikeBlazerX

Читать полностью…

Mike Blazer

Как я делаю внутреннюю перелинковку на новых сайтах, пишет SEOwner:

1) Плагин собирает все посты/страницы (кроме исключенных) и записывает заголовок и целевой ключевик из кастомного поля.

2) Я задаю процентное соотношение для каждого типа анкора:

Точное совпадение, Подзапросы, Перефразированные, Общие.

— Промпт для Подзапросов просит ИИ написать X LSI ключевиков, и я случайно выбираю один (новый вывод промпта при каждом выборе).

Работает удивительно хорошо.

— Перефразирование — это запрос к ИИ переписать ключевик в новой структуре, чтобы он выглядел более разговорным/естественным, опять же, ИИ пишет список, и я выбираю случайный вариант.

Я использую этот метод для максимальной случайности каждого результата.

— С Общими анкорами сложно, потому что ИИ часто не может избежать анкоров, которые больше подходят для внешних ссылок.

Я все еще тестирую, но пока использую вручную созданный список и выбираю из него случайный вариант.

3) Назначаю случайное количество ссылок на пост, обычно я провожу различные тесты со случайными значениями 1-2, 1-3, 1-4, 2-3, 2-4 и так далее, в зависимости от количества постов на сайте.

4) Добавление ссылок: раньше я просто вставлял свежие предложения, но моя новая техника — брать существующие предложения из статьи и просить ИИ переписать их, включив ссылку на страницу X с анкором X (созданным как описано выше).

Очевидно, этот метод программный/блэкхат, но если вы этим интересуетесь, это отличный способ.

Что касается добавления новых постов позже, теоретически можно удалить из массива посты, в которых уже есть ссылки, или разработать более продвинутую систему, которая отслеживает каждую ссылку и избегает повторного добавления другой ссылки на ту же страницу.

ИИ далеко не так хорош в других языках, поэтому я не заморачиваюсь.

Я обратно перевожу ключевик на английский, затем пропускаю его через систему анкоров, получаю новое предложение, написанное на английском с включенным английским анкором, и перевожу его обратно.

Это дает интересные эффекты, так как "точные" ключевики часто немного отличаются в зависимости от контекста, в котором они переводятся обратно на неанглийский, поэтому часто они оказываются "как бы точными", а иногда действительно точными, но редко это один и тот же точный ключевик каждый раз.

@MikeBlazerX

Читать полностью…

Mike Blazer

Многие бренды, с которыми я общаюсь, говорят, что пробовали диджитал PR, но полученные ссылки не оказали измеримого влияния на SEO, рассказывает Джеймс Брокбэнк

Вот почему некоторые из этих "провальных" диджитал PR кампаний не дали результата:

↳ Нерелевантные или слабо релевантные кампании, приносящие нерелевантные бэклинки

— Нужно получать ссылки из контента, который напрямую связан с вашим бизнесом и сайтом.

↳ Заработанные ссылки на ассеты без внутренней перелинковки на ключевые страницы

— Ссылки на материалы кампании - это хорошо, но они бесполезны, если не связаны внутренними ссылками с приоритетными страницами и не помогают им ранжироваться выше.

↳ Авторитетные и релевантные ссылки, но техническое SEO тормозит сайт

— Никакие бэклинки не компенсируют серьезные технические проблемы.

Технические проблемы SEO должны быть решены, чтобы капитализировать любые усилия по линкбилдингу.

↳ Отличные ссылки получены, но всё ещё большой разрыв в ссылочной массе с конкурентами

— Бэклинки могут сокращать ссылочный разрыв, но это не всегда будет восприниматься как "влияние", если конкуренты всё ещё далеко впереди.

Доверьтесь процессу и продолжайте сокращать разрыв.

↳ Ссылки ОКАЗЫВАЛИ влияние, но не было правильной системы измерения

— Слишком часто влияние анализируется на уровне всего сайта.

Вместо этого, смотрите детально на страницы, для которых вы получили ссылки (или сделали внутреннюю перелинковку), чтобы увидеть лучший индикатор прогресса и влияния.

↳ Они сдались слишком рано

— Диджитал PR требует времени, чтобы показать результаты.

Ожидать мгновенного эффекта нереалистично, особенно когда существует разрыв в ссылочной массе с конкурентами.

Диджитал PR должен выполняться так, чтобы обеспечивать успех в SEO.

Нельзя просто пойти и получить ссылки без стратегического фокуса и ожидать, что они положительно повлияют на рост.

Стратегия (или её отсутствие) определяет успех.

Выстраивайте свои кампании так, чтобы влиять на SEO-успех с самого начала, и результат будет гораздо заметнее.

@MikeBlazerX

Читать полностью…

Mike Blazer

После последнего обновления Google многие сайты сталкиваются с замедленной индексацией или полным выпадением страниц из индекса.

Три вещи, которые стоит проверить в первую очередь:

1. Действительно ли страница прокраулена? (Проверьте отчет по охвату индексирования в GSC)

2. Легко ли краулить ваш сайт? (внутренняя перелинковка, отсутствие дублей)

3. Является ли ваш контент уникальным и содержательным? (без тонкого партнерского контента или похожих вариативных страниц)

Помните: Google больше не индексирует КАЖДУЮ страницу - только те, которые имеют явную ценность.
-

2017?

Именно тогда Google начал активно вносить изменения в краулинг/индексацию.

И примерно каждый год с тех пор мы наблюдаем более выраженное сокращение охвата краулинга от Google.

1) Скорость: медленнее = меньше прокрауленных страниц
2) Размер: больше ?= медленнее (см. выше)
3) Схожесть: мало оригинальности = меньше краулинга/индексации
4a) Популярность: слабые бэклинки = меньше краулинга/индексации и меньше ранжирования по запросам
4b) Распределение: входящие ссылки по разделам = приоритет краулинга/индексации разделов
5) Свежесть: старше/стабильнее = меньше необходимости в краулинге
6) Структура: слабая внутренняя перелинковка = меньше краулинга/сложнее индексировать
7) Ресурсоемкость: зависимость от JavaScript ?= медленнее краулинг/индексация
8) Интерес: меньше поисковых запросов = медленнее краулинг
9) Удовлетворенность: худшая производительность = меньше краулинга
и т.д.

@MikeBlazerX

Читать полностью…

Mike Blazer

Советы по SEO:

⚠️ 1. НЕ полагайтесь на канонические теги, они НЕ являются произвольными, Google не обязан их соблюдать

⚠️ 2. Сделайте так, чтобы канонические теги использовались как можно меньше.

Этого можно добиться, ограничив сценарии, где они необходимы.

Вот что можно сделать:

➤ Избегайте внутренних ссылок на URL с параметрами (где это возможно)
➤ Избегайте внутренних ссылок на параметры отслеживания, например UTM-метки
➤ Избегайте непоследовательных внутренних ссылок, например, с косой чертой на конце и без нее
➤ Убедитесь, что политики обработки URL работают корректно, например:

Одиночные 301-редиректы для нестандартных протоколов, т.е. с WWW на без WWW и наоборот

Обработка слешей в конце URL

➤ Блокируйте неважные группы параметров через robots.txt, т.е. если определенные группы параметров не приносят трафика и не имеют внешних ссылок
➤ Управляйте своим техническим стеком, обеспечивая невозможность циклических или повторяющихся путей URL (в случаях, где каноникл мог бы их обработать)
➤ Уберите внутренние ссылки на дочерние страницы с каноникалми
➤ Устраните дочерние страницы с каноникалми, где это возможно

⚠️ 3. Избегайте плохих конфигураций канониклов

➤ НЕ канонизируйте серии пагинации на корневую страницу
➤ Не позволяйте динамическим фильтрам страниц генерировать множество вариантов URL с единой точкой отсчета для каноникла
➤ Не канонизируйте на заблокированные страницы (через robots или meta robots)
➤ Убедитесь, что самореферентные канониклы обрабатывают добавленные параметры с самореференцией и не следуют динамически за URL
➤ Убедитесь, что целевые страницы канониклов имеют код HTTP 200 и не являются частью редиректов или цепочек редиректов
➤ Обеспечьте соответствие каноникла протоколу или поддомену
➤ Избегайте дублирования канонических тегов или канониклов, которые выводятся в DOM через iframe
➤ Избегайте размещения канониклов вне <HEAD>
➤ Убедитесь, что CANONICAL выводится как часть исходного DOM-запроса и не изменяется динамически после начального запроса DOM
➤ При использовании HREFLANG канониклы должны быть самореферентными

Сайтам НЕ ДОЛЖНЫ БЫТЬ НУЖНЫ канонические теги в БОЛЬШИНСТВЕ СЛУЧАЕВ - на них не стоит полагаться.

Конечно, их наличие - это лучшая практика, если они реализованы правильно.

Вот что я стараюсь делать, пишет Даниэл Фоли Картер:

1. Устранить причины, позволяющие существовать ДОЧЕРНИМ URL с канониклами
2. Я управляю параметрами максимально эффективно, чтобы они были четко определены как неиндексируемые или, если индексируемые, я рассматриваю отношения между страницей и измененной страницей с выводом каноникла, например, фильтрация в категориях eCommerce
3. Я убираю/устраняю внутренние ссылки на ДОЧЕРНИЕ URL с канониклами насколько это возможно - я оцениваю, можно ли полностью устранить ДОЧЕРНИЕ URL с канониклами
4. Я исправляю непоследовательные внутренние ссылки, чтобы избежать зависимости от канониклов и редиректов
5. Я устраняю/объединяю очень похожие страницы вместо их канонизации
6. Я обеспечиваю правильное поведение канониклов, например, когда URL непоследовательны или когда добавляются случайные строки запросов
7. Я удаляю канониклы в сериях пагинации

@MikeBlazerX

Читать полностью…

Mike Blazer

Googlebot будет краулить и индексировать ссылки, найденные в Schema!

Я узнал это на одном ecom-сайте, где URL вариантов товаров попадали в индекс, пишет Зак.

На странице не было видимых ссылок и записей в сайтмапе, но страницы массово индексировались (несмотря на каноникал тег).

Мы поняли, что причиной, скорее всего, был раздел "offer" в Schema-разметке PDP, где в поле url находились ссылки на варианты товаров.

@MikeBlazerX

Читать полностью…

Mike Blazer

Патенты Google по распознаванию сущностей предлагают удивительное понимание того, как поисковый гигант обрабатывает контент.

В частности, они используют капитализацию в качестве ключевого показателя для идентификации сущностей.

Почти смешно - один из их патентов по сути вращается вокруг концепции, что имена собственные пишутся с заглавной буквы, то, что большинство из нас выучили еще в начальной школе.

Но этот элементарный подход имеет значительные последствия для SEO - места, люди и бренды с заглавными буквами лучше распознаются алгоритмом Google, чем другие элементы контента.

Вот где становится действительно интересно насчет NLP API от Google:

когда вы прогоняете контент через их бесплатный сервис, он выдает гораздо меньше реальных сущностей, чем предполагает большинство сеошников.

Результат включает в себя сетку якобы идентифицированных сущностей, но многие из них вовсе не сущности.

Такие термины, как "best sneaker" или "best black blue sneaker" отмечаются, но они явно не сущности - вы не можете визуализировать их как отдельные объекты.

Единственные настоящие сущности, которые распознает API Google, - это те, у которых есть ссылки на статьи в Википедии.

Всё остальное просто показывает релевантность ключевых слов.

Мы все смотрели на эти маленькие боксы, выдаваемые NLP API от Google, и ошибочно предполагали, что это все сущности.

В реальности, он выполняет обработку естественного языка, а не комплексное извлечение сущностей.

Единственные элементы, которые однозначно классифицируются как сущности - это те, которые связаны с Википедией.

InLinks разработали другой алгоритм - тот, который специально сфокусирован на извлечении сущностей.

Он работает гораздо агрессивнее, чем NLP API от Google.

Эта разница позволила им создать то, что они называют метрикой SEU (Search Engine Understanding).

Эта метрика измеряет количество реальных сущностей (тех, которые связаны со страницами Википедии в NLP от Google) по сравнению со всеми сущностями, которые мы можем идентифицировать.

Эта метрика показывает, сколько сущностей внутри контента вашей страницы действительно понимается и учитывается системами Google.

@MikeBlazerX

Читать полностью…

Mike Blazer

Если Google не сканировал URL в течение последних 130 дней, УРЛ переходит в статус "Проиндексировано - Не отображается"

Алгоритм ранжирования Google основан на фиксированных параметрах, вручную определенных его инженерами — внутренних значениях, которые функционируют как абсолютные правила, а не динамические переменные.

Один из таких критических параметров определяет, как Google управляет своим индексом.

Для любого сайта быть в индексе — и оставаться в индексе — это фундаментально.

Без индексации все усилия по SEO становятся бесполезными.

Как выяснилось во время перекрестного допроса Панду Наяка в антимонопольном деле США, индекс Google содержал приблизительно 400 миллиардов документов в 2020 году.

С точки зрения бизнеса Google, больше проиндексированных страниц означает увеличение требований к хранилищу, вычислительной мощности и операционных расходов.

Для контроля роста индекса Google использует каноникализацию, предиктивный краулинг и санкции.

Исследование с использованием Screaming Frog SEO Spider с интеграцией GSC API выявило постоянную закономерность на пяти разных сайтах:

Страницы, не сканируемые Google в течение 130 дней, автоматически удалялись из индекса.

Это Правило 130 дней последовательно применялось на:

— Сайте португальского производителя шин
— Французском спортивном новостном сайте
— Итальянском журнале о моде
— Международном корпоративном сайте с форумом
— Французском правительственном сайте

Анализ включал только технически корректные страницы — без тегов noindex, без каноникалов, указывающих на другие страницы, и без страниц, заблокированных robots.txt.

Последовательные выводы устанавливают:

— Статус индексации каждой страницы зависит от частоты краулинга Google
— Google применяет статический порог в 130 дней
— Страницы, не сканируемые в течение 130 дней, удаляются из индекса
— У каждой страницы своя частота краулинга, которая меняется со временем

Частота краулинга определяется в первую очередь:

1. Качеством контента страницы
2. PageRank страницы

Анализ деиндексированных страниц выявил общие шаблоны:

— Страницы категорий без уникального контента
— Теговые страницы с минимальной дифференциацией
— Очень короткий контент, изначально разработанный для социальных сетей

Гари Иллиес, аналитик Google, подтверждает:

Если вы хотите увеличить количество наших краулов, то вам каким-то образом нужно убедить поиск, что ваш контент стоит запрашивать.


Он добавляет:
Как только мы получаем сигналы от поисковой индексации, что качество контента увеличилось на таком количестве URL, мы просто начинаем увеличивать спрос.


Для страниц, находящихся под угрозой деиндексации, учитывайте:

— Их расположение в структуре сайта
— Их уровень глубины
— Получают ли они достаточно внутренних и внешних ссылок

Два заключительных совета:

1. Частота краулинга указывает, какие страницы Google ценит больше всего
2. Для комплексного анализа изучите логи за последние 130+ дней, чтобы определить несканированные страницы, которые, вероятно, будут деиндексированы

https://alekseo.com/google-and-the-130-day-rule/

@MikeBlazerX

Читать полностью…

Mike Blazer

Обновленные рекомендации Google для оценщиков качества поиска вышли 23 января 2025 года, и в нем есть малозаметный, но важный раздел, который многие упускают:

2.5.2 – Кто отвечает за веб-сайт и его контент.

Вот почему это важно👇

1. Раздел 2.5.2 просит оценщиков определить, кто владеет и управляет сайтом, и кто несет ответственность за контент.

Если эту информацию сложно найти, это потенциальный красный флаг для оценщиков качества Google и ПОЛЬЗОВАТЕЛЕЙ.

Этот раздел — ключевой элемент прозрачности идентификации.

2. Недостаточно просто добавить страницу "О нас".

Чтобы соответствовать разделу 2.5.2 в рекомендациях для оценщиков качества, вам необходимо:

✔️ Опубликовать полное название компании
✔️ Показать информацию о юридической регистрации
✔️ Указать, кто отвечает за контент
✔️ Предоставить контактные данные и многое другое

Если эта информация отсутствует, ожидайте низких оценок (если вас оценивают) и меньше трафика из Google.

3. Отсутствие раздела "кто стоит за сайтом" подвергает ваш сайт риску получить низкую или самую низкую оценку качества, независимо от самого контента.

Никто не хочет выглядеть ненадежным в глазах Google.

Это серьезно!

Настолько серьезно, что нужно подойти к этому основательно.

4. Помимо оценки Google, соответствие разделу 2.5.2 также может означать, что вы соблюдаете местные законы.

Таким образом, исправление этого — не только вопрос Google, но и юридического соответствия — с фокусом на ПОЛЬЗОВАТЕЛЕЙ, как и у Google.

Вы заметите, что сайты с такими элементами EEAT работают в Google иначе.

5. Внедрение раздела 2.5.2 не только улучшает прозрачность.

Оно также готовит вас к соответствию более чем 13 другим критически важным частям рекомендаций.

Речь идет о E-E-A-T, репутации, контактной информации и даже избегании обманных практик на сайте.

6. Чтобы соответствовать разделу 2.5.2, ваш сайт должен включать:

✔️ Страницу "О нас" с информацией о владельце и редакционной политике
✔️ Страницу контактов с реальной контактной информацией
✔️ Указанного редактора сайта или представителя компании
✔️ Структурированные данные для связывания всего воедино.

И не только!

Например, вам нужны политики, соответствующие вашему региону и виду деятельности.

7. Интересный факт: соблюдая эти требования, вы, вероятно, уже соответствуете местным законам.

Не соответствуете?

Возможно, ваш сайт работал нелегально раньше.

Интересно, что думает Google о таком сайте, когда обнаруживает это?

8. Короче говоря, раздел 2.5.2 — это не просто пункт для галочки.

Это фундамент для доверия к вашему сайту.

Исправьте его должным образом, и эффект домино из сигналов доверия встанет на свои места, улучшив ваше ранжирование и соответствие требованиям.

https://www.hobo-web.co.uk/section-2-5-2-of-the-google-quality-rater-guidelines/

@MikeBlazerX

Читать полностью…

Mike Blazer

Хороший пример того, как последний Core апдейт повлиял на форумные сайты и разделы сайтов

Это раздел форума "What to Expect", который получил огромный буст, когда Google начал продвигать форумы.

А потом, бац, резко упал в с мартовским апдейтом ядра.

Миссия выполнена?

@MikeBlazerX

Читать полностью…

Mike Blazer

Больше доказательств того, что Google AI Overviews, похоже, игнорируют hreflang.

Эта компания - Twinkl - цитируется 4 раза в AIO цитатах здесь (поиск в США).

Дважды для американского сайта, один раз для нигерийского сайта и один раз для нидерландского сайта.

Все страницы на английском языке и имеют hreflang-варианты, указанные для США.

@MikeBlazerX

Читать полностью…

Mike Blazer

geeksforgeeks.org разбанили.

Это было быстро.

Как думаете, почему?

@MikeBlazerX

Читать полностью…

Mike Blazer

Хорошо перформящий сайт + $500/мес SEO-стратегия

@MikeBlazerX

Читать полностью…

Mike Blazer

Я окончательно убедился, говорит Эрвин Хофман: рендеринг на стороне клиента ВСЕГДА БЫСТРЕЕ! 🚀

Я скоро перейду на него и изложил все свои рассуждения (с удивительными данными о производительности) в новом блог посте:

https://www.erwinhofman.com/blog/why-csr-is-always-faster/

@MikeBlazerX

Читать полностью…

Mike Blazer

В конце 2024 года один из моих аккаунтов Pinterest серьезно просел, пишет NicheGrowNerd

Трафик упал с почти 23 000 ЕЖЕДНЕВНЫХ исходящих кликов до менее 1 000 в день. Падение на 90%.

Но в течение 2 месяцев я вернул показатели до >7.5 тысяч ЕЖЕДНЕВНЫХ исходящих кликов.

Вот что именно я сделал и как планирую вернуться к >15 тысячам кликов в день

После глубокого анализа данных я обнаружил три основные проблемы:

1️⃣ Низкие показатели вовлеченности:

У многих старых пинов были низкие показатели сохранений и кликов.

2️⃣ Избыточный постинг:

Я публиковал 48 пинов в день, что размывало общее качество.

3️⃣ Слишком широкий таргетинг:

Я слишком сфокусировался на конкурентных высокочастотных ключах (которые очень нестабильны).

💡 Эти факторы убивали эффективность аккаунта.

Шаг 1: Избавление от балласта

Первым делом я удалил неэффективные пины и доски (если им было больше 3 месяцев и было <10 показов).

Почему? Плохо работающие пины могут тянуть вниз показатели вовлеченности всего аккаунта.

Шаг 2: Сокращение количества

Я загружал 48 пинов в день. Казалось, что чем больше, тем лучше — но я ошибался.

Многие из этих пинов показывали слабые результаты, что снижало общий уровень вовлеченности аккаунта.

Я сократил выход до всего 12 точно таргетированных пинов в день, сделав упор на качество, а не количество.

Шаг 3: Фокус на работающих вещах

Я определил топ-10-15 статей, которые приносили самый высокий RPM и трафик (в моей панели Raptive)

— Я создал новые пины, таргетированные на разные вариации ключей для этих статей.
— Я сделал упор на длиннохвостые запросы, по которым легче ранжироваться и которые более стабильны.

Шаг 4: Оптимизация под вовлеченность

Алгоритм Pinterest сильно учитывает количество сохранений как ключевой фактор ранжирования.

Я сосредоточился на:

— Создании останавливающих скролл дизайнов пинов в трендовых стилях.
— Изучении топовых пинов для каждого ключа в инкогнито-вкладке, чтобы понять, какие форматы и цвета работают.

Шаг 5:

Я заметил закономерность:

— Пины с широкими ключами давали короткий всплеск трафика, но были нестабильны.
— Длиннохвостые запросы стабильно приносили трафик при меньшей конкуренции.

Результаты восстановления

За 2 месяца:

— Аккаунт вернулся к >7 тысячам исходящих кликов в день.
— Показатели вовлеченности стали лучше.
Pinterest вознаградил мой аккаунт большим количеством показов благодаря более высоким показателям сохранений и лучше работающим пинам.

1️⃣ Не бойтесь удалять неэффективные пины и доски.

2️⃣ Сократите объемы, если постите слишком много. Сфокусируйтесь на качественном контенте.

3️⃣ Делайте ставку на длиннохвостые запросы — они менее конкурентны и более надежны.

4️⃣ Отдавайте приоритет показателям сохранений, создавая оптимизированные, визуально привлекательные пины

@MikeBlazerX

Читать полностью…

Mike Blazer

Беэри Амиэль поделился анализом того, как разные поисковые системы на базе ИИ предпочитают разные уровни авторитета домена (который коррелирует с силой бренда).

Из этого можно выделить два интересных наблюдения:

1. От 58% до 73% цитирований приходится на домены со средним уровнем авторитета (между 20-80) — это значит, что для сайтов с более низким авторитетом есть много возможностей для появления в результатах.

2. Perplexity и SearchGPT — которые активно используют веб, находятся на крайнем полюсе по цитированию источников с низким и средним авторитетом домена.

Всё больше моделей движутся в этом направлении.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вот типы компаний или ситуаций, в которых, по мнению Элая Шварца, SEO не нужно или не будет эффективным:

1. Компании, которые не понимают или не выстраивают свою SEO-воронку:

Почему:

— большинству компаний не стоит заморачиваться с SEO, потому что они не могут правильно проанализировать *кто* ищет, *что* они ищут и *как* SEO фактически вписывается в их конкретный путь клиента и воронку продаж.

— Без этого понимания усилия в SEO вряд ли будут соответствовать бизнес-целям или приносить результаты.

2. Компании, продающие очень дорогие продукты/услуги со сложными циклами продаж (Пример: аналитический инструмент стоимостью в сотни тысяч долларов):

Почему:

— Несколько лиц, принимающих решения: Покупки требуют мнения и одобрения различных стейкхолдеров (начальников, CFO, инженеров), а не единичное импульсивное решение на основе поиска.

— Долгие таймлайны и множественные точки контакта: Путь от начального поиска до покупки длинный и включает множество взаимодействий помимо SEO (например, чтение отзывов на G2/Capterra, просмотр видео на YouTube, звонки с продажниками, демо, визиты менеджеров по продажам).

— Сложная атрибуция: Практически невозможно выделить конкретный вклад SEO в итоговую продажу, когда задействовано так много других факторов и точек контакта в течение длительного периода. Высокая стоимость SEO может быть неоправданной из-за отсутствия четкой атрибуции ROI.

3. Компании с супер-новыми продуктами/услугами:

Почему:

— Если продукт или концепция полностью новые, вероятно, для них не существует поискового объема.

— Люди не ищут то, о существовании чего они не знают, что делает традиционное SEO неэффективным для первоначального обнаружения.

4. Компании, продающие очень дорогие потребительские товары со сложным путем клиента (Пример: дома):

Почему:

— Аналогично примеру с дорогостоящим B2B, путь покупателя включает множество точек контакта помимо поиска (например, проезд мимо, рассылки, отношения с риелтором).

— Хотя SEO *может* играть небольшую роль, приписывать значительное влияние или ROI конкретно SEO очень сложно ("Риелторы никогда не узнают").

— Основные драйверы покупки часто находятся в другом месте.

5. Компании, где высокая стоимость SEO перевешивает неопределенный ROI (особенно по сравнению с другими каналами):

Почему:

— Значительные инвестиции: Правильное SEO (гонорары агентствам, внутренний инжиниринг, дизайн, контентные ресурсы) может составлять существенные затраты (потенциально миллионы косвенно).

— Отсутствие четкого ROI: Для компаний, описанных выше (длинные воронки, дорогие товары), трудно гарантировать возврат этих крупных инвестиций.

— Альтернативные издержки: Значительные инвестиции в SEO могут означать отвлечение бюджета от других каналов, таких как платная реклама, которые, хотя и потенциально "дорогие", часто имеют более четкие, быстрые и более атрибутируемые метрики (CAC, LTV).

— Илай ставит под сомнение логику приоритизации неопределенного SEO перед предсказуемыми (даже если дорогостоящими) платными каналами в этих случаях, особенно для стартапов с ограниченным бюджетом.

6. Компании, у которых отсутствует внутренняя структура, согласованность или менталитет для Product SEO:

Почему:

Хотя не утверждается, что SEO *не может* помочь бизнесу, подразумевается, что Product SEO не будет успешно реализован, если:

— В компании отсутствует кросс-функциональное сотрудничество (Маркетинг, Продакт, Инжиниринг).

— Ключевые стейкхолдеры (такие как CMO или CPO) не вовлечены или имеют противоречивые цели.

— Компания полагается исключительно на традиционные агентства, сосредоточенные на технических аудитах, базовом контенте и линкбилдинге, а не на интеграции SEO в основную продуктовую стратегию.

— В таких средах инерция и отсутствие поддержки препятствуют реализации эффективного Product SEO, делая значительные инвестиции потенциально бесплодными.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как DeepSearch отбирает сниппеты и приоритизирует URL

Факторы, которые они используют:

Freshness: Дата последнего обновления контента (HTTP-хидеры, видимые даты и Schema.org...).

— Частотность и авторитет домена: Контент, на который ссылаются из множества источников и релевантных доменов.

— Структура пути: URL, семантически организованные в тематические кластеры.

— Семантическая релевантность: Используют эмбеддинги (jina-embeddings-v3) и модели ранжирования для определения релевантности вопросу пользователя.

Late chunking: Выбирают релевантные фрагменты в длинных документах с помощью техники "late chunking", которая сохраняет контекст и облегчает выбор самодостаточных сниппетов.

Ничего не напоминает?

Кроме того, они отмечают, что нам стоит избегать контента с ограниченным доступом или пейволами, поскольку они не могут получить к нему доступ, не нарушая ToS.

Так что, в очередной раз, ничего действительно нового — если ты уже занимаешься SEO, этого достаточно.

@MikeBlazerX

Читать полностью…

Mike Blazer

Современное пособие для паразитов: как управлять игорной империей изнутри легального сайта и остаться безнаказанным

В конце прошлого года Esports Insider был новостным сайтом, обслуживающим растущую аудиторию киберспорта.

Два месяца спустя он превратился в один из крупнейших гемблинг-сайтов на планете, привлекая трафик по конкурентным запросам и направляя посетителей в сеть крипто- и гемблинг-сайтов.

После двух ручных санкций они всё ещё продолжают этим заниматься.

История начинается, когда SEO-специалист Чарльз Флоут замечает что-то странное на сайте.

Веб-сайт, который годами предлагал новости о киберспорте, внезапно начал ранжироваться по гемблинг-запросам.

С почти миллионом бэклинков от более чем 70 тысяч доменов, включая The New York Times, The Los Angeles Times и BBC, Esports Insider имел убойные ссылки и хороший авторитет.

По данным Ahrefs, сайт ранжировался по таким запросам, как "slots" - чрезвычайно конкурентному ключевому слову - всего за пять дней.

Esports Insider - это паразитная операция, принадлежащая Finixio, который служит проводником для обширной сети крипто-, гемблинг- и паразитных SEO-операций.

Их план действий: найти сайт с хорошим авторитетом домена, купить его, сохранить существующий контент и структуру, создать новый раздел для гемблинга и направлять трафик в онлайн-казино или криптокошельки под своим управлением.

Первоначальный управляющий директор Сэм Кук ушёл после смены владельца бизнеса, без указания имени покупателя.

Брендинг сайта остался прежним, дизайн похожим, а фокус по-прежнему формально на киберспорте - но с новым пунктом "betting" в навигационном меню.

На сайте быстро появилась подпапка "gambling", наполненная контентом от Виолы д'Элиа из Clickout Media (операционного подразделения Finixio).

Гайды были нацелены на конкретные ключевые слова и региональные гемблинг-термины - например, "pokies" для австралийских игроков и шведские страницы, рекламирующие нелицензированные казино.

Они продвигают Best Wallet - кошелек, рекомендуемый сайтами Finixio для доступа к криптопроектам, принадлежащим Finixio.

Когда Google наложил санкции на сайт, они не исправились.

Вместо этого они изменили родительскую папку с "gambling" на "igaming" с идентичным контентом.

Дата "последнего обновления" была другой, но от заголовка до подписи автора, это была та же страница.

Когда санкции наложили снова, они опять сменили имя папки на "betting".

Некоторые гайды находились в разделе /igaming/, но содержали рекомендации, ведущие к /gambling/, в то время как другие вели на URL типа /lp/fast-withdrawal-casinos.

Интересно, что затронут был только верхний уровень подпапки - при выборе гайда вы часто оказывались по пути /cc/gambling/xyz.

Паттерны трафика ясно показывают цикл санкций - падение, восстановление, падение, восстановление.

Страницы для конкретных регионов, такие как "casino utan svensk licens" (казино без шведской лицензии), следуют идентичному паттерну - получают санкции и многократно возвращаются.

Это не первый подобный случай для Finixio.

Techopedia, одна из их ранних паразитных операций, несколько раз получала санкции, но продолжала восстанавливаться, пока не получила штраф, от которого не смогла оправиться.

Они полностью превратили её в гемблинг-ресурс.

В отличие от Techopedia, санкции Esports Insider узко применяются к конкретным подпапкам, игнорируя то, что происходит на уровень ниже.

Без алгоритмического ответа на это злоупотребление паразитное SEO съест интернет.

Глава поиска Google Элизабет Рид недавно назвала отправку трафика на сайты издателей "необходимым злом", от которого Google пытается уйти.

Уже многие медиа-сайты занимаются контентом по принципу pay-to-play, но подход Finixio дестабилизирующий и разрушительный.

В конечном итоге все сайты среднего сегмента интернета будут поглощены изнутри, либо Finixio, либо ещё менее щепетильными подражателями.

https://recleudo.com/the-modern-parasite-playbook-how-to-run-a-gambling-empire-from-inside-a-legit-website-and-get-away-with-it/

Читать полностью…

Mike Blazer

Марк Цукерберг пишет сообщение инженеру Facebook

5 апреля 2012 г.

Марк Цукерберг: "Тут?"

Инженер Facebook: "Да"

Цукерберг: "Если бы можно было купить что-то одно — Instagram, Foursquare или Pinterest, что бы ты выбрал?"

Инженер: "Это сложный вопрос, так как у всех очевидно есть свои плюсы и минусы. Первым делом я думаю о Foursquare, так как считаю их продукт наиболее привлекательным в том плане, который нам было бы сложнее всего повторить"

Инженер: "Однако, думаю, у них наименьший потенциал массового охвата из всех трёх"

Инженер: "Поскольку он ориентирован на молодых городских людей."

Инженер: "У Pinterest потенциально самая широкая аудитория, хотя я думаю, что мы могли бы естественным образом развить концепцию пространств в Timeline, которые выполняли бы ту же функцию курирования, что и Pinterest, и я не уверен, что их команда была бы таким уж ценным активом"

Инженер: "Я не особо знаком с продуктовой/дизайнерской/инженерной командой Foursquare"

Инженер: "Также считаю, что есть стратегический вопрос о том, кто ещё может быть заинтересован в покупке этих компаний и готовы ли они вообще продаваться"

Инженер: "например, я думаю, что Instagram может оказаться важнее Foursquare с точки зрения защиты, потому что такие компании как Apple могут использовать их как точку входа"

Инженер: "какие у тебя соображения?"

Цукерберг: "Мне просто нужно решить, будем ли мы покупать Instagram"

Цукерберг: "Не думаю, что остальные сейчас продаются."

Цукерберг: "Это очень дорого — примерно $1 миллиард."

Цукерберг: "Думаю, они для нас довольно опасны, но не уверен, насколько по сравнению с другими компаниями."

Инженер: "Это большие деньги. В чём, по-твоему, заключается угроза с их стороны? Что-то большее, чем борьба за внимание и контент?"

Цукерберг: "В целом так и есть, но это серьёзный вопрос."

Цукерберг: "То есть, всё зависит от того, насколько большими они станут."

Цукерберг: "Но фото — один из немногих ключевых юзкейсов для нас."

Цукерберг: "Есть разные способы смотреть на сервис."

Цукерберг: "Один — это то, как контент проходит через него: News Feed, Timeline, OG, Search и так далее."

Цукерберг: "Это функциональная разбивка нашего сайта и того, как мы над ним работаем."

Цукерберг: "Другой — с точки зрения ключевых юзкейсов: отправка сообщений, шеринг фото, игры и так далее."

Цукерберг: "У нас сейчас большая проблема, потому что гейминг уходит от нас на мобильные платформы. Это создаёт негативный момент во многих аспектах: общая вовлечённость геймеров, рекламные траты от геймеров, общая выручка и так далее."

Цукерберг: "Если ещё один ключевой юзкейс уйдёт, думаю, это будет очень плохо для нас."

Инженер: "Да, логично"

Цукерберг: "С другой стороны, получить новый юзкейс теоретически так же ценно, как не потерять существующий."

Цукерберг: "Pinterest и Foursquare, вероятно, более ценные рынки, чем фото."

Цукерберг: "Для e-commerce и локального бизнеса соответственно."

Цукерберг: "Хотя все эти продукты ещё очень сырые"

Цукерберг: "Instagram может нам серьёзно навредить, даже не став огромным бизнесом. С остальными, если они вырастут, мы просто пожалеем, что не сделали этого раньше."

Цукерберг: "Или мы сможем купить их тогда, или построить что-то похожее по пути."

Цукерберг: "Мы уже работаем над созданием какой-то версии Foursquare."

@MikeBlazerX

Читать полностью…

Mike Blazer

Многие уже забили на традиционное SEO и сфокусировались на LLM-SEO.

В Beehiiv мы пошли противоположным путём — мы удвоили ставки на статьи объёмом 1 500-2 000 слов, исследованные и написанные людьми, и увеличили нашу продуктивность с 1 статьи до 2 в день, пишет Эдвард.

Результаты просто нереальные — наша органика не только на рекордном уровне, мы наблюдаем огромную тягу со стороны AI-инструментов.

ИИ всегда будет брать контент откуда-то, поэтому хорошо ранжируясь традиционными методами, мы будем готовы стать основным источником для выдачи.

Другая часть, которую люди, похоже, не понимают, заключается в том, что 90% SEO вообще не о конверсии.

Люди оплакивают потерю трафика из традиционных СЕРПов, не осознавая, что большинство пользователей, кликающих по вашим ссылкам, не готовы покупать.

Таким образом, когда пользователи взаимодействуют с вашим контентом через AI-инструмент, результат тот же самый (не считая невозможности ретаргетинга) в том смысле, что они получают узнаваемость бренда.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы ошибаетесь насчет EEAT!

Большинство сеошников относится к одной из 2 групп:

1) EEAT описывает факторы ранжирования
2) EEAT никак не связан с ранжированием

И неважно, какой из этих двух вариантов ты считаешь правильным — ты ошибаешься!

С одной стороны — да, были (и до сих пор есть) люди, которые продвигают EEAT для ранжирования.

И это несмотря на то, что Google внес поправки в свои доки в прошлом году, говоря "нет", и недавно снова сказал "нет" прямо со сцены.

С другой стороны — есть несколько крикливых личностей, которые до сих пор протестуют, что EEAT — полная чушь и ничего не дает.

Лично я считаю, что второй вариант более вреден, пишет Lindon NA.

Давайте рассмотрим 2 почти идентичных сайта:

— Одна тема/предмет.
— Одинаковое количество страниц.
— Одни и те же целевые запросы.

Единственная разница...

Сайт А намеренно прошелся по GQRG (руководство для оценщиков качества Google) и удалил каждый намек на EEAT со своего сайта.

Сайт Б, напротив, вложил время, усилия и ресурсы в юзабилити, внутреннюю перелинковку, цитирование источников и т.д.

Какой из них, по-вашему, будет лучше ранжироваться через 3/6/9/12 месяцев?

Какой из них, по-вашему, просядет?

Ответ, конечно, — говносайт, который отталкивает пользователей, не удовлетворяет их потребности, создает ненужное трение и, вероятно, оптимизирован каким-то тупым идиотом.

Давайте проясним...

Подавляющее большинство элементов EEAT НЕ являются прямыми факторами ранжирования.

У Google НЕТ (насколько нам известно) никакого специального алгоритма или набора метрик для таких вещей, как авторы.

Они не дают бонусов за наличие блока или страницы с информацией об авторе (и не наказывают за их отсутствие).

Но люди... обычные пользователи сайта... реагируют на такие вещи.

Иногда сознательно, иногда подсознательно.

И эти реакции можно отследить.

Говносайты/страницы/контент обычно:

— не зарабатывают бэклинки.
— не получают повторный трафик.
— не удовлетворяют пользователей.

EEAT не влияет напрямую на ранжирование, но это не значит, что его следует игнорировать.

В нем содержится куча руководств для создания качественного контента и удовлетворения пользователей.

Так что у тебя есть выбор:

a) Игнорировать EEAT и, возможно, страдать

b) Придерживаться EEAT ради ранжирования и, вероятно, немного разочароваться

c) Включить мозг, думать самостоятельно, осознать представленную ценность, внедрить то, что актуально, и быть довольным немного лучшими показателями SEO, юзабилити и коэффициента конверсии.

Выбор за тобой!

@MikeBlazerX

Читать полностью…

Mike Blazer

Мы обнаружили корреляцию между переписыванием мета-описаний Google и косинусным сходством между вашими целевыми ключами и предложениями на странице, пишет Дэн Хинкли.

Замечали, что Google переписывает ваши тщательно продуманные мета-дески?

Вы не одиноки.

Google меняет более 70% мета-десков.

Интересно, что Google обычно использует предложения, уже имеющиеся на вашей странице.

Но как Google выбирает эти предложения?

Вполне вероятно, что они делают это с помощью векторных эмбеддингов, Google измеряет семантическую релевантность, определяя наилучшее соответствие.

Почему это важно для SEO?

— Повышение CTR: Оптимизируйте предложения, которые Google, скорее всего, использует, улучшая кликабельность.

Или убедитесь, что на вашей странице есть предложение, которое может стать мета-деском для вариации ключа, по которому вы ранжируетесь.

— Улучшение релевантности: Приведите ваш контент в более тесное соответствие с целевыми ключами, чтобы повысить потенциал ранжирования.

— Выявление возможностей для оптимизации: Поймите, как Google воспринимает ваш контент, чтобы направлять стратегические правки.

Вот быстрый процесс для прогнозирования выбора Google для мета-описаний:

1 - Вытащите топовые ключи из GSC.

2 - Перечислите предложения вашей страницы в Google Sheets.

3 - Рассчитайте оценки косинусного сходства между ключами и предложениями, используя эмбеддинги для ключей и предложений (мы масштабируем их до 10-балльной шкалы для удобства чтения) с помощью нашего внутреннего Google App Script и движка текстовых эмбеддингов Google.

4 - Примените условное форматирование, чтобы выделить лучшие совпадения для каждого ключа.

После выявления стратегически оптимизируйте эти ключевые предложения для SEO и для привлечения дополнительных кликов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как часто Google изменяет тайтлы и почему?

Исследование проанализировало тысячи запросов и первые 50 страниц результатов поиска Google, сравнив оригинальные теги <title> с отображаемыми в СЕРП.

Ключевые выводы

76.04% всех тайтлов были изменены Google, что больше по сравнению с 61% в 2023 году
— Только 23.96% тайтлов остались неизмененными
— Google удаляет в среднем 2.71 слова и сохраняет только около 35.02% исходного контента

Влияние ключей в измененных тайтлах

— Удаление ключей: 1.57%
— Добавление ключей: 1.01%
— Сохранение ключей, если присутствовали в оригинале: 20.67%
— Отсутствие ключей в обеих версиях: 76.74%

Анализ пользовательского интента

Коммерческие запросы:
— Частота изменений: 75.97%
— Оригинальные тайтлы с ключами: 31.91%
— Тайтлы в СЕРПе с ключами: 31.31%
— В измененных тайтлах: Ключи сохранены 30.17%, удалены 2.23%, добавлены 1.44%, отсутствуют 66.17%

Информационные запросы:
— Частота изменений: 76.17%
— Оригинальные тайтлы с ключами: 5.81%
— Тайтлы в СЕРПе с ключами: 5.67%
— В измененных тайтлах: Ключи сохранены 5.35%, удалены 0.51%, добавлены 0.33%, отсутствуют 93.81%

Анализ типов контента

YMYL-контент:
— Частота изменений: 76.00%
— Наличие ключей в оригинале: 20.83%
— Наличие ключей в СЕРПе: 20.35%
— В измененных тайтлах: Ключи сохранены 19.63%, удалены 1.66%, добавлены 1.03%, отсутствуют 77.68%

Не-YMYL контент:
— Частота изменений: 76.27%
— Наличие ключей в оригинале: 28.01%
— Наличие ключей в СЕРПе: 27.88%
— В измененных тайтлах: Ключи сохранены 26.35%, удалены 1.09%, добавлены 0.92%, отсутствуют 71.64%

YMYL-ниши

— Здоровье: Изменения 76.51%, ключи в оригинале 22.26%
— Юридическая тематика: Изменения 74.94%, ключи в оригинале 19.68%, высший показатель удаления ключей 3.80%
— Финансы: Изменения 74.93%, низший показатель ключей в оригинале 14.57%, высший показатель отсутствия ключей 84.08%

Влияние поискового объема

— Частота изменений растет с объемом: от 75% для низкочастотных до 79.23% для запросов 100k+
— Наличие ключей растет с объемом: 45.99% для запросов 100k+ против 6.86% для запросов 0-100
— Высокочастотные запросы: Больше добавлений ключей (2.25% против 0.44%) и удалений (4.49% против 0.58%)

Почему Google меняет тайтлы

1. Удаление бренда (63.0%): Google удаляет названия брендов, особенно с известных сайтов или для небрендовых запросов
2. Улучшение читабельности/ясности (30.3%): Переписывание тайтлов для большей четкости или лучшего соответствия ожиданиям пользователей
3. Управление длиной (8.3%): Обрезание длинных тайтлов или расширение коротких
4. Соответствие поисковому интенту: Изменение тайтлов для лучшего соответствия предполагаемому интенту
5. YMYL-соображения: Удаление бренда и упрощение распространены в чувствительных темах
6. Добавление конкретики: Улучшение общих тайтлов описательными терминами, релевантными контенту и запросу

Характеристики неизмененных тайтлов

Оптимальная длина: Короче (в среднем 44 символа/7 слов против 63/10 для измененных), с 84.87% в диапазоне 30-60 символов
Дружественные пользователю форматы: Вопросительный формат (10.11%), указание года (10.32%), how-to (5.67%) и списочный формат (4.18%)
Начало, сигнализирующее об интенте: Фразы типа "как выбрать", "X лучших", "что такое" часто сохраняются
Лаконичное использование ключей: Естественная интеграция ключей в понятные тайтлы

Основные выводы

— Ожидайте, что Google изменит ваши тайтлы более чем в 76% случаев
— Google приоритизирует ясность, краткость и релевантность тайтлов пользовательскому интенту
— Ключевые слова важны, но Google редко манипулирует ими напрямую
— Коммерческие тайтлы естественно включают ключи чаще, чем информационные

@MikeBlazerX

Читать полностью…

Mike Blazer

Комментарии людей из сообщения LinkedIn трехчасовой давности могут попасть в AI обзоры и режим AI.

@MikeBlazerX

Читать полностью…

Mike Blazer

Анн Смарти:

Я получила полезное сообщение из GSC для БРЕНДОВОГО ЗАПРОСА моего клиента (см. основной скриншот к посту).

Кто-нибудь догадается, что изменилось в СЕРПах?

Конечно, они по-прежнему на 1-м месте по своему брендовому имени, НО теперь для него показывается AI Overview (который, кстати, тоже на них ссылается).

Google может не раскрывать показатели кликабельности из AI Overview, но это и так очевидно, верно?

54% потеря кликов по их БРЕНДОВОМУ ИМЕНИ без потери позиций или показов. 🤯

Решение, которое я собираюсь предложить клиенту?

Да, вложиться в платную рекламу по их брендовому имени (чего они еще не делают, но теперь будут).

Да, возможно, это и есть цель Google, но честно говоря, я рекомендовала ставить ставки на брендовые запросы всем моим клиентам уже много лет.

Вы наблюдаете ту же тенденцию для запросов, которые вызывают AI Overview, даже если сайты ваших клиентов цитируются в них?

И да, бренд достаточно уникальный, ему больше 20 лет.

Их брендовое имя достаточно популярно, чтобы иметь достаточно поисковых запросов для срабатывания предупреждения в GSC, когда эти клики упали.
-

Харприт:

Казалось бы, бренду Quickbooks не нужен AI Overview, но вот мы здесь (скриншот)
-

Сайрус Шепард:

Мой сайт ранжируется по этому поисковому запросу в Google практически всеми возможными способами:

— Топовая позиция,
Featured Snippet,
— источник для AI Overview
— и Картинки

И всё же трафик упал на 40%, поскольку Google более широко внедряет AI Overview.

Будущее веб-публикаций будет выглядеть совсем, совсем иначе.

Скриншот

@MikeBlazerX

Читать полностью…

Mike Blazer

Завораживающая жизнь SEO-фрилансера

@MikeBlazerX

Читать полностью…

Mike Blazer

Новый плагин для сеошников после апдейта Гугла

@MikeBlazerX

Читать полностью…

Mike Blazer

"Давайте разместим наш блог на поддомене," говорили они.

Мы видим это постоянно — крупные интернет-магазины размещают свои блоги на поддомене (например, blog.domain.com).

Разработчики часто настаивают на этом, чтобы избежать неуклюжей настройки блога в Shopify или чтобы иметь больше гибкости со структурой URL.

Но вот в чем проблема:

Ваш контент оказывается на изолированном поддомене с нулевыми бэклинками, отсутствием авторитета и — что хуже всего — гейтвей-страницами.

Что такое гейтвей-страница?

Веб-страница, разработанная для высокого ранжирования по определенным ключевым словам в результатах поиска, но с единственной целью перенаправления посетителей на другую страницу сайта.

Так что же происходит, когда вы переносите этот контент с поддомена на основной сайт (где сосредоточен весь ваш авторитет)?

Мы протестировали это с пятью застойными постами в блоге — никаких дополнительных изменений, только 301 редирект на основной сайт, говорит Джонатан Кикбуш.

🚀 Результат?

Увеличение кликов более чем на 200% и взлет позиций в топ-3.

@MikeBlazerX

Читать полностью…
Subscribe to a channel