Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Смотрите-ка что тут у нас...TrustRank
(скор траста) реально существует?
Прикольно...quality/trustrank/api/v4/clients/cpp/client.proto
-
Упоминания сигнала TrustRank
были найдены в одном из Android APK
для Pixel Camera
, а потом в Chrome
в виде случайного коммита, который очень быстро пофиксили.
Также возможно у Google есть "черный список", куда сущности добавляются по желанию гуглеров.
-
Помимо TrustRank
от Yahoo
, есть еще патент Google, который рассказывает про Trust Rank
.
В этом контексте, Trust Rank
— это то, насколько они доверяют ревьюерам.
Похоже, что они используют его для расчета агрегированных оценок пользовательских отзывов.
-
В найденном эндпоинте Гугла буквально была метрика под названием "site_quality
", которая как минимум определяла, получит ли сайт какие-то рич сниппеты (что технически происходит уже после ранжирования).
@MikeBlazerX
Google рассчитывает консенсус-скор для контента.
У поисковика также есть множество классификаторов для запросов, определяющих, относятся ли они к YMYL
или к разоблачениям/опровержениям.
Вы можете четко увидеть, как консенсус влияет на вес в СЕРПе - попробуйте поискать "плоская ли земля?"
Если вы пишете контент по YMYL
-тематике или занимаетесь опровержениями, и включаете в него радикальные неконсенсусные вещи, шансы попасть в такой тип СЕРПа существенно снижаются.
Вывод здесь не в том, что "вы всегда должны писать только консенсусные вещи" - конечно, есть запросы, где ответы субъективны, и "здоровый" СЕРП будет показывать материалы с разными консенсус-скорами.
Для YMYL
-тематик стоит разделять консенсусный и неконсенсусный контент, если вы планируете освещать оба типа.
@MikeBlazerX
AI
-инструменты для SEO (часть 2/2)
Оптимизация контента
Применение ChatGPT
— Основные использования:
— Оптимизация мета-десков
— Естественная интеграция ключей
— Стратегическое размещение ссылок
— Саммаризация контента
— Разработка брифов
— Создание персон
— Оптимизация тайтлов
— Лучшие практики:
— Создавайте кастомные промпты под свои задачи
— Всегда проверяйте и редактируйте AI
-выдачу
— Поддерживайте консистентность "тонa голоса"
— Стратегия внедрения: Начните с одной задачи и отточите её перед расширением
Кастомные GPT
Каждый специализированный GPT
выполняет определенные функции:Flesch Kincaid Genius
- Оптимизация читабельности
— Для: Контент-редакторов и райтеров
— Совет: Установите консистентные цели по читабельности для разных типов контентаGPT Persona AI
- Детальная разработка персон
— Для: Маркетинг-стратегов
— Совет: Обновляйте ежеквартально с новыми рыночными даннымиBrand Voice Reviewer
- Проверка консистентности контента
— Для: Контент-команд с множеством райтеров
— Стратегия внедрения: Сначала создайте детальные гайдлайны по "тону голоса"Schema Markup Generator
- Оптимизация технического SEO
— Для: SEO-специалистов
— Совет: Тестируйте выдачу в Google Rich Results Test
Инструменты линкбилдингаAdvanced Link Building Suite
— Основное применение:
— Оптимизация внутренней перелинковки
— Автоматизация аутрича
— Поиск возможностей для линкбилдинга
— Стратегия внедрения:
1. Начните с внутренней перелинковки (Link Whisper
/InLinks
)
2. Внедрите технические решения (LinkBERT
)
3. Запустите аутрич-кампании (Respona
)
— Лучшие практики:
— Регулярный аудит и обновление ссылок
— Персонализированные аутрич-шаблоны
— Подход "качество важнее количества"
Ключевые факторы успеха
1. Выбор инструментов
— Фокус на инструментах, решающих конкретные задачи
— Приоритет возможностям интеграции
— Учет кривой обучения и возможностей команды
2. Внедрение
— Начинайте с малого и масштабируйтесь постепенно
— Документируйте процессы и лучшие практики
— Регулярный обзор производительности и оптимизация
3. Поддержка
— Поддерживайте инструменты в актуальном состоянии
— Регулярный мониторинг эффективности
— Постоянное обучение команды
Помните: AI
-инструменты должны дополнять, а не заменять экспертизу человека. Фокусируйтесь на инструментах, которые заметно повышают эффективность и дают измеримые результаты для ваших конкретных задач
https://moz.com/blog/ai-seo-tools
@MikeBlazerX
У форумов часто самый отстойный рекламный опыт, особенно для незалогиненных юзеров.
Так было уже давненько.
Но их прилично подняло последними апдейтами Гугла (скрытые жемчужины!), так что, похоже, не особо важно, насколько бесячая у них реклама.
Вот пример: форум по конкретной модели тачки.
Почти все, что удалось нагуглить, сильно выросли с прошлого сентября.
А этот вообще улетел в космос с начала ноябрьского Core
-апдейта.
Рекламный опыт не самый худший, но... встроенная реклама в сами посты?
Фуу.
@MikeBlazerX
Стратегия выбора доменов для SEO: Влияют ли ccTLD
(национальные домены) на позиции в выдаче?
Детальный анализ 3200 результатов поиска на немецком языке в Швейцарии показал интересные инсайты о влиянии доменной стратегии на SEO-показатели.
Исследование фокусировалось на ключах из IT
и софтверной индустрии на разных этапах пользовательского пути — от информационных до коммерческих запросов.
Хотя домены .com
доминируют в общей выдаче с долей 40%, а на домены .ch
и .de
приходится по 23%, картина существенно меняется в зависимости от пользовательского интента.
Международные домены занимают 80% позиций по всем проанализированным ключам в немецкоязычной выдаче.
Для коммерческих запросов домены .ch
занимают 55% позиций в топ-10, что говорит о предпочтении Гуглом локальных сайтов в случаях с намерением покупки.
Данные показывают, что домены .ch
достигают высоких позиций, несмотря на то, что их авторитет домена в среднем на 16 пунктов (25%) ниже, чем у доменов .com
.
Это указывает на то, что для локальных запросов географическая релевантность в глазах Гугла перевешивает чистый траст сайта.
Однако для информационных запросов картина другая — международные домены стабильно обгоняют локальные, особенно в How-to
контенте, Wiki
-статьях и листиклах.
Немецкие домены (.de
) показывают хорошие результаты в информационной выдаче несмотря на более низкий траст, что подтверждает: для информационных запросов качество контента важнее геосигналов.
Стоит отметить, что меньшее присутствие доменов .ch
может объясняться общим меньшим количеством швейцарских страниц.
Исследование предлагает гибридный подход: использовать национальные домены для локального рынка и коммерческих запросов, а глобальные — для международного охвата и информационного контента.
Это создает возможности для локального бизнеса заполнить контентные пробелы там, где сейчас доминируют международные домены.
Для оптимальной SEO-эффективности бизнесам следует выбирать доменную стратегию в соответствии с целевым рынком и типом контента.
Локальные сервис-провайдеры выигрывают от использования национальных доменов даже при низком трасте, а контентным проектам может быть выгоднее использовать домены .com
.
Для международного охвата домены .com
дают дополнительные преимущества за счет консолидированного траста, несмотря на возможные небольшие минусы в коммерческой выдаче.
Ключ к успеху — в соответствии выбора домена пользовательскому интенту и геотаргетингу при сохранении высокого качества контента независимо от выбранного домена верхнего уровня.
Такая картина показывает, что хотя утверждение Гари Иллиеса "локальные домены работают лучше, потому что Гугл предпочитает локально релевантный для пользователя контент" верно для коммерческих запросов, оно упрощает сложную взаимосвязь между выбором домена и поисковой эффективностью для разных типов запросов и рынков.
https://www.seoexamples.com/p/seo-domain-strategy-do-country-specific
@MikeBlazerX
Страницы, заблокированные через robots.txt
, могут появляться в AI Overviews
(AIO).
Со сниппетом.
Обычно, когда Гугл показывает заблокированные страницы в поисковой выдаче, в описании отображается "Нет информации для этой страницы".
Но в случае с AIO
, Гугл показывает описание.
Более того - на этом сайте есть 19 страниц, заблокированных через robots.txt
, которые цитируются в AIO
.
Возможно, AIO
прокраулил страницу до того, как была добавлена директива в robots.txt
?
Дальнейшее расследование показало, что эта директива в robots.txt
была добавлена еще в мае.
Если вы блокируете контент от краулинга через robots.txt
(до того, как Гугл зарегистрирует noindex
на странице), страница потенциально может появляться в AIO
- со сниппетом - как минимум 7 месяцев.
@MikeBlazerX
SEO - это профессия, в которой мошенники и жулики настолько бросаются в глаза, что исправление чужих ошибок становится вполне реальной карьерной перспективой.
@MikeBlazerX
Почему Google может игнорировать правильно реализованные теги hreflang
и canonical
, показывая "неправильную" версию страницы для определенной страны, что приводит к плохому пользовательскому опыту?
Мнения, предложения и советы сообщества:
Проблемы технической реализации:
— Проблемы с гидратацией, когда "сырой" DOM
показывает разные версии hreflang
, внутренних ссылок или каноникалов по сравнению с отрендеренным контентом
— JavaScript
в <head>
до hreflang вызывает преждевременное закрытие <head>
— Проблемы с краулингом, препятствующие доступу дальше страниц выбора страны
— Конфликтующая разметка между SSR
и клиентским рендерингом
— Битые теги hreflang
после закрытия <head>
Факторы, связанные со ссылками:
— Самые сильные бэклинки ведут только на одну языковую версию
— Кросс-региональные ссылки и редиректы создают несогласованные сигналы предпочтения сайта
— Паттерны внутренней перелинковки с/на страницы неправильных локаций
— Ссылочный вес перебивает сигналы hreflang
Контент и локализация:
— Недостаточная локализация контента со смешанным языковым составом
— Упущенные культурные нюансы в использовании языка неместными копирайтерами
— Сложно различимые между регионами продуктовые сеты (похожие названия, но разные товары/цены)
— Отсутствие информации о бренде + стране в тайтлах
— Разница в качестве контента и юзабилити между версиями
Поведенческие и технические факторы:
— Целевая аудитория ищет на других языках, чем ожидалось
— Языковые настройки браузера не соответствуют локации (например, неанглоязычные рынки с английскими настройками браузера)
— Время загрузки страниц из целевых локаций влияет на выбор Google
— Переключатель языка не краулится
— Время, необходимое Google для имплементации новых hreflang
Рекомендации по имплементации:
— Рекомендуется использовать hreflang
либо в HTML
, либо в XML
-сайтмапах, но не везде
— Убедитесь, что названия стран есть в тайтлах (например, "xxx - бренд US
")
— Проверьте соответствие локации пользователя и языка браузера тегу
— Верифицируйте правильность применения кодов стран и языковых тегов
@MikeBlazerX
Google Discover
представляет собой самую значительную возможность для SEO за последнее десятилетие, хотя большинство сеошников до сих пор не обратили на неё должного внимания.
Успех платформы обусловлен её интеграцией в экосистему Google: она предустановлена на Android
-устройствах и не требует ни скачивания приложений, ни создания аккаунта.
В эпоху бесконечного скроллинга эта бесшовная интеграция обеспечивает огромную ежедневную вовлеченность пользователей во всех странах, даже несмотря на то, что многие не знают название продукта.
Платформа сильно отличается от традиционных подходов к SEO, предлагая возможность получить мгновенный трафик в течение нескольких часов после публикации контента.
В отличие от обычного поиска, трафик не ограничен поисковым объемом (волюмом), и остается множество неосвоенных ниш для исследования.
Некоторые медиа уже воспользовались этой возможностью, достигая до 10 миллионов посетителей ежедневно на рынке США.
Для движухи в Google Discover
, придется отказаться от традиционных SEO-практик.
Мобильная производительность критически важна — сайты должны иметь зеленые метрики PSI
и проходить проверку CWV
.
Медленная загрузка, особенно в сетях 3G
, существенно снизит шансы на успех.
Для достижения результатов потребуется терпение — обычно они проявляются через 3-12 месяцев в зависимости от стартовых позиций.
Контент-стратегия требует эмоциональной вовлеченности через цепляющие заголовки вместо стандартных SEO-оптимизированных тайтлов.
Следует избегать стоковых изображений, так как визуальные элементы являются основными драйверами трафика в экосистеме Discover
.
Оптимизация длины контента отличается от традиционной SEO-практики — более длинный контент не обязательно работает лучше, так как вовлеченность пользователей обычно снижается с увеличением длины статьи.
Создание и поддержание определенной базы аудитории очень важно, поскольку Google необходимо определить четкую привязанность аудитории, прежде чем продвигать контент в Discover
.
Платформа функционирует больше как соцсети типа TikTok
или Instagram
, чем как традиционный Google Поиск.
Успех требует развития преданной аудитории и поддержания постоянной вовлеченности, а не только фокуса на традиционных SEO-метриках и практиках.
-
Да здравствует Google Discover
!
✅ Небольшой нишевый сайт по теме "Дом", без жирных ссылок, не в Google News
, 1 статья в день, 1 миллион кликов за 4 дня.
Стратегия работы с Discover
внедрена около месяца назад для этого сайта.
Затраты на 30 статей окупились всего за 1 день доходов с AdSense
.
При гибридном рабочем процессе (AI
+ человек) это €5-10 за статью, а при полном копирайтинге €15-30.
Учитывая, что для Discover
статьи короткие (около 500 слов).
@MikeBlazerX
Инсайты на основе данных из 12+ лет опыта в контентном SEO от Росса Хадженса
1. Веб-дизайн контентных разделов:
Закрепленная верхняя навигация = на 39% больше конверсий и на 12% больше сессий на странице.
Уменьшенные hero
-изображения?
На 7.6% увеличивается время на сайте.
Не игнорируйте внутреннюю перелинковку - сайты, у которых более 2% внутренних ссылок ведут на контентные разделы, показывают лучшие результаты.
2. Исследование ключевых слов:
Начните с инструмента исследования ключевых слов, и вы найдете высококонкурентные запросы, которые не конвертят.
Начните с исследования аудитории, и вы найдете низкоконкурентные запросы, которые конвертят.
Скорректируйте стоимость трафика в соответствии с вашим брендом, используя коэффициент релевантности (умножьте на 3, если супер-релевантно, на 2, если менее релевантно, на 1, если притянуто за уши), и помните: обновляйте контент, ориентируясь на среднюю дату апдейта страниц из топ-10.
3. Создание контента:
Данные от первых лиц - это золото, это золото, они дают на 83% больше трафика и на 34% больше обратных ссылок на весь контент, а не только на оригинальные данные.
Google показывает изображения в 24.4% случаев, поэтому используйте кастомную, качественную графику как минимум в каждом 4-м посте, чтобы соответствовать интенту в СЕРП.
4. Распределение контента:
Ваша структура сайта может сделать основную работу.
Стратегическое размещение в навигации и контентных хабах помогает материалам работать без постоянного аутрича.
@MikeBlazerX
Как использовать анализ поисковых фич Гугла для оптимизации архитектуры, навигации и локализации контента мультирегиональных сайтов
Разные аудитории демонстрируют особое поисковое поведение, которое должно отражаться в структуре вашего сайта.
Поисковые фичи Google предоставляют ценные инсайты о различиях между рынками, позволяя принимать решения по архитектуре на основе данных без масштабных маркетинговых исследований.
Понимание специфики поисковых паттернов на разных рынках
Вариации поискового меню в разных локальных версиях Google показывают доминирующие пользовательские интенты.
Появление покупок на первом месте указывает на транзакционные намерения, в то время как преобладание информационных вертикалей говорит о том, что пользователи ориентированы на исследования.
Например, в Испании "Покупки" появляются ниже в меню, что показывает предпочтение пользователей изучать товар перед покупкой, тогда как пользователи из UK
и US
демонстрируют немедленное намерение купить.
Топик-фильтры, основанные на анализе ежедневных поисковых запросов Google, показывают пути уточнения поиска.
Эти фильтры особенно ценны в комбинации с фильтрами покупок в транзакционных запросах, раскрывая специфические фасеты продуктов.
Глубокий анализ сущностей
Теги в поиске по картинкам дают иерархическое представление о связях между сущностями.
Клики по тегам раскрывают всё более глубокие связи, показывая специфичные для рынка ассоциации с продуктами и интересы пользователей.
Для комплексного анализа сущностей комбинируйте несколько инструментов:
— Natural Language Cloud
от Google анализирует контент страниц для извлечения сущностей
— Word Lift Sheets
исследует паттерны использования сущностей у конкурентов в топе
— Keyword Insights
кластеризует и организует сущности по релевантности для рынка
Блоки "People Also Ask
" и "People Also Search For
" показывают паттерны вопросов и пути пользователей, характерные для каждого рынка.
Дополняйте их связанными вопросами из Perplexity
для вариаций естественного языка и анализом вопросов сообщества через Reddit Insights
для понимания локального пользовательского интента.
Реализация контент-стратегии
Организуйте контент-стратегию вокруг специфики рынков:
— Используйте алгоритмический анализ Serperecon
для оценки таргетинга контента и соответствия поисковым интентам
— Интегрируйте GSC
с Keyword Trends
для выявления возникающих закономерностей.
— Применяйте VeeQ
для поиска и оценки локальных видеоблогеров на основе метрик вовлечённости
Эффективно структурируйте контент-команды:
— Основная команда разрабатывает общий тематический контент
— Локальные команды приоритизируют специфичный для рынка контент и адаптируют общий
— Базируйте таксономические решения на результатах кластеризации сущностей
— Включайте локальные элементы вроде реконструкций сражений и типов игр на основе интересов рынка
Навигация и архитектура
Стройте архитектуру сайта, отражая как универсальные, так и специфичные для рынка потребности:
— Создавайте основную навигацию на базе общих сущностей для всех рынков
— Разрабатывайте вторичную навигацию, отражающую локальные поисковые паттерны
— Внедряйте специфичные для рынка категоризации продуктов на основе анализа тегов изображений
— Сохраняйте гибкость в отношении возникающих тенденций и интересов
Мониторьте и корректируйте структуру с помощью аналитических инструментов для обеспечения постоянного соответствия поведению рынка.
Регулярный анализ сущностей в контенте конкурентов помогает идентифицировать пробелы и возможности для улучшения архитектуры.
@MikeBlazerX
Помните модель LinkBert
от Деяна Петровича, которая предсказывает наиболее вероятные места для ссылок в любом тексте?
Я писал о ней тут и тут.
Появилась вторая ее версия (демо), https://linkbert.com/
Попробуйте поиграться...
Почитать про саму модель можно тут.
@MikeBlazerX
Европейцы тратят 575 миллионов часов в год на клики по модалкам с куками
В среднем пользователь посещает около 100 сайтов в месяц, что составляет 1200 сайтов в год.
Учитывая, что примерно 85% этих сайтов показывают модалку/баннер с куками, пользователь сталкивается примерно с 1020 такими баннерами ежегодно.
Если предположить, что на взаимодействие с одним баннером уходит в среднем 5 секунд, то за год пользователь тратит 5100 секунд, или примерно 1,42 часа.
Умножив это на общее количество интернет-пользователей в ЕС, получаем следующее суммарное время: 404,28 млн пользователей × 1,42 часа/год ≈ 575 млн часов/год.
В скриншоте приведено предполагаемое распределение с учетом численности населения и уровня использования интернета.
Чтобы перевести потерянное время в экономические показатели, можно присвоить денежную стоимость часам, потраченным на баннеры с куками.
При средней почасовой оплате в Европе в 25 евро, общие экономические издержки составляют: 575 000 000 часов × 25 евро/час = 14,375 млрд евро.
Учитывая годовой ВВП ЕС (2024) примерно в 15 трлн евро, экономические потери от баннеров с куками составляют: (14,375 млрд евро ÷ 15 трлн евро) × 100 ≈ 0,10% от общего ВВП ЕС.
Чтобы оценить масштаб потери продуктивности, можно представить это в количестве сотрудников на полной занятости (FTE
).
Если предположить, что работник на полной ставке отрабатывает примерно 2000 часов в год, то 575 000 000 часов ÷ 2000 часов/FTE
= 287 500 FTE.
Это означает, что общие затраты на клики по баннерам с куками эквивалентны тому, как если бы компания с 287 500 сотрудниками потратила полный 8-часовой рабочий день только на клики по баннерам с куками.
https://legiscope.com/blog/hidden-productivity-drain-cookie-banners.html
@MikeBlazerX
Утро сеошника перед тем, как начать работу с ChatGPT
...
@MikeBlazerX
Этот сайт просто троллит всё SEO-сообщество самим фактом своего существования.
Он генерирует почти 400 тысяч посетителей в месяц, но при этом:
— SSL
-сертификат: нулевой
— Адаптивность под мобильные: нулевая
— Контент-стратегия: нулевая
— Техническое SEO: нулевое
— Бэклинки: практически нулевые
А мы, сеошники, тем временем:
— Создаём тематические кластеры с сотнями статей
— Фиксим каждый технический баг, который находит Ahrefs
— Нуждаемся в PBN
, гостевых постах, диджитал пиаре
— Обязательно идеально оптимизируем под мобильные
— Добиваемся идеальных зелёных показателей CWV
@MikeBlazerX
Советы по внутренней перелинковке:
1. Ограничьте "блоки ссылок" - некоторым страницам подходят блоки с "недавними" или "популярными" ссылками, другим - нет.
2. По возможности превращайте неконтекстные ссылки в полуконтекстные.
Пример: на странице категории X показывайте "последние товары категории X" вместо товаров из других категорий.
3. Непостоянные ссылки могут вызывать "пляски" в выдаче со временем.
Они полезны для первичного краулинга и индексации, но их эффективность может падать.
4. Избегайте "тупых" автоматических ссылок:
- Вручную добавьте несколько контекстных ссылок после основного контента.
- Не злоупотребляйте автоматическими ссылками на ключевики (47 ссылок на один и тот же адресат - это перебор).
5. Используйте информативный анкор:
- Никаких "кликни здесь".
- Добавляйте контекст, а не только ключевик.
- Используйте основной заголовок целевой страницы или его вариацию.
6. Не меняйте анкоры слишком сильно:
- Используйте одинаковый текст для нескольких ссылок на одну страницу.
- Исключение: при использовании фрагментов (включая скролл к тексту) вариации имеют смысл
- Ссылки на страницу X с разных страниц должны иметь похожие/одинаковые анкоры.
- Избегайте 20 внутренних ссылок с 5+ сильно отличающимися анкорами.
7. Не скрывайте ссылки - они должны помогать юзерам переходить со страницы А на Б.
8. Учитывайте путь пользователя/этапы воронки:
- Связывайте страницы, охватывающие разные этапы пути клиента.
- Линкуйте каждый этап с предыдущим/следующим.
9. Расставляйте ссылки с умом:
- Больше ссылок на страницы "действия", чем на страницы "поддержки".
- На товары должно быть больше ссылок, чем на страницы ухода или гайды для покупателей.
10. Следите за пагинацией:
- Ограничьте число ссылок до X, включая первую, последнюю, предыдущую, следующую и несколько страниц по бокам.
- Используйте форму "Перейти на страницу".
11. Избегайте "nofollow
" на внутренних ссылках - это редко нужно и не сохраняет ссылочный вес.
12. Не ставьте ссылки на закрытые страницы (запрещенные robots.txt
или с noindex
) - вес ссылок теряется.
13. Учитывайте "ссылочный вес"/авторитетность страницы-донора:
- Более авторитетные страницы передают больше веса через ссылки.
- Концентрируйте или распределяйте вес в зависимости от целей.
14. Забудьте про "оптимальное количество" внутренних ссылок - нет никаких "минимум 5 ссылок".
15. Используйте важные/главные страницы для продвижения нового/глубокого контента для ускорения краулинга/индексации.
16. Следите за каноническими URL
:
- Разные порядки параметров в URL
могут восприниматься ботами как отдельные страницы.
17. Ссылайтесь на предпочтительную каноническую версию, чтобы Гугл не выбрал другую.
18. Линкуйте старый контент с новым:
- Обновляйте старые материалы, добавляя ссылки на более свежий релевантный контент.
- Получайте профит от релевантных ссылок в контенте.
19. Связывание нового со старым:
- Ссылайтесь на старый контент, где это уместно.
- Проверяйте, отвечают ли старые страницы целям бизнеса/пользователей.
- При необходимости рассмотрите возможность слияния страниц.
Оптимизация внутренних ссылок сложна из-за множества факторов:
- видимость (нужно ли юзеру кликать?)
- кол-во ссылок на один URL
- анкор
- несколько ссылок на один URL
(меню + в тексте)
- общее кол-во ссылок на странице
- кол-во страниц, ссылающихся на URL
- вес ссылающихся страниц
- тип ссылки (в тексте, навигационная, контекстная и т.д.)
- визуальное расположение на странице
- визуальное расположение/порядок в блоке
- стилизация ссылок (крупнее/жирнее, мельче/слабее)
- варианты целевых URL
и канонизация
- иерархическое положение ссылающейся страницы (глубина клика/легкость достижения)
Нет универсальной "лучшей практики" для внутренней перелинковки.
Все зависит от сайта/страницы, типа/цели контента и дизайна/структуры сайта.
@MikeBlazerX
Как тысячи сайтов теряют трафик
Худшее, что можно сделать для SEO своего сайта - это показывать дату публикации на странице.
4 ноября на нашем блоге Editorial Link
после обновления появились сразу две даты на странице: дата публикации статьи и дата обновления, говорит Дмитро Сохач.
Спустя три дня наши позиции в Google упали, а в сниппетах Google начала отображаться старая дата публикации статьи.
Вы можете хоть сто раз переписать свои статьи с нуля, но как только на странице появляется дата публикации, Google может посчитать вашу статью устаревшей.
Это одна из тех неочевидных проблем, о которых редко говорят в SEO-сообществе и которую редко можно встретить в SEO-аудитах.
@MikeBlazerX
AI
-инструменты для SEO (часть 1/2)
Исследования и анализ
Исследование ключевых слов и контента
1. Moz AI
- Продвинутый анализ ключевых слов и пользовательского интента
— Ключевые особенности:
— Двухуровневая ML
-модель для точной классификации интента
— Определение тематик ключевых слов домена
— Анализ СЕРПа и инсайты по конкурентам
— Для: Контент-стратегов и SEO-менеджеров, планирующих масштабные контентные инициативы
— Совет: Начинайте с анализа широких тематик, затем углубляйтесь в конкретные возможности по ключам2. `SparkToro
+ ChatGPT - Глубокое понимание аудитории и разработка персон
`
— Воркфлоу:
1. Сбор данных об аудитории из SparkToro
2. Загрузка инсайтов в ChatGPT
3. Генерация детальных персон
4. Использование для релевантности контента
— Для: Маркетинг-стратегов, нуждающихся в детальных инсайтах об аудитории
— Совет: Обновляйте персоны ежеквартально для поддержания актуальности
3. Competely
- Конкурентная разведка и позиционирование
— Применение:
— Сравнение фич продукта
— Анализ маркетинговой стратегии
— Отслеживание настроений аудитории
— Для: Продакт-менеджеров и маркетинг-стратегов
— Стратегия внедрения: Фокус на топ 3-5 конкурентов для глубокого анализа
Анализ поведения пользователей
4. Userevaluation
- Качественный анализ поведения пользователей
— Ключевые функции:
— Тепловые карты
— Запись сессий
— Анализ пути конверсии
— Для: UX
-дизайнеров и специалистов по CRO
— Совет: Начните с анализа страниц с высоким трафиком
5. Uxsniff
- Анализ поведения на базе ИИ
— Ключевые возможности:
— Автоматическое определение проблемных мест
— Отслеживание вовлеченности
— AI
-рекомендации
— Для: Digital-маркетологов, фокусирующихся на оптимизации юзабилити
— Совет: Используйте вместе с традиционной аналитикой для комплексного анализа
Техническое SEO
6. Screaming Frog
+ кастомный JavaScript
- Продвинутый технический SEO-анализ
— Применение:
— Векторные вложения для мапинга контента
— Автоматизация внутренней перелинковки
— Анализ контентных пробелов
— Для: Технических SEO-специалистов
— Стратегия внедрения: Начните с малых секций для тестирования кастомных скриптов
7. WordLift Fact-Checking API
- Валидация контента и фактчекинг
— Применение:
— Верификация AI
-контента
— Проверка фактической точности
— Валидация источников
— Для: Контент-команд, использующих AI
-генерацию
— Совет: Интегрируйте в контентный воркфлоу до публикации
Организация контента
8. BERTopic
- Продвинутое моделирование тем и кластеризация контента
— Применение:
— Группировка ключей
— Организация контента
— Разработка тематической иерархии
— Для: Контент-стратегов, управляющих большими библиотеками контента
— Совет: Начните с основных тем и постепенно расширяйтесь
9. Content Codex
- Автоматизация контент-стратегии
— Применение:
— Разработка стратегии
— Планирование контента
— Кластеризация тем
— Для: Контент-менеджеров и стратегов
— Совет: Используйте как основу для квартального контент-планирования
Продолжение следует...
@MikeBlazerX
Джон Мерч создал простой Cloudflare
-воркер, который использует Cloudflare AI
для генерации alt
-тегов из изображений.
https://github.com/johnmurch/cf-image-to-alt-text
@MikeBlazerX
Кейс о том, как и когда программатик страницы могут навредить SEO сайта больше, чем помочь.
— 9 июня 2023:
Сайт ранжировался по 19 страницам, генерируя в среднем 5 000 органического трафика в месяц.
— 10 июня 2023:
Владелец сайта начал создавать программатик страницы, таргетированные на разные штаты и страны мира.
— 25 июля 2023:
Сайт ранжировался с 78 страницами, генерируя в среднем 24 000 органического трафика в месяц.
В этот день трафик достиг пика, после чего начал падать.
— 6 сентября 2023 (HCU
):
Сайт ранжировался с 81 страницами, при этом органический трафик упал до 9 000.
Владелец сайта тогда подумал, что именно контент, сгенерированный ИИ, ответственен за такое серьёзное падение.
Поэтому они решили удалить весь ИИ-контент с сайта.
Однако программатик страницы остались нетронутыми.
— 1 октября 2023 (после HCU
):
Органический трафик сайта начал расти.
Владелец сайта обрадовался, думая, что все проблемы были из-за ИИ-контента.
— 27 февраля 2024:
Сайт достиг пикового органического трафика в 27 000.
— 6 марта 2024 (ап ядра):
Во время апдейта ядра органический трафик продолжил падать, достигнув 21 000 в месяц.
— 15 апреля 2024:
Владелец сайта решил сократить количество программатик страниц с 141 до 77 страниц к 5 мая 2024.
— 5 мая 2024:
Трафик сайта начал расти, достигнув 38 000 к 14 июня 2024, при этом ранжировалось всего 60 страниц.
— 20 июня 2024 (Spam
-апдейт):
Сейчас сайт ранжируется только по 52 страницам, но органический трафик упал до 34 000.
Здесь владелец сайта, видимо, понял, что программатик страницы являются спамными.
— 15 июля 2024:
Владелец сайта сделал редирект всех программатик страниц на главную.
Органический трафик стабилизировался на уровне 34 000 (к тому моменту ни одна из этих страниц уже не ранжировалась).
— 15 августа 2024 (Core-апдейт):
Органический трафик сайта вырос до 40 000.
Сайт ранжировался всего по 44 страницам.
— 27 августа 2024:
Трафик сайта достиг пика в 62 000 в месяц.
Начал падать и к 5 ноября снизился до 31 000.
— 20 ноября 2024:
Трафик сайта вырос с 31 000 (5 ноября) до 35 000.
Сайт ранжируется по 52 страницам.
Выводы:
1. Программатик страницы могут навредить вашему SEO
2. ИИ-контент может быть причиной падения трафика
3. Важно проводить чистку страниц с нулевым трафиком
4. Критически важно удалять спамные программатик страницы
5. Апдейты HCU
, Core
и Spam
сыграли главную роль в снижении трафика с 24 000 до 9 000, а затем с 62 000 до 31 000
@MikeBlazerX
Есть фазы "Ранжирования" и "Пост-ранжирования" при формировании СЕРПов.
Вот как, по мнению Марк Уильямс-Кука, кликабельность (CTR
) влияет на обе эти фазы и почему утверждение Гугла "Мы не используем CTR напрямую в ранжировании" является правдой:
👨💻 Ранжирование — это довольно длительный и постоянный процесс, ориентированный на страницы/сайты, в ходе которого Гугл формирует различные показатели, включая PageRank
.
На этом уровне Гугл использует модель, которая пытается предсказать кликабельность для набора страниц на основе того, как пользователи реагируют на запрос.
Это означает, что отдельные клики по конкретному сайту не меняют его позиции в выдаче — всё это агрегируется в более общую модель типа "вот такие страницы ищут пользователи".
Доказательства:
✅ Устоявшийся принцип — они годами используют это в Google Ads
как компонент показателя качества
✅ Есть убедительные данные из эксплойта конечных точек Google, показывающие то, что Марк считает предсказаниями CTR
, которые менялись при изменении тайтла страницы
✅ Логическое обоснование того, как работают другие системы, реагирующие на действия пользователей
✅ Соответствует всему, что нам говорил Гугл
💻 Пост-ранжирование — это относительно быстрый процесс, на этом этапе генерируются рич сниппеты.
Именно на этом этапе может происходить "переранжирование" результатов на основе взаимодействия с СЕРПом.
Если поведение в СЕРПе радикально отклоняется от ожидаемой модели CTR
, Гугл переранжирует результаты для этого запроса.
Важно отметить, что, по мнению Марка, это происходит независимо от конкретного сайта/страницы — это метод, ориентированный на запрос, который не дает преимуществ конкретному URL
.
Доказательства:
✅ На судебном процессе с Минюстом США был приведен конкретный пример того, как Гугл делает это пост-ранжирование: когда в СЕРПе по запросу "nice pictures
" произошел теракт в Ницце (Франция - Nice
), поведение кликов по запросу "nice pictures
" изменилось, поэтому результаты были временно переранжированы.
✅ Все тесты по манипуляции CTR
, показывают одинаковый результат: это работает, пока не прекращается манипуляция CTR
, затем все возвращается к "нормальному" состоянию, как было проранжировано изначально.
Это сильно убеждает в том, что это влияет только на этап пост-ранжирования, ориентированный на запрос.
❓ Возникает много путаницы, когда термин "используется в ранжировании" относится к очень специфической части систем Гугла, где оцениваются страницы и сайты, тогда как наше обывательское понимание, возможно, относится ко "всему, что Гугл делает для формирования СЕРПа".
@MikeBlazerX
SEO-специалисты, пробовали ли вы использовать "технику бровей"?
Поместите ключевое слово в более мелкий текст над H1
и используйте более крупный текст H2
для фирменного/продающего текста.
Это усилит SEO без переспама ключами и потери стиля вашего бренда.
Двойная победа - и для поиска, и для читателей.
@MikeBlazerX
Если у вас проблемы с XML
картами сайта (сайтмапами), вы всегда можете использовать связку Advertools
+ Adviz
на Питоне для проверки, парсинга, аудита и анализа сайтмапов с минимальным количеством кода.
Функция sitemap_to_df
конвертирует sitemap(index)
в DataFrame
Используйте эту функцию, чтобы показать распределение дат lastmod
:
adviz.ecdf(sitemap, x="lastmod", hovername="loc")
domain/dir_1/dir_2
:adviz.url_structure(sitemap["loc"])
Трафик Quora
снизился почти на 30% по сравнению с пиком в начале июня.
@MikeBlazerX
Когда сделка между Three Ships
/Pillar4 Media
и Sports Illustrated
развалилась, наработки от этого партнёрства не пропали зря.
Они перетащили контент для Men's Journal
.
Те же темы, те же авторы, много одинакового текста и никаких дисклеймеров о повторном использовании.
Явные пересечения видны при сравнении статей.
Весь выделенный текст одинаковый на страницах SI
и Men's Journal
.
Бывший сотрудник Three Ships
/Pillar4
также подтвердил мне факт такой миграции контента с SI
на Men's Journal
.
Большая часть контента уже не отображается на страницах Sports Illustrated
.
Хотя его можно увидеть через Wayback Machine
.
Плюс, эти страницы до сих пор живы, просто без основного текста статей: тут, тут и тут.
Средний месячный трафик на топовых страницах в их категории Health-Fitness
показывает, что это не сильно им помогает, но трудно сказать, где бы они были без этого контента / всё равно приносит им деньги.
@MikeBlazerX
9 "Скучных" проектов, которые приносят хорошие деньги
1. Сервис, помогающий студентам подавать заявки на стипендии. Самостоятельный бизнес. Рост через email
-маркетинг. Монетизация через подписки и спонсорство. Приносит $6 миллионов в год.
ScholarshipOwl.com - Скриншот - Источник
2. Софт для слияния кода. Самостоятельный бизнес. Продажи разработчикам. Монетизация через подписки. Приносит $112 тысяч в месяц.
Mergify.com - Скриншот - Источник
3. Онлайн-сервис для удаления фона с изображений. Одна функция. Генерирует 95,8 млн посещений в месяц. Монетизация через подписку и кредиты. Оценочная выручка - миллионы долларов в год.
Remove.bg - Скриншот - Источник
4. Калькуляторы для строительной индустрии. Начиналось как личный проект. Трафик с SEO. Монетизация через Google AdSense
. Генерирует 7,5 млн посещений в месяц.
InchCalculator.com - Скриншот - Источник
5. Рассылка о новостях в технологиях. Бизнес одного человека. Рост через платную рекламу. Монетизация через спонсорство. Приносит $5 миллионов в год.
TLDR.tech - Скриншот - Источник
6. Рассылка о дешёвых авиабилетах. Самостоятельный бизнес. Монетизация через партнёрскую программу. Маркетинг через контент в email
. Приносит $70 тысяч в месяц.
I Know The Pilot - Скриншот - Источник
7. Конвертер PDF
в флипбук. Самостоятельный бизнес. Маркетинг через SEO. Монетизация через подписки. Приносит $9,6 миллионов в год.
Flipsnack.com - Скриншот - Источник
8. Приложение для оценки стоимости недвижимости. Продукт девелоперской компании. Самостоятельный бизнес. Монетизация через подписки. Приносит $4 миллиона в год.
TitleCapture.com - Скриншот - Источник
9. Сайт с веб-калькуляторами. Начинался как побочный проект. Генерирует 23,1 млн посещений в месяц. Монетизация через Google AdSense
. Оценочная выручка $500 тысяч в месяц.
OmniCalculator.com - Скриншот - Источник
@MikeBlazerX
Приключения Forbes
В конце сентября, Forbes
раздел Advisor
начал падать в выдаче, но Ноябрьский апдейт Гугла опять им подкинул трафла.
Чуть позже, Гугл выдал им ручник за "злоупотребление репутацией сайта".
Тогда Форбс стали переносить контент из папки /advisor/
на /portfolio/
, и, хотя вроде бы и коню понятно, что они хотели обойти санкции, один из их сеошников сказал, что они начали переезд еще до ручника (рост трафика папки начался 10 ноября).
Версия теории заговора, что гуглойды им дали знак перед отправкой "писем счастья".
Цепочка редиректов местами была очень странная - пример.
Вскоре, контент из /portfolio/
стал отдавать 404
, а контент на /advisor/
опять стал доступным.
Видимо они побоялись санкций пожёстче, а именно, за попытки обойти санкции.
@MikeBlazerX
Google предостерегает от использования Google Trends
для контента.
Также Google: SEO-специалисты мира! Узнайте, как Google Trends
может помочь вам создать высококачественный контент, который заинтересует людей.
@MikeBlazerX