mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2557

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

7 ключевых элементов SEO-оптимизации для успеха в Google News

Эти семь критически важных факторов ранжирования сосредоточены исключительно на редакционных аспектах, исключая факторы авторитета всего сайта и техническое SEO.

1. Заголовки статей

Для максимального эффекта ключевые слова должны быть размещены в первых 8 словах заголовка, и его длина не должна превышать 110 символов.

Google позволяет использовать до пяти различных SEO-ориентированных заголовков: основной видимый заголовок, мета-тайтл, тег news_keywords, тег standout и заголовок в sitemap для новостей.

Сокращенные термины, такие как "Трамп", иногда работают, но неоднозначные термины, вроде "Гамильтон", могут требовать уточнения.

2. Актуальность (Freshness)

Свежесть контента критически важна, особенно в блоке Top Stories.

Быть первым в освещении событий — это не гарантия видимости; часто лучше работают несколько публикаций или детальное освещение темы.

Хотя манипуляция URL может влиять на сигналы актуальности, ею следует пользоваться осторожно, чтобы избежать санкций.

3. Изображения

Графика играет большую роль в увеличении CTR, хотя напрямую не влияет на ранжирование.

Изображения с людьми, как правило, лучше вовлекают аудиторию.

Google анализирует длину кликов и их качество, чтобы постоянно оптимизировать результаты в разделе новостей.

4. Видимость (Prominence)

Видимость статьи на сайте издателя сказывается на ранжировании через распределение ссылочного веса.

Статьи, размещенные на главной странице или ключевых разделах, получают больше ссылочного веса, что подтверждено утечками из Google Content API Warehouse.

Почти всегда главная страница — это самый ценный источник с точки зрения ссылочного веса.

5. Вступительный текст (Intro)

Интро предоставляет дополнительные возможности для внедрения ключевых слов.

Использование семантической HTML-разметки, такой как <h2> или <strong>, позволяет акцентировать внимание Google на этом тексте.

6. Основной текст статьи

Контент выигрывает от использования контекстуальных фраз (vector embeddings), которые помогают Google точнее понимать фокус материала.

Структурированные подзаголовки, размеченные через <h2> и <h3>, особенно если они оформлены в виде вопросов, могут улучшить видимость в результатах Google на запросы с вопросительной формой.

7. Внутренняя перелинковка

Перелинковка на страницы с тематическими кластерами усиливает сигналы авторитетности темы.

Хотя это не прямой фактор ранжирования, регулярная внутренняя перелинковка может быть эффективно автоматизирована с помощью систем на базе LLM, обеспечивая высокую точность размещения ссылок.

https://www.seoforgooglenews.com/p/perfectly-optimised-news-article-for-seo

@MikeBlazerX

Читать полностью…

Mike Blazer

Прошло 300+ дней с тех пор, как фотограф Google приехал к нам на фотосессию, пишет Морган.

На следующий же день наш 12-летний бизнес начал разваливаться.

История о том, как Google использует малый бизнес для PR, а потом хоронит его.

2/ В марте 2024 года Google выбрал нас для кейс-стади Южной Каролины в своем отчете об экономическом влиянии.

Мы были польщены.

Фотограф приехал запечатлеть нашу работу над ремонтом кухни.

Google ставил нас в пример — доказательство того, что мы всё делали правильно.

3/ На следующий день — 5 марта — вышло March Core Update.

Наш сайт, который за 12 лет никогда не попадал под негативное влияние апдейтов Google, начал терять трафик.

К концу месяца мы потеряли 74% поискового трафика из Google.

4/ С тех пор стало только хуже.

За последние 28 дней:

📉 Наш трафик из Google: 9,680.
📉 В это же время год назад? 69,300.
Падение на 86%.

Google представил нас как историю успеха малого бизнеса.

А потом похоронил.

5/ Перенесемся в сегодняшний день...

Google запускает рекламную кампанию на Super Bowl, показывая 50 малых бизнесов.

Месседж такой:

👉 Google поддерживает малый бизнес!
👉 Google — ваш друг!
👉 Google помогает вам расти!

6/ Но реальность другая.

Google использует малый бизнес для самопиара.

Они выделяют нас, когда это выгодно им.

Они стирают нас, когда меняют алгоритм.

Никакой ответственности.

Никаких объяснений.

Никаких путей восстановления.

7/ То, что случилось с нами, произошло с тысячами владельцев малого бизнеса.

Google доминирует в поиске.

Они могут перекрыть ваш доход за одну ночь.

Они заявляют о поддержке малого бизнеса, тихо уничтожая его.

8/ Так что когда вы увидите рекламу Google на Super Bowl...

Помните: Дело не в помощи малому бизнесу.

Дело в контроле над ним.

Владельцы малого бизнеса заслуживают лучшего.

9/ 29 октября 2024 года Google пригласил меня в свой кампус обсудить обвал трафика.

Они сказали мне — и еще 19 авторам — что наш контент хороший.

Что они знают, что поступили с нами неправильно.

Сегодня прошло 103 дня с той встречи.

До сих пор никаких улучшений.

До сих пор никаких ответов.

@MikeBlazerX

Читать полностью…

Mike Blazer

В эпоху AI-поиска брендовые упоминания — это новые бэклинки.

Пока Google считает ссылки, AI считает разговоры.

Игра сместилась от линкбилдинга к созданию голоса бренда.

Вот что интересно: AI не нужны гиперссылки для понимания авторитетности, AI считывает контекст, как это делают люди.

Аутентичные голоса поднимутся на вершину в мире, тонущем в AI-генерированной одинаковости.

Ваш цифровой след теперь измеряется тем, кто говорит о вас, а не только ссылается.

🎯 В чём секрет?

Быть действительно цитируемым важнее, чем быть технически оптимизированным.

Пока все создают AI-шлак, победителями станут те, у кого хватит смелости выделиться оригинальными инсайтами, уникальными мнениями и смелыми перспективами.

Это не просто изменение в поиске — это возвращение к тому, что действительно важно: говорить то, что стоит повторить.

@MikeBlazerX

Читать полностью…

Mike Blazer

Жизнь сеошника

@MikeBlazerX

Читать полностью…

Mike Blazer

Домашняя страница заточенная под все ключи

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда выкатили изменения не заглянув в справку Гугла

@MikeBlazerX

Читать полностью…

Mike Blazer

Клиент сообщил, что их компания не появляется в ответах ChatGPT при поисковых запросах вида "best [категория] software", несмотря на то, что они являются известной публичной компанией.

Мы провели анализ и выяснили причину, пишет Дж. Х. Шерк:

ChatGPT "считает" их некачественным решением:

Последующее объяснение оказалось собранием всего негативного пресс-освещения и негативной реакции сообщества, накопившихся за годы.

Это пошаговый каталог всего, что вредит их репутации и восприятию на рынке.

Всё справедливо, но безжалостно, без каких-либо смягчений.

В отличие от традиционного управления репутацией в поиске, где достаточно продвинуть несколько URL-ов для подавления негативных публикаций, здесь нет очевидного решения.

Не совсем понятно, что делать, и нет гарантии, что "противодействие негативу позитивными публикациями" действительно исправит ситуацию.

Дикий запад

@MikeBlazerX

Читать полностью…

Mike Blazer

Какие психологические триггеры больше всего влияют на коэффициент конверсии?

Существует множество триггеров, которые вы можете использовать, и на первый взгляд многие из них приведут к увеличению количества кликов на ваши призывы к действию, но клики не всегда означают увеличение конверсии.

Вот что было обнаружено, проведя тесты на более чем 1,5 миллионах посетителей.

@MikeBlazerX

Читать полностью…

Mike Blazer

Странно, что один сайт соответствует всем требованиям Google из "Руководства по качеству поиска", а другой - нет, но их траектории после апдейта "Полезного контента" были практически одинаковыми.

Прошло почти полтора года после сентябрьского обновления HCU 2023 года, и меня до сих пор удивляет масштаб сопутствующего ущерба, который произошел в результате этого обновления, пишет Лили Рэй.

Не говоря уже о том, что практически ни один из пострадавших сайтов не показал какого-либо значимого восстановления.

Более того, те сайты, которые частично восстановились за последний год, позже часто снова теряли SEO-видимость.

С момента запуска HCU в 2022 году я потратила бесчисленные часы на анализ сотен пострадавших сайтов, и хотя многие сайты, безусловно, заслуживали потери SEO-видимости в результате HCU, было много сайтов, потерявших более 70% SEO-видимости, которые на самом деле неплохо следовали рекомендациям Google.

Я видела десятки примеров сайтов, которые четко следовали рекомендациям Google по EEAT - особенно что касается нового "E" (Experience).

Я сделала скриншот формулировки из Google Search Quality Guidelines о том, что Google ищет в контенте касательно демонстрации опыта из первых рук.

Множество небольших издателей, использовавших реальные команды авторов с реальным опытом из первых рук, оригинальными мыслями, точками зрения и фотографиями, часто страдали от HCU так же, как и сайты, полностью полагающиеся на AI-контент, стоковые фотографии, агрессивную рекламу и шаблонный, неоригинальный, бесполезный контент.

По моему мнению, Google не следовало запускать ML-обновление, которое, очевидно, не могло делать такие различия.

Это нанесло серьезный удар по сообществу малых издателей, заставило многих опытных авторов закрыть свои проекты, и, на мой взгляд, это не улучшило общее качество результатов Google.

Возьмем два трэвел-блога ниже.

Мне кажется странным, что один сайт (красный) соответствует всем требованиям Google из "Руководства по качеству поиска", а другой (синий) вообще не соответствует, но их траектории после HCU были практически одинаковыми.

Я знаю, что многие SEO-специалисты обычно реагируют на эти проблемы, говоря что-то вроде "ну что ж, они получили по заслугам".

Но не только я считаю, что HCU зашел слишком далеко.

Фактически, Google провел очный саммит для создателей контента, пригласив многих владельцев сайтов, пострадавших от HCU, чей контент, очевидно, не был причиной их падения.

Есть множество историй с того дня, где Google фактически признал, что у этих владельцев сайтов был отличный контент, и Google хочет лучше работать, чтобы не допускать таких ошибок в будущих обновлениях.

Предположительно, Google исправит ситуацию и улучшит алгоритм со временем.

Но для многих малых издателей, пострадавших от этих обновлений, это слишком мало и слишком поздно.

И до сих пор нет серьезных признаков того, что их сайты могут значимо восстановить трафик.

@MikeBlazerX

Читать полностью…

Mike Blazer

При сравнении двух временных периодов в аналитике полезно сопоставлять дни недели между собой, так как паттерны в будни и выходные могут сильно различаться.

Google Search Console не предоставляет такой возможности, поэтому вот Chrome-расширение, которое поможет вам рассчитать эти даты:

https://chromewebstore.google.com/detail/same-weekday/ccikonakpamhonnbmmpjnpkbafbomcfh

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда речь идет об использовании Schema для главной страницы сайта, я обычно склоняюсь к двум типам разметки и рекомендую их (особенно для интернет-магазинов), пишет Броди Кларк.

Это Schema-разметка Organization и WebSite – теги, в которых я вижу реальную пользу, но которые часто отсутствуют на главных страницах сайтов.

WebSite схема особенно важна, так как влияет на отображение названия сайта в поисковой выдаче – Google часто использует название, указанное в этом теге, для показа в СЕРПах.

Для крупных интернет-магазинов с несколькими региональными доменами часто бывает, что на главной странице основного региона (например, США) тег прописан корректно, но на сайтах других регионов WebSite схема отсутствует.

Это может привести к беспорядку в СЕРПах Google и путанице в сигналах.

Например, недавно я работал с сайтом, у которого не было WebSite схемы на домене AU, из-за чего в качестве названия сайта случайным образом отображался домен NZ (например, Example.co.nz), хотя должно было отображаться просто "Example" или "Example AU".

Что касается Organization схемы – это, по сути, обязательный элемент.

В последние годы я замечаю, что её влияние значительно выросло.

Например, был случай с сайтом, который не отображался как сущность в автодополнении поиска.

После добавления Organization схемы, через неделю после внедрения, в автодополнении начала показываться расширенная карточка бренда.

То же самое можно сказать о панели знаний для брендов/магазинов.

В последнее время на отображение панели знаний для интернет-магазинов сильно влияет Merchant Centre Next, где теперь есть такие функции, как способы оплаты, популярные товары, информация о доставке и возвратах, и даже AI-чат, который показывает бесплатные листинги.

Хотя на стабильное отображение этой панели для вашего бренда влияют различные факторы (известность и размер компании, часто важна статья в Википедии), я заметил, что информация в Organization схеме служит основным резервным сигналом для некоторых включений.

Недавно влияние Organization схемы на панели знаний для магазинов усилилось – теперь Google позволяет указывать в этой разметке политики в отношении товаров, например, условия возврата, что еще раз подтверждает важность размещения этой разметки на главной странице сайта.

На базовом уровне внедрения схемы я рекомендую обязательно разместить и Organization, и WebSite на главной странице вашего сайта.

Очевидные преимущества для SEO игнорировать не стоит.

@MikeBlazerX

Читать полностью…

Mike Blazer

Весной 2024 года Сайрус Шепард провел эксперимент по проверке эффективности инструмента отклонения ссылок (disavow) Google.

В первом тесте были отклонены все ссылки на уровне доменов для тысяч сайтов.

Спустя два месяца трафик немного вырос вместо того, чтобы снизиться, что вызвало скептицизм в SEO-сообществе относительно слишком короткой продолжительности теста.

Это привело к трем дополнительным экспериментам:

1. Отклонение трети всех ссылок на протяжении 3.5 месяцев, предполагая, что Google мог проигнорировать первоначальное массовое отклонение как потенциальную ошибку
2. В октябре 2024 года повторное отклонение всех ссылок
3. В начале 2025 года полное удаление disavow-списка ссылок

Ни один из этих экспериментов не показал значительного влияния на трафик или позиции сайта.

Эксперименты показали, что основная ценность инструмента дезавуирования заключается в снятии ручных санкций.

Это подтверждается случаем с компанией-разработчиком ПО, где месяцы переписки со спам-командой Google потребовали все более агрессивного отклонения ссылок и удаления контента.

Хотя они в итоге добились снятия санкций, в процессе они потеряли большую часть своего первоначального трафика.

Для обычной SEO-работы disavow-инструмент оказался неэффективным, хотя некоторые специалисты продолжают использовать массовое отклонение для проблемных доменов вроде сайтов на blogspot, Firebase-приложений и сайтов-парсеров в качестве превентивной меры.

Существует теория, что инструмент может влиять только на негативные ссылки, не затрагивая позитивные, хотя это остается недоказанным.

@MikeBlazerX

Читать полностью…

Mike Blazer

90% сложностей в SEO возникает из-за того, что у сеошников есть свое мнение.

@MikeBlazerX

Читать полностью…

Mike Blazer

Предположим, вы настроили 301 редирект со страницы на другую страницу.

Но ваш сервер был неправильно сконфигурирован.

В том смысле, что X-Robots-Tag устанавливает тег noindex.

Оказывается, Google полностью проигнорирует ваш 301 редирект.

Сигнал noindex имеет приоритет.

Впервые столкнулся с таким странным случаем, когда 301 редиректы не работают для поисковика, пишет Ян Каерелс.

Если бы не Google Search Console, я бы никогда этого не заметил.

PS: Для ясности, X-Robots-Tag:none был установлен на URL, с которого осуществлялся редирект.

То есть, по сути, Гуглобот обрабатывает это похожим образом, как блокировку краулинга в robots.txt.

Он даже не запрашивает конечный адрес 💡

@MikeBlazerX

Читать полностью…

Mike Blazer

Исследование Тома Каппера выявило сильную корреляцию между авторитетом бренда и успехом в поисковой выдаче Google, причем сайты с высоким авторитетом стабильно показывали лучшие результаты во время обновлений алгоритма.

Развивая эту мысль, неопубликованный анализ брендовых анкоров от Сайруса Шепарда показал, что успешные сайты поддерживали примерно 20% брендовых ключей в своем ссылочном профиле, в то время как сайты с низкими показателями имеют всего 1-2%, независимо от других SEO-факторов.

Это понимание привело к фундаментальному сдвигу в SEO-рекомендациях Сайруса.

Вместо того чтобы концентрироваться исключительно на построении контентных ссылок с оптимизированными анкорами, Шепард теперь советует клиентам отдавать приоритет линкбилдингу, ориентированному на компанию и людей.

Такой подход согласуется с выводами Джейсон Барнарда о способности Google определять связи между сущностями, что указывает на возможности усиления сигналов бренда через стратегические упоминания от авторитетных сайтов и графов знаний.

Важность видимости бренда была проиллюстрирована случаем с клиентом, который изначально отказывался размещать логотип или навигацию на своем сайте, фокусируясь исключительно на помощи пользователям.

Потребовался год убеждений, чтобы продемонстрировать, что видимость бренда критически важна для генерации брендированных поисковых запросов и навигационного трафика — потенциально важных сигналов для Google.

Аналогично, Moz продемонстрировал эффективное построение бренда, последовательно называя свои инструменты (Moz Rank, Moz Top 10, Moz Learning Center), что дало им преимущество перед такими конкурентами, как SEMrush, который изначально испытывал трудности с менее запоминающимся названием.

Хотя некоторые утверждают, что "советовать сайту построить бренд — всё равно что советовать бездомному купить дом", данные показывают, что построение бренда не требует узнаваемости уровня IBM.

Начать можно всего с 10-100 брендовых запросов в месяц, чтобы создать конкурентное преимущество.

Ключевой момент — обеспечить, чтобы ссылки и упоминания фокусировались на самой компании, а не только на её контенте, через такие активности, как участие в подкастах и полную информацию о компании.

@MikeBlazerX

Читать полностью…

Mike Blazer

Совет по копирайтингу:

Используйте негатив в заголовках.

Вместо: "Идеальная кофемашина для вашего утреннего эспрессо."

Напишите: "Как большинство кофемашин портят ваш кофе (и почему наша - нет)."

Негатив отлично цепляет внимание.

@MikeBlazerX

Читать полностью…

Mike Blazer

Пора прекратить относиться к графикам трафика из SEMrush и Ahrefs как к священному Граалю данных.

✅ Их другие функции? Божественны.

❌ Графики трафика? Полная чушь.

Я бомбил по этому поводу почти пять лет назад, и точность этих метрик стала только хуже, пишет Стивен Лорд.

Не специально.

Такова природа поиска.

Вот лишь две причины (из сотни), почему пора двигаться дальше:

1️⃣ "Трафик — пузомерка. Профит — здравый смысл."

Ни один бизнес не зарабатывает на ранжировании по "business name ideas".

Трафик ничего не значит, если не приводит к значимым действиям.

Хватит зацикливаться на графиках трафика и начните фокусироваться на том, что ваш трафик реально делает.

2️⃣ Начните заботиться о достоверности данных.

Посмотрите на графики в этом посте.

Даже если органический трафик был бы главной метрикой, использование этих инструментов означает, что вы собираетесь рассказать откровенную ложь.

Это не данные.

Это выдумка.

Я уже чувствую, как дата-гики поднимают головы, чтобы напомнить мне, что GSC тоже не на 100% точен — и это правда.

Но в мире, где атрибуция практически невозможна, хотя бы берите данные максимально близко к источнику, вместо того чтобы полагаться на сторонние оверлеи.

За последние недели мы видели сотни постов о предполагаемом падении трафика HubSpot.

Теперь SEMrush будет следующим в списке, так как их собственные инструменты показывают 50% падение с декабря 2023 года.

Но я готов поспорить, что их выручка стабильна — или даже растёт.

Почему?

Потому что TOFU (верхняя часть воронки) становится безкликовым событием.

И ни одна компания масштаба HubSpot или SEMrush не растёт за счёт ранжирования статей по "memes" или "business name ideas".

Пора двигаться дальше этих устаревших метрик.

Начните оптимизировать под выручку, а не трафик.

Переходите от этих метрик к чему-то более существенному.

Ориентируйтесь на факты.

@MikeBlazerX

Читать полностью…

Mike Blazer

Что-то назревает.

Запасайтесь мешками для денег.

https://trends.google.com/trends/explore?q=seo%20agency,seo%20services&amp;hl=en

@MikeBlazerX

Читать полностью…

Mike Blazer

Вам не надо быть супер умными и опытными в SEO чтобы быть успешными.

Всего лишь надо побольше тестить на тестовых сайтах и применять то что сработало - на рабочих сайтах.

@MikeBlazerX

Читать полностью…

Mike Blazer

Твое послание и твоя аудитория.

Удачи!

@MikeBlazerX

Читать полностью…

Mike Blazer

В исходном коде браузера Edge был найден список доменов с тайпосквоттингом (опечатками).

Вот инструмент для проверки, находится ли ваш домен в этом списке:

https://dejan.ai/tools/typosquatting/

@MikeBlazerX

Читать полностью…

Mike Blazer

Как Airbase удвоил органический трафик за 9 месяцев

ФинТех-стартап Airbase удвоил количество уникальных пользователей из органического небрендового трафика и увеличил ежемесячное количество клиентов на 40% благодаря систематической контент-стратегии для нижней части воронки.

За девять месяцев было создано 56 оригинальных статей, написанных людьми и нацеленных на ключевые слова нижней части воронки.

Трансформация началась с переориентации создания контента с верхней части воронки на нижнюю (BOFU-стратегия).

Предыдущие SEO-стратегии предлагали контент, не соответствующий основной аудитории высокообразованных финансовых специалистов, но подход BOFU был конкретно нацелен на потребности лиц, принимающих решения.

SEO-стратегия работала через четыре взаимосвязанные системы.

Журнал приоритетов SEO служил основой основ, отслеживая возможности контента, прогресс и показатели эффективности.

Приборная панель SEO Testing Dashboard отслеживала текущие эксперименты по оптимизации, начиная с обновления метаописания и заканчивая таргетингом фичерд сниппетов.

Анализ ключевых слов определял высокоценные возможности в рамках общего адресного рынка.

Шаблоны контент-брифов стандартизировали процесс создания, обеспечивая соответствие каждого материала поисковому интенту и целям конверсии.

Еженедельные операции следовали строгому процессу.

Каждая сессия начиналась с анализа возможностей и жесткой приоритизации проектов.

Рабочий процесс двигался от поиска ключевых слов к контент-брифам, затем в очередь публикации контент-команды.

Такой систематический подход превратил производство контента в повторяемую, масштабируемую операцию.

Первоначальный фокус на генерации ежемесячного количества клиентов оказался решающим для поддержания импульса стратегии.

Хотя общий рост трафика занял время, первые BOFU-статьи быстро начали конвертировать, демонстрируя эффективность стратегии.

Данные Ahrefs показали значительный рост небрендового трафика, опережающий брендовый, с заметными улучшениями позиций в топ-3 и топ-10.

Параллельные оптимизационные инициативы дополняли контент-стратегию.

Стратегия SEO-тестирования постоянно улучшала эффективность страниц, а оптимизация рич сниппетов повышала видимость в СЕРПах.

Эти комбинированные усилия поддерживали рост трафика и конверсий на протяжении всего девятимесячного периода.

https://loganbryant.com/airbase-pre-acquisition-seo-case-study

@MikeBlazerX

Читать полностью…

Mike Blazer

LLMs.txt: Делаем сайты читаемыми для AI-поиска

llms.txt - это аналог robots.txt, но для LLM, помогающий AI-моделям лучше понимать контент вашего сайта.

llms.txt улучшает видимость в AI-поиске, предоставляя чистую, структурированную версию контента сайта, которую большие языковые модели могут легко обрабатывать и понимать.

GPTBot, PerplexityBot и ClaudeBot ежедневно активно фетчат эти файлы, используя их для лучшей интерпретации и индексации контента сайта.

Файл требует специального markdown-форматирования в корневой директории сайта.

Правильный llms.txt содержит три основных элемента: название проекта в виде заголовка H1, краткое изложение ключевой информации в виде блочных цитат и подробные разделы контента.

Вариант llms-full.txt объединяет всю техническую документацию в один комплексный файл.

Примеры эффективной имплементации llms.txt можно увидеть здесь, а llms-full.txt - здесь.

Директория llms.txt (directory.llmstxt.cloud) показывает более 70 крупных AI-компаний, уже использующих этот стандарт, включая Cursor AI, Anthropic и Perplexity.

Для имплементации файл должен быть помечен как noindex для традиционных поисковых систем, оставаясь при этом доступным для AI-краулеров через директивы robots.txt:

User-agent: *
Disallow: /llms.txt


Теперь вы можете сгенерировать свой собственный llms.txt файл, используя этот бесплатный инструмент:

https://wordlift-create-llms-txt.hf.space/

@MikeBlazerX

Читать полностью…

Mike Blazer

EEAT - это больше, чем просто теоретическая концепция

Основываясь на своем непосредственном опыте работы асессором Google, Сайрус Шепард объясняет, как EEAT практически влияет на поисковую выдачу через три различных механизма.

1. Существуют прямые сигналы, такие как авторитетные обратные ссылки и PageRank.

2. Происходит оценка асессорами, которые систематически анализируют сайты.

3. Системы машинного обучения Google тренируются на этих человеческих оценках.

Аспект машинного обучения особенно убедителен: тысячи асессоров оценивают сайты на основе критериев EEAT, создавая огромные наборы данных для обучения алгоритмов Google.

Эти тренировочные данные напрямую влияют на то, как Google определяет и ранжирует качественный контент, делая EEAT не корреляционным, а конкретным фактором.

В то время как некоторые SEO-специалисты могут отвергать EEAT как нечто абстрактное, инсайты Шепарда, полученные во время работы асессором, показывают его реальное влияние на позиции в поиске.

Как и в случае с дебатами о поведенческих сигналах и общесайтовых факторах, которые в итоге разрешились, роль EEAT в системе ранжирования Google стала более понятной и применимой для SEO-специалистов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Слишком много людей всё ещё спорят о том, можно ли технически что-то продвинуть в топ, вместо того, чтобы задуматься, а нужно ли это пользователям вообще.

Эти же люди потом будут жаловаться на очередной апдейт алгоритма.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы когда-нибудь задумывались, сколько поисковых запросов в Google реальные, а сколько от ботов?

Похоже, теперь у нас есть ответ.

16 января Google выпустил апдейт, который временно заблокировал ботов, парсящих СЕРПы, таких как SEMRush, Ahrefs и тысячи других.

Если проверить количество показов в GSC за этот день и сравнить с предыдущими днями, можно заметить падение.

Я проверил три домена и обнаружил среднее падение показов на 25%, пишет Идрисс Хуадер.

Получается, что 25% показов на самом деле приходится на ботов. 🤯

@MikeBlazerX

Читать полностью…

Mike Blazer

Интересно, что "What People Are Saying" показывает не только выдержки из социальных сетей (например, LinkedIn, YouTube и TikTok), но и блог-посты брендов, если у статьи есть связанный автор.

Обратите внимание, что все примеры показывают имя автора в карусели.

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотите расширить тематику?

Делать это на том же сайте или начать новый?

Всё просто: если новая тематика близка к текущей тематике сайта, то делайте на том же сайте.

Но если это совершенно другое направление, то хорошая идея — начать новый сайт.

Даже Дэнни Салливан, представитель Google в SEO-сообществе, выступая на Google Search Central в Цюрихе в декабре 2024 года, сказал: "Для масштабных расширений может потребоваться создание отдельного сайта или домена, чтобы не запутать поисковые системы или пользователей".

У размещения новых тематик на существующем сайте могут быть определенные преимущества, но они работают только если новая тема достаточно релевантна текущей тематике сайта.

В противном случае — нет.

@MikeBlazerX

Читать полностью…

Mike Blazer

Локальное SEO часто понимают неправильно, особенно в отношении того, как бизнес-профили Google и URL-адреса веб-сайтов взаимодействуют с позициями в поисковой выдаче.

Распространенное заблуждение заключается в том, что Google отдает предпочтение главным страницам в локальной выдаче, но это фундаментальное непонимание причинно-следственной связи.

Дело не в том, что Google предпочитает морды сайтов - это владельцы бизнеса и SEO-специалисты постоянно регистрируют свои главные страницы в Google Business Profile.

Это становится очевидным при анализе типичной локальной выдачи.

Если посмотреть результаты поиска по запросам вроде "Seattle plumber" или "Seattle faucet repair", можно увидеть карточки компаний с разными URL домашних страниц:

— Обычная домашняя страница
— Домашняя страница с UTM-метками
— Домашняя с реферальными кодами
— Домашняя с несколькими параметрами отслеживания

Эти различные вариации URL явно показывают, что это выбор владельцев бизнеса, а не предпочтения Google.

Платформа просто отображает то, что сами компании регистрируют в своих профилях.

Многие упускают из виду важный момент: хотя домашняя страница отображается в GBP, это не обязательно то, что влияет на ранжирование.

На самом деле происходит следующее: краулер Google находит релевантный контент о конкретных услугах (например, о ремонте кранов) где-то на сайте (в блогах или на страницах услуг) и ранжирует профиль компании по этому запросу, даже если в профиле стоит ссылка на главную страницу.

Это создает парадокс, когда ранжируемая страница (главная) отличается от страницы, влияющей на ранжирование (внутренняя страница услуги).

Это недопонимание создает серьезную проблему при анализе SEO-инструментами.

Эти инструменты часто анализируют URL домашних страниц конкурентов из локальной выдачи, предполагая, что они оптимизированы под определенные ключевые слова.

Это приводит к неверным рекомендациям по оптимизации, поскольку ранжирование основано не на контенте главной страницы, а на контенте, найденном в других разделах сайта.

Для правильного анализа и оптимизации под локальный поиск необходимо:

1. Запустить отчет по обычной веб-выдаче (не локальной)
2. Определить лучшую страницу услуги клиента под целевой запрос
3. Сравнить ее с лучшими страницами в веб-выдаче по этой услуге
4. Оптимизировать на основе традиционных SEO-метрик из результатов веб-поиска

Правильный подход к локальному SEO включает два ключевых компонента:

1. Корректная настройка GBP
2. Выполнение традиционной SEO-оптимизации конкретных страниц услуг, сравнивая их с результатами веб-поиска, а не URL главных страниц из локальной выдачи

@MikeBlazerX

Читать полностью…

Mike Blazer

Различия между количеством запросов доступных через GSC API и через BigQuery - где их в 3+ раза больше

@MikeBlazerX

Читать полностью…
Subscribe to a channel