Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
В ближайшие 10 лет ценность "образовательного контента блогов" как маркетинговой стратегии снизится до нуля.
Практически все информационные запросы будут решаться с помощью LLMs
в тех местах, где мы уже проводим время: в наших приложениях для обмена сообщениями и ведения заметок, в наших почтовых клиентах, в наших социальных сетях.
Не будет никаких причин посещать ресурсный центр случайной SaaS
-компании только для того, чтобы найти полезную информацию.
Появятся сотни гораздо более удобных способов доступа к информации, каждый из которых будет персонализирован с учетом конкретных потребностей и предпочтений каждого пользователя.
Мы сможем получать информацию именно в том формате, в котором нам нужно: на том языке и в том тоне, которые нам нравятся, в контексте наших предыдущих разговоров, в тех местах, где мы хотим ее видеть.
Не останется места для перепечатанного контента из Википедии, размещенного на одной из сотен похожих статических HTML
-страниц.
Никто не будет мириться с трениями, вызванными контент-маркетингом.
Пользователи больше не будут испытывать неудобства, просматривая корпоративные задворки Интернета, чтобы узнать, как установить программное обеспечение или приготовить обычное блюдо.
Компании больше не будут получать экономическую выгоду от простого информационного арбитража.
Неустойчивое перемирие, которое мы терпели в течение последнего десятилетия, закончится.
Мы наконец-то поставим точку в эпохе информационного арбитража как доминирующей маркетинговой стратегии.
Но вот в чем суть: маркетинг существовал до появления этой странной маленькой лазейки, и он будет существовать после нее.
Маркетинговые стратегии, которые сегодня находятся на подъеме, не являются новыми или необычными: мероприятия, брендинг, реклама, социальные сети.
Мы не отказываемся от маркетингового сценария, а просто пропускаем его.
Каждая маркетинговая тактика является частью цикла внедрения, насыщения и отказа.
Технологии ускорили этот процесс, но он существовал всегда.
Страшно видеть, как доминирующая маркетинговая стратегия последнего десятилетия сжимается и увядает с такой угрожающей скоростью, но это не должно быть неожиданностью.
Закон плохих кликов всегда побеждает: когда какая-либо тактика становится слишком популярной, ее эффективность начинает снижаться.LLM
значительно ускорили этот процесс, но, на мой взгляд, мы уже давно находимся на нисходящей кривой "образовательного контента для блогов".
Работа с такими изменениями — часть нашей работы.
Маркетинг — это постоянное стремление к новизне: как мы можем быть заметными и отличаться от других компаний?
Лучшие маркетологи гибки, критичны и достаточно рискованны, чтобы пробовать новые, странные, нарушающие шаблоны стратегии без гарантии успеха.
Люди, которые наиболее привязаны к "контентной" части "контент-маркетинга", могут столкнуться с трудностями в ближайшие несколько лет, но те, кто принимает "маркетинговую" часть своей работы, ждет фантастическое десятилетие.
@MikeBlazerX
Я не могу не улыбаться каждый раз, когда вижу, как Ahrefs
показывает эти два противоречивых метрики.
Как можно легко ранжироваться по ключу с таким высоким поисковым объемом?
@MikeBlazerX
На прошлой неделе я принял звонок от одного из ведущих агентств по оптимизации LLM
, рассказывает Зак Нотс.
Как сеошнику, мне было очень интересно.
Вот их предложение, вместе с моими мыслями...
— За $15К+ в месяц они будут поддерживать ваше ранжирование по одному ключевому слову в ChatGPT
.
Если вы не ранжируетесь, вы не платите.
Я был довольно удивлен, услышав, что они предлагают такую структуру оплаты, особенно учитывая, что результаты меняются от промпта к промпту.
Они сказали, что больше всего тяги получают в B2B
.
Учитывая стоимость, я думаю, вполне вероятно, что некоторые компании из Fortune 500
, такие как Salesforce
, платят за топовые ключи вроде "Best CRM
".
— Они добиваются высоких позиций, манипулируя природой Reinforcement Learning
(RL) у LLM
; предоставляя "фидбек" LLM
для изменения их выдачи.
Я точно не знаю, как это выглядит, но предполагаю, что это происходит в форме пользовательских ответов на изначальный промпт.
Это удивило меня, потому что я думал, что RL
происходит отдельно, во время обучения.
Я спросил, используют ли они ботов или что-то вроде Amazon Turk
, и они сказали, что используют оба метода.
— Они также манипулируют референсными документами, которые цитируют LLM
, и эти документы могут находиться как на домене клиента, так и вне его.
Что касается изменений вне домена, это фактически возвращает нас в 2012 год до Penguin
, когда покупные ссылки двигали позиции.
— Они утверждали, что трафик от LLM
в GA4
часто неправильно атрибутируется как прямой, поэтому реальная ценность трафика намного выше, чем осознает большинство брендов.
Я видел, что и другие говорят то же самое об этом.
Это заставляет меня думать, что многие бренды, платящие за эту услугу, не рассчитывают на солидный трекинг и атрибуцию, это топовое $$$ повышение узнаваемости бренда.
@MikeBlazerX
Когда уходящее SEO-агентство передает проект новому.
@MikeBlazerX
Хоть Google и может измерять "консенсус", это не значит, что ваша страница должна соответствовать этому консенсусу для ранжирования. ⤵️
Существует много поисковых запросов, на которые нет объективно "правильного" ответа, и поэтому Google может стремиться предоставить различные точки зрения. 🚦
Это может объяснить, почему вы не ранжируетесь.
Если вы создали контент, "соответствующий консенсусу", а ваш клиент спрашивает: "Почему мы не ранжируемся, когда наш контент лучше по всем параметрам чем тот, что на позициях #2 и #4" - это может быть правдой, но Google специально хочет разместить на этих позициях нейтральные или несогласные с консенсусом документы. ☝️
Дело не в том, что ваш контент плохой, просто он не вписывается в рецепт того, что они пытаются приготовить! 👨🍳
@MikeBlazerX
Жизнь в налоговом раю: переезд из Германии на Кипр
Переезд из Германии на Кипр, чтобы уйти от налоговой ставки в 50% в пользу более привлекательных 12.5%, на бумаге казался идеальной оптимизацией в Excel
-табличке, пишет Оле Леманн.
Будучи "табличным гуру" в Берлине, это казалось взломом секретного кода, но реальность показала, что я решал совершенно не то уравнение.
Жизнь в налоговой гавани оказалась гораздо сложнее и затратнее, чем ожидалось, фактически разделяя тебя как личность, когда вся жизнь организована вокруг налоговой оптимизации.
Требование о 60-дневном резидентстве на Кипре, которое изначально казалось выполнимым, в итоге стало контролировать каждый аспект жизни.
Визиты к семье, командировки и спонтанные возможности превратились в сложные расчеты риск-менеджмента резидентства.
По сути, одно ограничение (высокие налоги) сменилось другим (постоянный подсчет дней).
Физическая удаленность от основных инновационных хабов вроде SF
, NYC
и Сингапура оказалась губительной для развития бизнеса.
Находиться вдали от реальных инновационных центров стоит дороже любой налоговой экономии – энергетику и возможности, циркулирующие в этих локациях, невозможно воспроизвести в налоговом раю.
Бизнес растет медленнее в налогово-эффективных зонах, независимо от экономии на бумаге, при этом теряется доступ к критически важным драйверам роста бизнеса.
Проблемы с инфраструктурой и логистикой создавали постоянное трение, превращая простые задачи в многоступенчатые челленджи.
Обычная стойка для приседаний ехала три недели из-за особенностей логистики ЕС и островного положения.
Базовые бизнес-потребности сталкивались с повышенными расходами на доставку, а содержание нескольких жилищ плюс частые экстренные перелеты быстро съели обещанную налоговую экономию.
Профессиональная сеть контактов деградировала несмотря на Zoom
-коллы, поскольку ничто не могло заменить случайные знакомства в реальных инновационных хабах.
Среда налоговой гавани привлекала людей с мышлением защиты капитала, а не его создания, где разговоры крутились вокруг налоговых схем вместо создания значимых венчуров.
Окружение не стимулирует создавать что-то значимое, потому что все здесь временно.
Психологическое влияние оказалось существенным.
Идентичность сместилась от гордого местного предпринимателя, создающего что-то значимое, до очередного экспата в погоне за налоговыми льготами.
Настоящая проблема Германии была не только в налоговой ставке, но в фундаментальном анти-предпринимательском настрое – однако обмен этого на место, ценящее только низкие налоги, не стал улучшением.
Жизнь с временным мышлением создала странное лимбо-состояние с вечной 70%-ной вовлеченностью во все – никаких инвестиций в правильное обустройство дома или офиса.
Построение длительных отношений стало практически невозможным из-за постоянной текучки людей, поддерживающих минимальные требования резидентства.
Комьюнити никогда не укреплялось, так как люди исчезали на месяцы, ненадолго возвращаясь, чтобы снова исчезнуть.
Налоговая оптимизация обошлась ценой реальной оптимизации жизни.
Урок очевиден - если вы не стали бы жить в месте, где нет налоговых преимуществ, не живите там ради налоговых преимуществ.
Истинная цена налоговой оптимизации оплачивается более ценными валютами: временем, энергией, комьюнити и душевным спокойствием.
@MikeBlazerX
Первичное ранжирование vs. Повторное ранжирование - Понимание гибридного конвейера оценки Google
Разберём на реальном примере SEO для казино 👇
1. Первичное ранжирование основано на статистической семантике:
Оцениваются сущности, предикаты и распределение фраз.
Здесь начинается индексация - показывая, что вы существуете в семантическом пространстве.
2. Повторное ранжирование происходит через сентенциальную семантику:
Точность, согласованность и извлекаемый смысл вашего контента определяют, поднимитесь вы или упадёте.
Дело не в том, чтобы один раз попасть в ранжирование.
А в том, чтобы выжить в циклах оценки.
3. Эти системы опираются на:
— Количественные проверки (структура, PageRank
, охват)
— Качественные проверки (точность повествования, согласованность, удовлетворенность пользователей)
➡️ Вот почему некоторые сайты пропускают определенные фильтры.
Они заранее получают доверие благодаря тематическому авторитету, поэтому мгновенно краулятся и приоритизируются.
4. Система Google гибридная.
— Страница с высоким PageRank
может быстро получить ранжирование - но плохие поведенческие сигналы или слабый тематический охват = падение.
— Страница с низким PageRank
может быть проигнорирована - если только не получит 10 000+ показов и не запустит более глубокую оценку.
5. Это то, что называется конвейером ранжирования.
Новый проект с идентичным контентом набрал органический трафик через этот конвейер за 28 дней.
Каждый пик трафика = новое состояние ранжирования.
Google не вернется полностью к прежнему состоянию.
Он просто продолжает тестировать, может ли страница заменить другую.
Это не просто SEO.
Это наука информационного поиска в действии.
@MikeBlazerX
Кое-что еще из этого же документа
Сигналы ABC (основные сигналы):
(Разработаны инженерами, считаются «сырыми».)
— Якоря (A -anchors): ссылки с исходной страницы на целевую страницу.
— Текст (B - body): термины в документе.
— Клики (C - clicks): исторически, время, которое пользователь провел на странице по ссылке, прежде чем вернуться к SERP.
Эти сигналы, наряду с такими факторами, как Navboost, являются ключевыми компонентами тематичности (T - topicality).
Тематичность (T):
— Оценка релевантности документа запросу (базовый балл).
— Эффективно сочетает (по крайней мере) сигналы ABC относительно ручным способом.
— Оценивает релевантность документа на основе терминов запроса.
— Находился в постоянном развитии до примерно 5 лет назад; сейчас изменения менее значительны.
@MikeBlazerX
Букмарклет, который извлекает схему из страниц и сохраняет ее в текстовый файл с разделением между JSON и Microdata:
javascript:(function(){javascript:(function(){function e(){return Array.from(document.querySelectorAll('script[type="application/ld+json"]')).map(e=>e.textContent).join("\n\n")}function t(){return Array.from(document.querySelectorAll("[itemscope]")).map(e=>Array.from(e.querySelectorAll("[itemprop]")).map(e=>`${e.getAttribute("itemprop")}: ${e.textContent.trim()}`).join("\n")).join("\n\n")}function n(e){return e.replace(/^(https?:\/\/)?(www\.)?/,"").replace(/[^a-z0-9]/gi,"_").toLowerCase()}const o=e(),r=t(),c=`JSON-LD:\n${o}\n\nMicrodata:\n${r}`,a=n(window.location.hostname+window.location.pathname),i=new Date().toISOString().split("T")[0],l=`${a}_${i}.txt`,s=new Blob([c],{type:"text/plain"}),p=document.createElement("a");p.href=URL.createObjectURL(s),p.download=l,p.click(),URL.revokeObjectURL(p.href)})();})();
Я восстановил трафик 3 сайтов, удалив страницы, на которые владелец купил сотни платных ссылок, говорит Шейн Дутка.
Найти сайты, продающие ссылки, чрезвычайно просто, и мы знаем (благодаря утечке API
), что Google встроил в свой алгоритм функции, которые выявляют "BadBackLinks
".
Я только что запустил бесплатный инструмент getseoshield.com
, который индексирует все сайты, активно продающие ссылки (на данный момент 157,411) по всему интернету.
Мы находим эти ссылки, агрегируя их с различных маркетплейсов, гигов на Fiverr
и тех самых нежелательных писем, которые мы все так любим.
Этот сайт позволяет проверить, насколько "токсичен" ваш ссылочный профиль, и увидеть, какие страницы пострадали больше всего.
Если мы находим несколько источников для одной и той же ссылки, мы помечаем сайт как "высокорисковый", то есть получить ссылку с такого сайта хуже, чем с сайта, найденного только из одного источника.
Чем больше платных ссылок относительно неоплачиваемых = более токсичный ссылочный профиль.
Для спасения сайта я обычно перепубликую страницы по новым URL
без 301
редиректа (то есть разрывая ссылку).
Разрывая ссылки с сайтов, которые активно продают ссылки, вы потенциально можете восстановить сайт (я делал это 3 разных раза).
Если вы активно покупаете ссылки на линкбилдинговых маркетплейсах, и ваш трафик растет - отлично, но если трафик падает, я бы рекомендовал удалить страницы со слишком большим количеством токсичных ссылок.
Проблема возникает всегда, когда вы перебарщиваете.
Несколько стратегических ссылок с оптимизированным анкором - отлично.
Сотни покупных ссылок с маркетплейсов - не очень.
Больше информации в видео.
@MikeBlazerX
Гуглу не важно, лучше ли ваша статья.
Ему важно, уходят ли пользователи с сайта или остаются.
Вот как Чарльз Флоут заманивает по CTR
, а затем удерживает на странице:
— Тайтл = кликбейт → Используйте сильные слова + вопросительные модификаторы
— Первые 150 слов = резюме + интригующий CTA
→ Не давайте ответ сразу
— Добавьте якорные ссылки в оглавление → Манипулируйте метриками глубины просмотра страницы
— Встройте мультимедиа (видео, GIF
, слайдеры) в первый экран
— Загружайте похожие статьи в середине контента через AJAX
→ Держит время на сайте завышенным
Вам не нужен более качественный контент или информация.
Вам нужна лучшая психология кликов.
@MikeBlazerX
Вы можете предсказать, будет ли страница деиндексирована!
На основе комплексного исследования 1.4 миллиона страниц на 18 сайтах, проведенного Indexing Insight
, выявлена чёткая корреляция между частотой краулинга и статусом индексации.
Ключевые выводы:
1. Порог в 130 дней: Страницы, не краулившиеся более 130 дней, имеют 99% шанс быть деиндексированными.
После 151 дня деиндексация становится практически гарантированной (100%).
2. Корреляция между краулингом и индексацией: Чем дольше страница не краулится, тем выше риск её деиндексации:
— Страницы, краулившиеся в течение 30 дней: 97% остаются в индексе
— Страницы, краулившиеся в течение 100-130 дней: 85-94% остаются в индексе
— Страницы, краулившиеся после 131 дня: Резкое снижение индексации (падает до 0% после 151 дня)
3. Практическое применение: Мониторинг "Дней с последнего краула" через URL Inspection API
предоставляет надёжный индикатор страниц, находящихся под угрозой деиндексации.
"CrawlRank
" (КраулРанк) - страницы, которые краулятся реже, получают меньше видимости в поиске.
Отметка в 130 дней служит системой раннего предупреждения, позволяющей вебмастерам предпринять превентивные меры до того, как важные приносящие доход страницы исчезнут из индекса.
https://indexinginsight.substack.com/p/new-study-the-130-day-indexing-rule
@MikeBlazerX
Я изучил более 15 исследований по AI Overviews
, чтобы вам не пришлось, пишет Мальте Ландвер.
Влияние на CTR
: от +19% до -85%.
Средний показатель: -40%.
Медианный: -37%.
Почему такие разные цифры?
Некоторые исследования сегментируют данные по тематике, брендовым vs не брендовым запросам, позиции или месяцу.
Так мы получаем 32 значения из 8 разных источников.
Эти +19% относились к брендовым запросам в исследовании Amsive
.
Ни одно другое исследование не содержало среза данных с положительным влиянием на кликабельность.
Я не стал учитывать исследования от SEMrush, Botify, Siege Media, Advanced Web Ranking
и других.
Они не использовали показатель кликабельности, а скорее смотрели, как часто появляются ИИ-обзоры.
Или же они учитывали общее число кликов, на которое могут влиять позиции сайта и поисковый объем.
@MikeBlazerX
SEO в эпоху агентов: итоги NYC SEO Week
Джеймс Кэдуолладер представил концепцию "Agentic Internet
", где агенты на базе LLM
выступают посредниками во взаимодействии с вебом, смещая фокус SEO с UX
на Agent Experience
(AX
, опыт агента).
Агенты отдают предпочтение структурированным данным, семантическим URL
, метаданным и сравнительным листиклам, часто игнорируя JavaScript
и традиционные бэклинки.
Это ведет к потенциальному "будущему без кликов" и риску потери прямых отношений с пользователями.
-
Майк Кинг подробно описал механики AI
-поиска: векторные эмбеддинги, обеспечивающие семантическое понимание за рамками устаревших лексических моделей.
Он выступил за "инженерию релевантности" (информационный поиск + UX
+ digital PR
) и бросил вызов таким нормам, как короткие теги title
, ссылаясь на тесты, показывающие, что когда Google дописывает ключевые слова к коротким тайтлам (что видно по данным GSC
), это увеличивает клики.
Кинг описал гибридные системы извлечения (лексические + векторные) и расширение запросов.
-AI Overviews
(AIOs
), встречающиеся примерно в 20% запросов в Google (и эта цифра, вероятно, будет расти), используют Retrieval-Augmented Generation
(RAG
) — семантический чанкинг и индексацию для извлечения данных LLM
.
Кристал Картер отметила, что структурированные данные помогают усвоению информации Deepseek LLM
, а Кришна Мадхаван подчеркнул важность фактологичного и ясного стиля письма для включения в LLM
.
Примечательно, что Рикардо Баэза-Йейтс назвал RAG
"костылём" для недостатков LLM
, предупредив, что он усиливает посредственность и предвзятость.
Джефф Койл заявил, что AI
отдает приоритет результатам (полезности, доверию), а не кликам.
Маник Бхан подтвердил, что тематическая релевантность важнее авторитета домена, рекомендуя визуализацию тематических векторов и отсечение нетематического контента.
Бьянка Андерсон призвала к "коперниканскому перевороту" в SEO KPI
: отходить от трафика/позиций к оценке контента по его конверсионному потенциалу, поскольку AIOs
могут снизить трафик.
-
Чтобы появляться в ответах LLM
, Маник Бхан посоветовал включать контент в обучающие корпуса, такие как Common Crawl
, через гостевые посты или PR Newswire
, а также оптимизировать страницы "О нас".
Дэн Петровик обсудил отслеживание восприятия бренда/сущности в LLM
и двунаправленные запросы.
Джори Форд предложила создавать "ответные активы" для LLM
и анализировать поведение ботов (логи Cloudflare
, показывающие высокую активность ботов при низком количестве кликов, указывают на упущенную оптимизацию).
Автор оригинального обзора отметил риск манипулирования LLM
посредством повторяющейся обратной связи.
-
Кэрри Роуз подчеркнула важность digital PR
для заметности бренда путем простановки ссылок на *страницы категорий* для закрепления лидерства в категории, используя модель "7/11/4" для запоминаемости бренда.
Рикардо Баэза-Йейтс также указал на языковое неравенство, предвзятость и недостаток прозрачности генеративного ИИ.
Роберт Хансен подтвердил существование негативного SEO, упомянув DMCA
-спам, записи в RBL
и манипулирование LLM
.
-
Гарретт Сассман посоветовал создавать отдельные страницы под каждый интент и диверсифицировать трафик.
Он отметил рост длиннохвостых, диалоговых запросов, что совпадает с доминированием LLM
, но предостерег от заискивания перед LLM
.
Лили Рей осветила повторяющийся цикл в SEO (тактики -> их копирование -> апдейты Google -> ухудшение UX
), что наблюдается с AI
-контентом и ведет к санкциям, таким как Helpful Content Update 2023
года и Core
& Spam Updates 2024
года.
Будущее требует аутентичного, ориентированного на пользователя и понятного для LLM
контента, с фокусом на бренд, оригинальные исследования, мультимедиа и доверие сообщества, при этом сеошникам необходимо отслеживать видимость в AI
-саммари и сентимент LLM
.
https://lilyray.nyc/seo-in-the-age-of-agents-takeaways-from-nyc-seo-week/
@MikeBlazerX
🆕 Что там с использованием CTR
в ранжировании?
Google годами твердил SEO-сообществу, что не использует CTR
, но теперь из интервью Панду Наяка, инженера Google Поиска с многолетним стажем, в рамках судебных разбирательств Минюста США, стало известно обратное.
Панду Наяк сообщил Минюсту США:
Один из ранних сигналов измерял, сколько раз ссылка была показана в сравнении с количеством кликов по ней.
Выяснилось, что этот показатель искажался позицией ссылки.
... это модификация, разработанная инженером Google, которая производила расчет ... с учетом (и для устранения искажения, вносимого) позицией ссылки.
CTR
для корректировки ранжирования, но и разработал более совершенные формулы для нормализации данных, учитывающие также позицию ссылки в поисковой выдаче.Хотел бы я, чтобы Google разрешил создать карту сайта, куда я мог бы загрузить очень старые URL
и просто сказать: пожалуйста, перестаньте пытаться их запрашивать... эти URL
были изменены вот на эти... 8 лет назад, и мы не хотим, чтобы вы продолжали их запрашивать, пишет Гэган Готра.
Google пытается запрашивать в среднем 2.5-3 миллиона старых URL
каждую неделю, и они СТАРЫЕ - редирект был сделан еще 8 лет назад!
Заголовки cache-control
для старых URL
установлены на 1 год.
Для OLD
на NEW
настроен 301
, затем 304 для одного набора URL
, а для другого набора это запрос OLD
с возвратом 410
.
У этого набора OLD
нет многих качественных бэклинков, поэтому я решил напрямую возвращать 410
, а у другого набора так много качественных ссылок, что поэтому делаю 301
.
Но даже для набора с 410
Гуглобот по какой-то причине продолжает делать запросы.
@MikeBlazerX
После ручных санкций, GeeksforGeeks
закрыли доступ к подпапке /community/ своего форума в файле robots.txt
, и вот что теперь происходит в результатах поиска...
Вероятно, вместо блокировки в файле robots
, им следовало бы установить запрет на индексацию на уровне страницы...
Больше о их бане читайте тут, тут и тут.
@MikeBlazerX
Python
-инструмент для обхода анти-бот страниц Cloudflare
с помощью Requests
https://github.com/VeNoMouS/cloudscraper
@MikeBlazerX
Ваше навигационное меню может стоить вам трафика 📉
Вот почему 👇
Часто сайты используют креативные названия пунктов меню вроде:
❌ "Подарки и радости"
❌ "Для малыша"
❌ "Предметы первой необходимости"
Но проблема в том... что никто не ищет эти фразы.
Вместо этого, попробуйте фразы, которые люди реально ищут:
✅ "Уникальные идеи подарков"
✅ "Подарки для новорожденных"
✅ "Экологичные чистящие средства"
🧠 Простой аудит навигации может привести к быстрым победам в SEO:
1️⃣ Проверьте анкоры в навигационном меню
2️⃣ Проверьте тайтлы этих страниц или ключи, по которым они ранжируются
3️⃣ Замените креативные названия на фразы, которые ваши клиенты реально ищут
Небольшая правка. Большой прирост трафика.
@MikeBlazerX
Gym Shark
получает 319 000 ежемесячных посещений от небрендовых поисковых запросов.
Более $400 000 оценочной стоимости трафика по данным Semrush
(на самом деле они зарабатывают гораздо больше).
Их позиции?
— #1 по запросу "sports bra
" (27 000 поисков)
— #1 по запросу "workout sets
" (22 000)
— #1 по запросу "flared leggings
" (27 000)
— #1 по запросу "gym bag
" (50 000)
— #1 по запросу "athletic shorts
" (10 000)
— #1 по запросу "oversized tees
" (10 000)
— #1 по запросу "workout tops
" (18 000)
Но спорим, вы никогда не догадаетесь, что является их секретным оружием...
Стратегическая внутренняя перелинковка.
На их страницах коллекций есть:
— Внутренние ссылки, размещенные по всему описанию коллекций
— Множество дополнительных ссылок внизу страниц
— Ссылки на подколлекции с использованием точных анкоров
Если вы посетите их страницу "workout sets
", там повсюду ссылки на связанные категории:
Комбинезоны, спортивные комплекты, бесшовные комплекты...
Красиво ли это?
Возможно, нет.
Но это прибильно!
Когда приходится выбирать между эстетикой и дополнительными несколькими миллионами в месяц от органического дохода... выбор кажется очевидным.
-
"Дизайнеры, видимо, ушли с совещания до того, как всё утвердили."
И в этом вся суть.
Это просто обычные текстовые ссылки вверху/внизу страниц коллекций.
Они оптимизированы для МАКСИМАЛЬНОГО дохода через SEO... и руководству Gymshark
, которое собирает дополнительные продажи благодаря им, пофиг, как они выглядят.
Что бы вы предпочли: "красивые" страницы или трафик такого уровня?
Да, ссылочный профиль Gymshark
– важный фактор их успеха.
Их узнаваемость бренда огромна.
Но если бы они завтра убрали эти "уродливые" внутренние ссылки, их органический небрендовый трафик, вероятно, значительно снизился бы.
Внутренняя перелинковка часто является самым быстрым способом повысить позиции страниц коллекций, особенно когда вы ставите функциональность выше формы.
Многомиллиардные компании это понимают.
Они не позволяют дизайнерским предпочтениям перевесить решения, приносящие доход.
Иногда "уродливое" решение – это то, что оплачивает счета.
@MikeBlazerX
Когда позиции клиента резко упали с #3 до страниц 2-3 по основным запросам в пик сезона, Кевал Шах определил, что Google изменил поисковый интент для этих запросов.
Что произошло
Google переключился с ранжирования страниц категорий товаров на предпочтение главных страниц брендов для целевых запросов клиента.
Решение
Были реализованы три простых шага:
1. Оптимизировали мета-тайтл главной страницы, используя формат "[Запрос] | [Название бренда]"
2. Сделали редирект с ранжирующейся страницы категории на главную, передав ссылочную массу
3. Воссоздали страницу категории с новым URL
, чтобы сохранить юзабилити без конкуренции за основные запросы
Результаты
— В течение 24 часов: Позиции улучшились до середины первой страницы
— Через неделю: Клиент достиг #1 позиции по целевым запросам
@MikeBlazerX
Недавно опубликованные документы по антимонопольному делу Министерства юстиции США против Google раскрывают интересную инфу:
Поисковый индекс состоит из фактического контента, который прокраулен (заголовки и текст), и ничего больше, т. е. это инвертированный индекс.
Существуют также другие отдельные специализированные инвертированные индексы для других целей, таких как фиды из Twitter, Macy's и т. д.
Они хранятся отдельно от индекса для органических результатов.
Это касается только 10 синих ссылок, но некоторые сигналы хранятся для удобства в индексе поиска.
Сигналы на основе запросов не хранятся, а вычисляются во время запроса.
Исследование ключевиков с помощью только Google Search Console
?
Без Ahrefs
.
Без Semrush
.
Только данные, которые Google уже предоставляет вам. 👇
Мы использовали именно этот метод, чтобы извлечь 390 172 ключевых слова с одного сайта и создать контент-план, построенный исключительно на реальном поисковом поведении, пишет Стив Тот.
Результат?
Революционный.
— Тысячи низкоконкурентных ключей с высоким интентом
— Напрямую связаны с вашими существующими страницами
— Отфильтрованы, обогащены и готовы к использованию
Мы использовали это для планирования SEO-контента на 6+ месяцев.
Все подкреплено данными.
Никаких догадок.
Каждый месяц (начиная с 16 месяцев назад) мы выполняли 4 отдельных выгрузки ключевых слов:
1) "обычная выгрузка" без параметров регулярных выражений
2) регулярное выражение для ключей с 3+ словами
3) регулярное выражение для 6+ слов
4) регулярное выражение для вопросительных запросов
Вот регулярное выражение:
1) нормальное извлечение, не требуется.
2) ([^" "]*\s){2,}?
(3+ слова)
3) ([^" "]*\s){5,}?
(6+ слов)
4)
^(who|what|where|when|why|how|was|wasn't|wasnt|did|didn't|didnt|do|is|isn't|isnt|are|aren't|arent|will|won't|wont|does|doesn't|doesnt|should|shouldn't|shouldnt|were|weren't|werent|would|wouldn't|wouldnt|can|can't|cant|could|couldn't|couldnt)[" "]
GSC
, чтобы получить отличные результаты.Метод Link Lazarus
использует битые ссылки из Википедии
Йесилюрт обнаружил, что дроп-домены с бэклинками из Википедии сохраняют ценные сигналы авторитетности, которые часто не замечаются популярными SEO-инструментами.
Его метод улучшает традиционные подходы работы с битыми ссылками через:
— Глубокий анализ контента: Изучение архивного контента для выявления связей между сущностями
— Стратегическое маппирование: Сопоставление просроченных доменов с релевантным контентом
— Редиректы на основе интента: Сохранение тематической целостности
— Улучшенное воссоздание контента: Повышение ценности контента, когда это выгодно
Популярные инструменты вроде Ahrefs
и Semrush
часто не показывают обратные ссылки из Википедии на просроченные домены.Python
-инструмент Йесилюрта на базе Streamlit
систематически находит эти возможности путем краулинга Википедии, извлечения внешних ссылок, определения мертвых и проверки доступности доменов.
https://huggingface.co/spaces/metehan777/link-lazarus
(Ограничен 20 результатами/страницами вики.)
Рабочий процесс включает:
1. Сканирование Википедии через поиск по ключевым словам и краулинг категорий
2. Анализ контента через Archive.org
3. Проверку домена через WHOIS
и DNS
-чеки
4. Маппинг контента с помощью ИИ и эмбеддингов
5. Редиректы на основе топиков, сохраняющие релевантность
Результаты демонстрируют эффективность метода:
— AppSamurai
доминировал на первой странице выдачи по целевым запросам
— Сайт в конкурентной нише поднялся с позиции #23 на #2
— Выявлено 1 862 просроченных домена на страницах Википедии на разных языках
— Новый домен в конкурентной нише показал значительное улучшение за 3 недели
— Обнаружены домены с цитированием из Гарварда, MIT
и правительственных источников
Метод Link Lazarus
работает не только с Википедией, но и с другими авторитетными платформами.
https://metehan.ai/blog/link-lazarus-method/
@MikeBlazerX
Вау, TrustPilot
- это просто развод, мошенничество и все прочие подобные слова, которые только можно придумать.
Я случайно заметил, что у нас средний рейтинг 3.4 по отзывам на Trustpilot
, говорит Матиас Шрёдер.
Что казалось странным, учитывая, что у нас средний балл 4.9 по 7660 отзывам через Judge Me Reviews
.
Так что я посчитал.
У нас 126 отзывов на Trustpilot
:
1 звезда: 5
2 звезды: 0
3 звезды: 2
4 звезды: 16
5 звезд: 103
Среднее арифметическое: 4.68
Средний балл по версии Trustpilot
, то есть их TrustScore
: 3.4 🙃
Какого хрена?
Их объяснение:
"Расчет основан на различных параметрах, таких как общее количество отзывов компании и дата создания отзывов.
На TrustScore
также влияет то, активно ли компания приглашает своих клиентов оставлять отзывы или нет."
Позвольте мне перевести это для вас:Trustpilot
намеренно занижает средние рейтинги продавцов, использующих другие платформы для отзывов, и маскирует это под собственный "алгоритм TrustScore
".
На самом деле, единственный способ получить много отзывов, свежие отзывы и активно приглашать клиентов оставлять отзывы на Trustpilot
- те самые "различные параметры" в их объяснении - это... использовать Trustpilot
.
Последнее предложение, которое я получил от Trustpilot
, было $400 в месяц.
И это было более 5 лет назад, когда мы были лишь частью того бизнеса, которым являемся сегодня.
Так что, поскольку я не готов платить эту сумму, которая, я не удивлюсь, сейчас уже превышает $1000 в месяц, они просто портят нашу репутацию, выдавая нам низкий рейтинг.
РАЗВОД.
@MikeBlazerX
Хотите увеличить свои шансы появиться в Google Discover? 👀
Тогда перестаньте использовать один и тот же заголовок везде.
Многие люди по-прежнему используют один и тот же текст для <title>
, <h1>
и og:title
.
Но данные, представленные Джоном Шехата, показывают, что это может быть стратегической ошибкой, потому что Google выбирает, какой заголовок показывать, и не всегда выбирает тот, который вы предполагаете.
В США заголовок Open Graph
(og:title
) используется в 34% случаев в Discover
.
В Германии этот показатель достигает 61%.
Другими словами, если вы не тестируете разные версии заголовков, вы можете упустить отличную возможность повысить свою видимость.
Практический совет:
Создайте три разных версии заголовка для каждой статьи:
— Оптимизированный для SEO заголовок (<title>
)
— Привлекательный для читателей заголовок (<h1>
)
— Заголовок, рассчитанный на вовлечение в социальные сети (og:title
)
Google любит возможность выбора.
Дайте ему его 🤓
@MikeBlazerX
⚠️ Гайз, остерегайтесь мошенников косящих под меня‼️
Я никому не пишу, ничего не предлагаю и не прошу денег.
Будьте бдительны!
@MikeBlazerX
В чёрном SEO атаки каноникализации - реальность.
Вы можете использовать кросс-доменные каноникалы чтобы:
— Повысить авторитет своего сайта, или
— Перенаправить алгоритмические санкции на конкурента.
Это работает.
Если у вашего бренда нет исторических данных или сильного распознавания сущности, они даже могут заставить ваш сайт ранжироваться по запросам малайзийских мыльных опер всего с несколькими низкокачественными сигналами.
Та же тактика применима к Web Answers
.
Джеймс Дули создаёт блестящие модели "искусственного консенсуса" - формируя понимание LLM
с помощью семантического слоения.
Убедить LLM
- все равно что сформировать массовое сознание.
Нельзя сказать это один раз.
Вы говорите это:
— С другой страницы
— На другом сайте
— В другое время
— Через другую призму
Это многомерное повторение создаёт новые определения.
@MikeBlazerX