8310
Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Форензика на уровне токенов LLM выявляет и чинит изъяны в восприятии бренда
Мы перешли от поверхностного отслеживания видимости в ИИ к более продвинутой форме механистической интерпретируемости, которая позволяет нам залезть в голову LLM, делится деталями Дэн Петрович.
Цель — диагностировать "первичное смещение" модели, ее сырое, допоисковое восприятие вашего бренда, анализируя вероятности на уровне токенов.
Это новое поле битвы за видимость бренда.
Используя инструмент вроде TreeWalker, вы можете исследовать все вероятные пути, по которым модель могла пойти при генерации предложения.
Этот процесс вскрывает "точки высокой энтропии" — это зоны низкой уверенности, где модель "шатает" и она может сказать о вас много разного.
Это и есть ваши конкретные слабые места.
И наоборот, точки низкой энтропии показывают, где модель очень уверена в своих утверждениях.
Например, я анализировал клиента, продающего сантехнику, и обнаружил, что у модели была очень высокая уверенность в токене "tapware" (сантехника), когда он ассоциировался с брендом.
Однако, когда я ставил перед ним токен "luxury" (люксовый), уверенность модели в "tapware" резко падала.
Это был прямой, хирургически точный инсайт: модель не ассоциировала наш бренд с премиум-сегментом.
Это не какой-то размытый анализ настроений, это измеримый изъян в нейронных путях модели.
Этот диагностический чертеж диктует стратегический ответ.
Ваши усилия в диджитал PR и посеве контента должны быть сфокусированы исключительно на этих выявленных слабых местах.
Вместо того чтобы усиливать то, что модель и так знает, вы должны создавать и сеять контент, который целенаправленно строит ассоциации там, где модель показывает высокую энтропию.
Мы использовали этот инсайт, чтобы продиктовать, что весь будущий контент и PR для клиента по сантехнике должен быть нацелен на построение конкретной ассоциации с "luxury", систематически исправляя восприятие модели на уровне токенов.
#GEO #EntitySEO #DigitalPR
@MikeBlazerX
🚷 Закрытый канал: @MikeBlazerPRO
Очередная неделя в @MikeBlazerPRO закрыта.
Знаете, что смешно?
Ребята, которые экономят €20 на подписке, потом тратят €2000 на "SEO-специалиста", который гуглит ответы и спрашивает у LLM.
А подписчики PRO уже разобрали вот что:
1. Эксплуатация дешевых дропов для структур "Fake E-Commerce" — как передать траст на аффилиатную витрину и захватить коммерческую выдачу.
2. Как заставить Гугл краулить ваши страниц с частотой новостника - технический трюк, который бустит вовлеченность на 1-2-3.
3. Шпионаж через Google Chrome - как Google видит полный кликстрим пользователей и CTR конкурентов, даже когда они не гуглят.
4. Простой подход для ваших страниц разделов — как поднять ранжирование всего домена через архитектурное решение, создающее идеальную изоляцию веса и тематическую чистоту.
5. Кейс Stake.com: Топ-1 по "gambling" без ключевых слов в тайтле - как подклеивать авторитет чужих статей к вашим страницам через фишку в Schema.org.
6. Смена IP на Cloudflare обнуляет траст в серых нишах — почему алгоритм воспринимает защиту сайта как продажу домена спамерам и как этого избежать.
7. Как Google использует визуальную семантику для оценки "человеческих усилий" в дизайне - и какое UX-изменение, может поднять трафик с 2к до 30к без единой строчки нового контента.
8. Как скормить Google манипулированные сигналы авторитета через его же инфраструктуру - метод, заставляющий Гугл принять внедренный вами текст за проверенный факт Knowledge Graph.
9. Этот ушлый метод хостинга картинок бустит траф из Image Search — как создать неубиваемый канонический источник для фоток, который Google обожает.
10. "Серый" синтаксис JSON-LD для валидации невозможного - как масштабировать сложные рич-сниппеты на миллионы страниц заставив Google принять вашу схему.
-
Это не про экономию.
Это про приоритеты.
Один инсайд из PRO может принести профита на порядок больше, чем стоит годовая подписка.
Вопрос не "стоит ли это денег", а "можете ли вы позволить себе НЕ знать этого".
Фиксируйте доступ или смотрите, как ваши конкуренты уходят в отрыв.
Я ухожу с 8-часовой смены после 32 перекуров и 17 переписок с ChatGPT.
#Humor
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Я в SEO уже 15+ лет, и каким-то образом умудрялся выбирать более сложный путь каждый. Чертов. Раз.👇
Если бы я мог поговорить с 22-летним Ником, вот плейбук, который я бы ему вручил (не то чтобы он послушал), пишет Ник ЛеРой.
1️⃣ Первая работа в SEO: хватай буквально любую роль, которую дадут.
Желательно в агентстве.
🎯 Цель: Набить руку на разных индустриях, платформах и реальном геморе, и быстро.
2️⃣ Спустя ~2 года: прыгай в другое агентство.
🎯 Цель: Прокачать софты. Управление клиентами. Коммуникация. Уверенность. Ведение аккаунтов без паники.
3️⃣ Спустя ~4 года всего: начинай подаваться на инхаус роли.
🎯 Цель: Научиться убеждению. Научиться продавать идеи внутри компании. Освоить аналогии, влияние и навигацию среди стейкхолдеров.
4️⃣ Спустя ~5 лет всего: целься в крупную лидерскую SEO-роль (идеально — ближе к продукту).
🎯 Цель: Понять, как на самом деле принимаются решения в больших организациях.
Перевод: изучи политику, не дав ей сожрать себя заживо.
5️⃣ В районе 6–7 года: реши, чего ты реально хочешь.
Это развилка:
⬅️ Повернешь налево: максимизируешь апсайд = строишь свое (консалтинг, продукт, бизнес).
➡️ Повернешь направо: минимизируешь риск = растешь, лидируешь, хорошо зарабатываешь, защищаешь work/life balance.
🎯 Цель: Будь честен насчет своей прошивки. Не все хотят одного и того же.
Я контрол-фрик.
Если бы я доверился этому раньше, я бы сэкономил себе кучу ненужной боли.
Забавная часть: я попробовал маршрут "направо"… и перешел от роли индивидуального контрибьютора к руководству командой за 8 месяцев 😁
Любопытно: если бы вы могли дать своему 22-летнему "я" одно карьерное правило, каким бы оно было?
#SEOCareer #InHouse #SEOAgency
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Ли Фут раскрывает масштабный дроп скриптов и приложений за 5 лет — 104 бесплатных тулзы (в 3 раза больше его предыдущей коллекции).
Большинство ранее были спрятаны в приватных репозиториях или нишевых клиентских сетапах; теперь они вычищены и в паблике.
87 приложений Streamlit
Фут вооружил доступность: 87 скриптов теперь стали веб-приложениями Streamlit.
Никакой возни с настройкой Python — загружаете данные, получаете результат.
Сайт использует фильтры по категориям, каждая карточка детализирует точную утилитарность тулзы и требуемые инпуты.
Ремикс с Claude
В каждой тулзе есть кнопка "Remix with Claude".
Один клик инъектирует исходный код в Claude, позволяя вам адаптировать, объяснять или прикручивать дополнительный функционал к фундаменту.
Пока любой может юзать LLM для написания скриптов, Фут предоставляет проверенную архитектуру, на которой можно строить.
104 Тулзы / 8 Категорий:
— Content: 21 тулза
— E-commerce: 17 тулз
— Internal Linking: 8 тулз
— Keyword Research: 22 тулзы
— Migration: 2 тулзы
— Reporting: 10 тулз
— Search Console: 11 тулз
— Technical SEO: 13 тулз
https://www.leefoot.com/tools
#Tools #Python #Automation
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
📊 Как Google AI Mode структурирует свои ответы?
Вот что я нарыл, пишет Адриан Скоурон.
Все говорят об оптимизации под AI Mode.
Но прежде чем оптимизировать, вы вообще знаете, как выглядит выхлоп AI Mode? 🤔
Я разобрал реальные аутпуты AI Mode, чтобы понять паттерны форматирования.
Вот как AI Mode структурирует ответы:
— Жирный текст — 99.2% ответов.
— Цитаты — 99.1% ответов (в среднем 23.7 на ответ).
— Маркированные списки (Bullets) — 97.3% ответов.
— Нумерованные списки — 30.5% ответов.
— Таблицы — 24.1% ответов.
— Изображения — 17.9% ответов.
— Товарные карточки (Shopping): 17.2% ответов. Это интересно, особенно в контексте нового протокола UCP.
Что бросается в глаза:
— AI Mode обожает буллеты, а не цифры (97% против 31%).
— Жестко юзает жирный шрифт — почти 18 раз за ответ в среднем.
— А цитаты? Более 23 на ответ. Это не игра "победитель получает все". Подтягивается куча источников.
Вопрос, который стоит задать:
— Ваш контент органично ложится в эти паттерны?
— Если AI отвечает буллетами, сравнениями и жирными ключевыми поинтами, ваша структура позволяет легко это экстрактить?
Стоит потестить.
Я пилю тулзу, которая анализирует, насколько ваш контент мэтчится с форматами AI Mode и других AI-поисковиков.
Хотите стать ранним тестером?
Стучите в личку или в комменты.
#AIOverviews #SERPAnalysis #ContentOptimization
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Мы снесли половину сайта.
Трафик вырос в 4 раза.
Мы взяли на себя SEO для центра лечения зависимости в Южной Калифорнии, пишет Джордж Кохер.
У них было 200 проиндексированных страниц, созданных за годы стратегии "контент — король"... писали про всякую дичь, в которой даже не было смысла. (SAD)
Средний трафик?
385/месяц.
Это меньше 2 посетителей на страницу.
Большинство страниц не делали ничего и фактически вредили друг другу.
→ Каннибализация ключей повсюду.
→ Thin content размывал траст домена (domain authority).
→ Краулинговый бюджет сливался на страницы, которые никогда не ранжировались.
Поэтому мы удалили 100 страниц.
Консолидировали.
Сделали редиректы.
Сфокусировались.
Спустя 90 дней:
→ 100 страниц (минус 50%) (Все более высокого качества).
→ 1,600 ежемесячных посетителей (рост 315%).
→ 16 посетителей на страницу (рост 8x).
→ Качество и количество звонков выросло более чем вдвое.
#Pruning #ContentStrategy #Cannibalization
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Исследование бывшего ресерчера OpenAI Картика Нарасимхана и его коллег из Принстонского университета показало: добавление статистики — один из мощнейших способов забустить видимость в AI search.
Суть (TLDR) пейпера: статистика — реально улучшает перформанс в GEO/AEO.
Проблема в том, что большинство просто гуглит тему и хватает первые попавшиеся цифры из какого-нибудь пережеванного блог-поста.
Это не создание ценности, это копипаста.
У Google есть патент под названием Contextual estimation of link information gain (Контекстная оценка прироста информации ссылки).
Суть: когда у всех страниц одна и та же информация, они летят вниз.
Когда у вас уникальные данные, которые никто больше не цитирует — вы получаете буст.
Поэтому я собрал промпт/Проект в Claude под названием Information Gain Researcher, который пашет, чтобы найти неиспользованную статистику, спрятанную в PDF, Word-документах и презентациях PowerPoint, пишет Стив Тот.
Вот почему эти источники важны и как это юзать:
1. PDF, доки Word и PowerPoint содержат статистику, которую гораздо сложнее найти, чем типичную выдачу блогов (и, следовательно, её реже цитируют).
2. Источники типа World Journal of Advanced Engineering and Technology публикуют глубокие данные, которые не ранжируются в топе Google, но содержат золотую жилу информации.
3. Создайте Claude Project, используйте Opus 4.6 и скажите ему, о какой теме пишете.
4. Он задаст пару уточняющих вопросов, чтобы сузить поиск.
5. Opus 4.6 потратит до 10 минут на глубокий ресерч по разным форматам документов.
6. На выходе он вернет каждую статистику с годом публикации, самой цифрой, ссылкой на исходник и файлом.
В тестах это вытаскивает ~30 уникальных статов примерно за 10 минут.
Добавляйте самые релевантные данные прямо в контент с правильной атрибуцией источника и смотрите, как растет видимость.
Это работает и для AI-поиска, и для традиционного Google.
Когда у вас есть данные, которых нет у конкурентов, вы выделяетесь и получаете траст юзеров.
Это одно из самых высокорычажных (high-leverage) действий для контента прямо сейчас.
Промпт лежит тут.
#ContentOptimization #GEO #AI
@MikeBlazerX
🚷 Закрытый канал: @MikeBlazerPRO
Cointelegraph.com (5M → 0 Трафика)
В конце 2025 Cointelegraph.com словил тотальный обвал видимости, рухнув с 5 миллионов органических визитов до почти нуля.
Тайминг — конкретно сентябрь — первичный диагностический сигнал: краш произошел без подтвержденного Core Update, что изолирует причину до Ручных Санкций, а не алгоритмической волатильности.
Форензик-аудит 450к потерянных ключей вскрывает вектор инфекции.
Изоляция US-based, англоязычных потерь раскрывает массовый сброс хай-интент ключей "casino" и iGaming.
Исторические снепшоты подтверждают: новостной паблишер агрессивно развернул директорию /casino/, пытаясь паразитировать на своем высоком доменном авторитете в крипте для захвата жирного трафика гемблинг-партнерок.
Эта конкретная архитектура триггернула энфорсмент Google "Site Reputation Abuse".
Поисковик классифицировал саб-фолдер как third-party контент — вероятно, вайт-лейбл — опубликованный исключительно для манипуляции ранжированием через сигналы хоста.
Несмотря на тематическую смежность между криптой и крипто-гемблингом, четкий коммерческий интент и внешнее происхождение нарушили политику, ранее известную как "Parasite SEO".
Итог абсолютен: тотальный де-ранкинг на уровне домена, а не понижение конкретной директории, что подтверждает: лизинг авторитета на новостных доменах остается подтвержденной kill-zone.
https://www.ranks.com/what-happened-to-cointelegraph/
#ParasiteSEO #ManualActions #SiteReputationAbuse
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Site-Wide задержка классификации и "Serving Gate"
Форензик-анализ Google Helpful Content System (HCS) подтверждает: общесайтовая классификация теперь работает как пре-ранжирующий гейт, эффективно оверрайдя качество отдельных страниц.
Google больше не оценивает страницы в изоляции; вместо этого он считает агрегированный семантический вес домена, чтобы присвоить первичный "тип сущности".
Если ваши контентные пропорции поплыли, система переклассифицирует домен, делая релевантные коммерческие страницы проиндексированными, но невидимыми на слое serving.
Этот сбой был изолирован в кейсе кровельной компании, которая масштабировала контент "local relevance" — гиды по районам и комьюнити ивенты — для поддержки SEO.
Поскольку объем информационного локального контента в итоге перевесил технические кровельные страницы, классификатор Google перетегал домен с "Roofing Contractor" на "City Information Source".
Как следствие, 9 из 12 коммерческих страниц услуг попали под гейт: они остались в GSC, но генерировали ноль импрешенов по ключам типа "roofing contractor".
Логика системы определила, что "city guide" не имеет требуемого авторитета ранжироваться по стройке.
Данные по восстановлению вскрывают критическую batch-latency в HCS.
После того как сайт пофиксил контентные пропорции в ноябре, чтобы вернуть кровлю как доминирующую тему, немедленного восстановления не случилось.
Даже свежие, идеально оптимизированные страницы, опубликованные в январе, провалились.
Домен оставался в "мертвой зоне классификации" до общесистемного батч-апдейта в феврале, который восстановил видимость всем страницам — старым и новым — одновременно.
Это подтверждает, что восстановление HCS не риал-тайм и не зависит от страницы.
Вы не можете "пофиксить" отдельные URL, чтобы триггернуть ранжирование, если общесайтовая классификация сущности залочена.
Пока агрегированный сигнал домена не сдвинется обратно к первичному коммерческому интенту и не переждет квартальный батч-цикл, весь сайт остается под прессом, независимо от технического качества.
"Indexed" — это пузомерка; без корректной общесайтовой классификации гейт выдачи закрыт.
https://www.linkedin.com/pulse/independent-research-just-proved-what-ive-been-saying-kim-albee-axfac/
#HCU #TopicalAuthority #Indexing
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Динамика частотности бренда решает вопрос жизни Knowledge Panel, а не SchemaSearch Volume функционирует как биологическое сердцебиение Панели Знаний (Knowledge Panel); когда пульс останавливается, сущность умирает, независимо от целостности кода.
Моя личная панель исчезла именно когда частотность поиска моего имени упала, несмотря на то, что базовая микроразметка schema оставалась технически идеальной, раскрывает Дэвид Куэйд.
Это изолирует Search Volume и Topical Authority как первичные драйверы генерации и удержания сущности, доказывая, что schema — лишь декоративная обертка, которая не может поддерживать актив без сигналов живых юзеров.
Касательно роли структурированных данных в видимости для AI: теория, что schema помогает выборке LLM, является фундаментальным непониманием архитектуры.LLM поглощают и обрабатывают сырой текст нативно; они не строят индексы на основе тегов schema, делая разметку иррелевантной для ранжирования в Больших Языковых Моделях.
Фактически, опора на schema для локального ранжирования создает прямую уязвимость: разметка отзывов "от первого лица" (собранных бизнесом самостоятельно) нарушает гайдлайны Google.
В то время как алгоритм часто просто игнорирует звезды, документация прямо предупреждает о Ручных Санкциях (Manual Actions) за это конкретное нарушение, предостерегает Джейк Хандли.
Следовательно, я сношу схему отзывов с локальных клиентских сайтов, чтобы устранить векторы пенальти, фокусируясь вместо этого на маппинге H1 и Page Titles под конкретные поисковые запросы.
#KnowledgePanel #EntitySEO #SchemaRisk
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
Томас Шиллинг свитчнулся с Cloudflare DNS на Hetzner DNS и посмотрите на этот обвал 📉P95 улетел с 954ms → 172ms.Deutsche Telekom режет скорость сервисам, которые не платят (Netzbremse).
Если у вас есть кастомеры из Германии, рассмотрите других DNS-провайдеров.
#SiteSpeed #ServerResponse #CloudFlare
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
Фильтр по выручке отсекает PBN-мусор, а синдикация меняет оценку активов
Алгоритмы "Top Spot" на маркетплейсах переходят от простого объема продаж к расчету, взвешенному по выручке (Объем × Цена), чтобы вычистить шум от низкокачественных PBN за $5-$10.
Приоритезируя общий оборот, система фильтрует высокообъемный спам и изолирует сайты с ROI, подтвержденным комьюнити, гарантируя, что рейтинги отражают стабильный рыночный спрос, а не статистические выбросы или единичные дорогие транзакции, объясняет Лео Пуатвен.
Для противодействия "wash trading" — когда продавцы создают вторичные аккаунты для самовыкупа мест и накрутки видимости — платформы внедрили триггеры автоматического делистинга.
Если сайт получает статус "Top Spot" и пытается немедленно повысить цену, чтобы капитализировать видимость, алгоритм мгновенно удаляет актив из листинга для предотвращения тактики bait-and-switch.
Кроме того, дезинтермедиация (увод сделок) остается основным риском OpSec; платформы активно мониторят внутреннюю переписку на предмет продавцов, предлагающих транзакции вне платформы, одновременно отдавая приоритет тем, кто предлагает "гарантию лучшей цены" для поддержания целостности экосистемы.
Отдельно оценка доменов для французских паблишеров высокого уровня отвязывается от стандартных органических метрик типа DR или DA.
Премиальный прайсинг для сайтов вроде "Ma Grande Taille" драйвится в первую очередь фидами синдикации MSN, которые могут генерировать более 100 миллионов визитов в месяцРомен Пиротт.
Это создает уникальный профиль "реферального/синдицированного" трафика, оправдывающий оценки, значительно превышающие то, что показывают традиционные SEO-тулы.
Наконец, анализ данных подтверждает жесткое распределение Парето, где 20% каталога генерируют 80% общей выручки.
Это требует стратегического сдвига к интерфейсам в стиле Amazon, где по умолчанию стоит фильтрация по скорости продаж (sales velocity), позволяющая покупателям быстро идентифицировать "живые" ссылки в противовес застойному, автогенерируемому инвентарю, отмечает Ромен Пиротт.
#LinkBuilding #MarketplaceSEO #BacklinkAudit
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
499 'Client Closed' убивает видимость в AI-поиске
Логи ботов вскрыли критическую уязвимость: задержка загрузки мгновенно обрубает краулинг.
Если документ тупит, системы вроде ChatGPT и Perplexity не ждут — они рвут соединение и отдают 499 "Client Closed Request", пишет Майкл Кинг.
Механика упирается в архитектуру движков: в отличие от Google с его готовым индексом, AI часто делает фетчинг в реальном времени (Query Fan-out).
Это бинарное условие: нет первого байта сразу — бот уходит.
Чтобы обеспечить видимость, я ставлю Time To First Byte (TTFB) выше традиционных Core Web Vitals и внедряю Edge Caching на уровне CDN.
Цель — обойти базу данных и отдать чистый HTML мгновенно.
Отдельно: так как LLM-краулеры обычно не рендерят JS полностью, тяжелые медиа не так критичны, как задержка сервера.
Но любые настройки, триггерящие 429 (Throttling) или 403 (Forbidden), активно блокируют этих агентов, по сути создавая "невидимый клоакинг" от AI.
#LogAnalysis #TTFB #EdgeSEO
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
Контринтуитивный трюк с ЭТИМ тегом HTML сломал "лучшие практики" SEO и дал рост в TripAdvisor
Годами SEO-аудиторы убивали сайты правилом про "корректную разметку страницы".
Эксперт палит тему: нарушение этого "золотого стандарта" стабильно пампит трафик.
Это не гипотеза, а подтвержденный эксплойт, который TripAdvisor юзает годами.
Механика работает через усиление контекстного сигнала для алгоритма: поисковик получает более сильную тематическую привязку, чем при классическом подходе.
Обратный тест подтвердил причинно-следственную связь: убрали модификацию с победивших страниц — сессии упали.
Это не теория, это повторяемый эффект на разных сайтах и нишах.
Пока ты молишься на валидаторы, подписчики PRO-канала пылесосят твой трафик и рвут топы.
Точная схема реализации + правила связки — @MikeBlazerPRO
Алгоритм GIST использует Conflict Radius для отсева избыточных RAG-источников
Внедрение Google протокола GIST (Greedy Independent Set Thresholding) знаменует разворот от "Ранжирования по авторитету" к "Выборке по разнообразию" для AI Overviews и SGE.
Традиционные алгоритмы ранжируют документы по сигналам качества, но GIST решает проблему юнит-экономики: избыточность стоит дорого.
Google не может позволить себе скармливать десять семантически идентичных "Небоскребов" (Skyscraper articles) в контекстное окно LLM.
Вместо этого алгоритм определяет высокополезную "Seed Node" (например, топ-1 результат) и математически очерчивает вокруг нее Conflict Radius.
Любой контент, попадающий внутрь этого радиуса — обычно с семантическим пересечением >85% — исключается из выборки для экономии токенов, независимо от траста домена.
Этот механизм превращает десятилетнюю технику "Небоскреб" (переписать топ, но длиннее) в техническую уязвимость.
Зеркаля структуру и энтити лидера рынка, вы добровольно помещаете свой контент в его Exclusion Zone, гарантируя невидимость в ответах AI.
Контр-стратегия требует Латерального Расширения, а не вертикального улучшения.
Если Seed Node закрывает "Теорию", ваш контент должен уходить в "Внедрение", "Граничные случаи" (Edge Cases) или "Юридический комплаенс".
Успех больше не в том, чтобы быть лучше; он в Ортогональности — статистическом различии, создающем достаточную дистанцию от Seed Node для обоснования отдельного слота в выдаче.
Реализация требует форензик-подхода к Семантической Дистанции.
Перед публикацией практики используют LLM (Claude/Gemini) для расчета косинусного сходства (cosine similarity) между драфтом и текущим топ-3.
Цель — семантическое пересечение <75%.
Для структурного закрепления уникальности выходите за рамки стандартной Schema.
Пока тред дебатировал по claimReviewed (который ограничен), валидированный протокол включает использование свойств reviewedBy и knowsAbout, конкретно используя свойство mentions для линковки на отличные от конкурентов сущности Wikidata.
Это создает векторную структуру "GraphRAG", сигнализирующую краулеру об уникальной информационной плотности, доказывая, что контент дает маржинальную пользу, а не просто дублирует токены.
https://www.reddit.com/r/TechSEO/comments/1qmwukq/googles_new_gist_algorithm_explained_practical/
#SemanticSEO #InformationGain #AIOverviews
@MikeBlazerX
🚷 Закрытый канал: @MikeBlazerPRO
Агрессивный прунинг форсирует переоценку сигналов качества
Сайт на 5,000 страниц, где только 150 дают трафик, триггерит классификацию "Low Quality Site" (3% success rate).
Это размытие создает петлю смерти: краулинговый бюджет сливается на прокрутку мертвого груза (5 дней на цикл), заставляя новый контент виснуть в лимбе индексации неделями.
Прунинг (чистка) форсирует пересчет авторитета всего сайта.
Убиваем 60% низкокачественных активов — цикл краулинга сжимается до 2 дней, а индексация нового ускоряется с 3-4 недель до 5-7 дней.
Протокол исполнения
Стратегия требует экспорта данных GSC за 12 месяцев (URL | Clicks | Impressions | CTR | Position) и кросс-референса с данными по бэклинкам для категоризации каждого URL.
Удаление (410) vs. Редирект (301)
~40% страниц с абсолютным нулем ценности — определяются как ноль кликов/показов за 12 мес, позиция >50, thin content и ноль бэклинков — должны быть удалены.
Сервер обязан отдавать статус 410 Gone, а не 404, чтобы явно сигнализировать о немедленном деиндексе.
# .htaccess
Redirect 410 /deleted-page-1/
301 редиректнуты на ближайший активный эквивалент, чтобы сохранить ссылочный вес.invoicing software" vs "creation" vs "benefits") размывают релевантность.Comprehensive Guides" (3,500+ слов), а старые URL 301 редиректнуть на новый актив.Striking Distance" (ранжируются 11-30 с существующими бэклинками) удаление — ошибка.PageRank.Ahrefs/SEMrush, чтобы не похерить вес, и немедленно вычищайте удаленные URL из sitemap.xml.
CWV — это скользящее окно в 28 дней для URL, которые получают достаточно пользовательских данных, чтобы попасть в отчет.
Если прогнать свои URL через pagespeed.web.dev, заметите переключатель в правом верхнем углу:
This URL | Origin
CWV.
AI-фреймворк аутрича масштабирует линкбилдинг до 23.5% респонз рейта
Ручной аутрич упирается в математический потолок 50-100 писем в месяц из-за юнит-коста 23 минуты на имейл.
Это бутылочное горлышко ограничивает пропускную способность до 2-3 писем в час, давая 6% респонс рейта.
Решение — трехслойный AI протокол, который сжимает время исполнения до 5-7 минут на письмо, учетверяя объем и конверсию ответов.
Layer 1: Автоматизированный анализ проспекта
Этот слой заменяет 10 минут ручного рисеча сайта на 30 секунд AI процессинга.
Операторы разворачивают ChatGPT или Claude для экстракции структурированных данных этим промптом: "Analyze this website [URL]. Extract: recent article topics, author names, site focus, content gaps related to [your topic]." Это генерит структурированные заметки, готовые к немедленной инъекции, минуя ручное ревью.
Layer 2: Шаблонная персонализацияAI мэппит извлеченный рисеч в динамические переменные внутри специфчного базового шаблона: "Hi [Name], noticed your [specific article]. Especially liked your point about [specific detail]. We just published research on [related topic] that [specific value]. Would [specific placement] work?" Это сокращает фазу драфтинга с 8 минут до 2.AI хендлит синтаксис; человек-оператор только верифицирует стратегию.
Layer 3: Гейты контроля качества
Чтобы масштабироваться до 200-300 писем ежемесячно без триггера спам-фильтров, строгие гейты качества заменяют ручной драфтинг:
— Gate 1 (Точность): Верифицируйте AI-экстракт деталей, чтобы предотвратить "сгаллюцинированный" контекст.
— Gate 2 (Тон): Вычищайте очевидные AI паттерны для обеспечения натурального языка.
— Gate 3 (Трекинг): Мониторьте рейты ответов; если падают ниже 20% — требуется немедленная корректировка промпта.
Операционная экономика & Результаты
Воркфлоу включает батч-процессинг 25-50 сайтов, генерацию драфтов и человеческое ревью перед отправкой через тулы типа Pitchbox или Mailshake.
За 6-месячный полевой тест этот протокол сгенерил 51 ссылку с 720 писем (23.5% response rate), по сравнению с всего 4 ссылками со 180 ручных писем.
Стек костов ($170-270/мес) создает чистый арбитраж против $4,000-$6,000 ежемесячного коста дополнительного найма на аутрич.
Автоматизация хендлит рисеч и драфтинг; люди должны хендлить ответы.
#Outreach #LinkBuilding #AI
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Google игнорирует бэклинки, которые идут прямо на карточки товаров, утверждает Кай Кромвель.
Если вам реально не повезет, вы даже словите за них санкции.
Никто не ставит ссылки на товарку по доброте душевной.
Каждая ссылка на страницу продукта выглядит как покупная.
Выглядит манипулятивно.
Google в курсе.
Стройте ссылки на главную.
На страницы коллекций.
На блоги.
Затем дайте перелинковке распределить этот авторитет на продукты.
Вот как работает система.
Я занимаюсь линкбилдингом 5 лет.
Трачу около $30K/месяц на всех клиентов.
Мы никогда не строим ссылки напрямую на страницы товаров.
Ваша структура внутренней перелинковки — это то, что переливает авторитет на страницы, которые делают деньги.
Бэклинки кормят верха.
Внутряк распределяет на низы.
Сделайте наоборот — и вы просто сожжете бабки без какого-либо выхлопа.
#LinkBuilding #Backlinks #Ecommerce
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Отсутствие одного элемента разметки — это гарантированный штраф в 6% трафика
Большинство из вас считает эту штуку "косметикой", но временной эксперимент вскрыл обратное: отсутствие этого элемента разметки режет клики на 6% за месяц.
Методология: 7 URL в тестовой группе сравнивались с собственной исторической базой и контрольной группой из 14 похожих постов, рандомизированных ChatGPT в две сбалансированные подгруппы.
Данные о производительности собирались через GSC API, клики усреднялись за 12 месяцев.
Главная ловушка теста: эффект не виден первые две недели.
Проверка на 14-й день показала нулевой результат, снижение на 6% проявилось только через 4 недели.
Это объясняет, почему большинство A/B тестов пропускают этот сигнал — окно наблюдения слишком короткое.
Что это за элемент и как на изи забрать свои +6% трафика?
Детали узнайте в приватном канале @MikeBlazerPRO
Каждая неделя промедления стоит тебе трафика, который забирают другие.
Всё ещё думаешь?
Жми на кнопку!
Похоже, у Semrush всего несколько клиентов используют их тулзы AI visibility, что означает, что результаты в общих отчетах протекают (искажаются).
Они репортят трекинг "230,000 промптов"; однако их отчеты показывают, что мелкая SaaS-компания ранжируется выше Apple, G2 и IG.
Мы трекаем более крупную базу промптов, включая Google AI Overviews, и я прекрасно понимаю, что мы не трекаем ровно те же самые промпты, но я никогда не видел, чтобы мелкая SaaS-компания показывалась так высоко в общих цитированиях, пишет Клаас Фоппен.GEO/AI SEO сложнее трекать по сравнению с традиционным SEO.
#Semrush #GEO #AI
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Сеошники: "Reddit — это тема для Parasite SEO".
Тем временем, Facebook Groups: 5.6M кликов → 96M кликов за 12 месяцев.
Это рост в 17 раз.
И почти никто об этом не говорит.
Что ранжируется в топ-3 google.com:
• "water heater replacement nashville" $71 CPC
• "most affordable car insurance florida" $56 CPC
• "affordable car accident lawyer" $50 CPC
Почему это проще, чем Reddit:
• Нет требований к карме.
• Менее агрессивная модерация.
• Посты с высокой ценностью залетают в топ-3 всего с 5 комментами.
Вот как найти возможности в вашей нише:
1. Открываем Ahrefs.
2. Вбиваем https://www.facebook.com/groups/ в Site Explorer и выбираем "PATH".
3. Идем в Organic Keywords.
4. Фильтруем ключи по своей теме.
5. Фильтруем по топ-позициям.
Я нашел 279 ключей по VPN 💰, где Facebook Groups стоят в топ-3, пишет Стив Тот.
Когда найдете ранжирующийся пост:
1. Кидайте свой бренд + ценность (value prop) в комменты.
2. Запускайте ветку ответов (reply thread), чтобы не утонуть под "most relevant".
3. Продвинутый уровень: создавайте свои собственные посты (об этом на следующей неделе).
Большинство сеошников до сих пор занимаются фармингом кармы на Reddit.
Умные пивотят в Facebook Groups.
Кликните здесь для видео.
#ParasiteSEO #SerpAnalysis #Keywords
@MikeBlazerX
Но "мясо" только в @MikeBlazerPRO
Google наконец-то закручивает гайки по самопиарным листиклам?
Анализ волатильности ранжирования за январь 2026 года выделил конкретный вектор токсичности: Self-Preferencing Listicle (Листиклы с самопреференциями).
Распространенная тактика GEO — публикация статей "Best [Industry] Tools", чтобы ранжировать свой продукт на #1 месте — превратилась из серого арбитража в основной драйвер алгоритмического подавления.
Форензика данных
В период с 19 января по 2 февраля 2026 года несколько SaaS-брендов испытали обвал органической видимости в диапазоне от -29% до -49% (данные Sistrix US).
Подавление было не сквозным (sitewide decay), а хирургическими ударами по конкретным подпапкам (Блоги, Гайды, Туториалы), которые функционировали как фермы "Best Of".
Один B2B бренд с оценкой $8B потерял 49% общей видимости, что напрямую коррелирует с разделом блога, где 77% трафика шло со 191 статьи, ранжирующей компанию-хоста на #1 месте.
Другой SaaS-игрок просел на 43%, когда его папка /guide/ — хостящая 228 самопиарных листиклов — попала под раздачу.
Паттерн абсолютен: высокая концентрация само-ранжирующего контента без независимой валидации теперь является токсичным активом.
Механизм провала
Вектор выглядит как переобученная Reviews System, таргетирующая коммерческий конфликт интересов.
Google классифицирует эти страницы как предвзятые рекламные материалы, а не независимую редакционку.
Подавление триггерится комбинацией:
— Отсутствие доказательств: Нарушение двойного E-E-A-T путем заявлений об исследованиях без логов тестирования, оригинальных фото или негативных критериев.
— Реципрокные картели: Детект паттернов "ты ранжируешь меня, я ранжирую тебя" между игроками индустрии.
— Компаундинг сигналов: Пострадавшие страницы часто демонстрировали агрессивный спуфинг дат (тег "2026" в тайтлах без существенных обновлений) и сигнатуры 100% AI-генерации.
Каскад GEO
Этот фильтр создает критический сбой в AI-стратегии.
Поскольку AI Overviews и LLM используют RAG, основанный на топ-слотах органики, событие органического подавления эффективно удаляет бренд из ответов AI.
Шорткат для доминации в AI-поиске стал механизмом исчезновения из него.
Протокол аудита
Оцените немедленную экспозицию, выполнив:
site:company.com/blog/ intitle:best "1. company"
site:company.com/blog/ "best" "1. company"
Отчитываемся: неделя в @MikeBlazerPRO готова.
Паблик видит новости.
PRO видит механику.
Разница между "знаю новость про апдейт" и "понимаю, как его обойти" — это разница между зарплатой и капиталом.
Что разобрали на этой неделе:
1. Валидация через "Terminal Click" ломает метрики отказов — как 2-секундная сессия убеждает Chrome в качестве сайта и спасает от деиндекса.
2. Механизм "Rank Spam Transition" ставит на паузу ваши позиции — как обойти искусственный "кап на рост" при резком взлете с 25-й на 1-ю строчку.
3. Налив трафика по "голым" координатам широты/долготы — как обойти фильтры CID, симулировать физическое присутствие и форсировать получение 5 звезд.
4. Взлом панели "Об этом результате" через покупку профиля на ЭТОМ сайте — как за копейки получить dofollow-траст и мгновенную валидацию сущности.
5. Патент Гугла доказывает блокировку семантического скоринга — почему Google даже не пытается понять ваш текст, если вы провалили эту проверку DOM-структуры.
6. "Отравленная пилюля" в этом теге HTML - почему точное вхождение ключа в ЭТОЙ зоне активно пессимизирует страницу вместо буста.
7. Оркестрация деплоя через n8n обходит спам-триггеры — как заливать тысячи страниц, скрывая неестественный футпринт скорости публикации.
8. Смена формата JPG на ЭТОТ формат обходит алгоритм чистки метаданных — как сохранить гео-сигналы в фото, которые Google безжалостно вырезает из JPEG.
9. Механический сброс "протухания" ссылок (Link Decay) — как обновить вес исходящих анкоров без изменения контента, игнорируя спуфинг таймстампов.
10. Как избежать детекта сгенерированного контента - анализ сайтов на генеренке выживших после апдейтов Гугла выявил 100% рабочие подходы.
-
Это не "10 советов по SEO" и не "тренды 2026".
Это конкретные разборы, схемы, фишки с указанием на то, что работает.
Без воды, без философии, без "а давайте подумаем".
Каждый пост экономит вам 10-20 часов ресерча.
Или дает ИДЕЮ, которую вы не нагуглите вообще.
Действуйте, пока конкуренты еще думают.
Достигнут лимит использования Claude.
Ваш лимит будет сброшен в 7 утра.
#Humor
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
Удаление бэклинков не убивает рост позиций: тесты это подтверждают
"Ссылочное эхо" — это не просто теория; это устойчивый артефакт алгоритма, который Рэнд Фишкин наблюдал в каждом проведенном им ссылочном тесте, раскрывает Эдвард Штурм.
В восьми отдельных экспериментах, где мы могли изолировать переменные, выхлоп был один и тот же: мы направляли ссылки на цель, позиции росли, мы удаляли ссылки, а позиции оставались в топе.
Это не был краткосрочный эффект-призрак; высокие позиции держались много месяцев, в одном случае — более 4,5 месяцев после удаления.
В фундаментальном тесте Moz один сайт взлетел с 31-й на 1-ю позицию после получения 22 ссылок.
Когда все 22 ссылки были удалены, сайт остался на 1-й позиции.
Ни в одном тесте позиции никогда не откатывались к своему первоначальному состоянию до получения ссылок.
Это доказывает, что ссылочный граф Гугла обладает долгосрочной памятью; как только голос отдан, его эхо продолжает давать вес еще долгое время после того, как источник исчез.
Этот механизм — палка о двух концах, и его нужно использовать для защиты.
Та же самая устойчивость относится и к токсичным или нелегитимным ссылкам.
Негативный футпринт из плохого ссылочного окружения может оставаться месяцами или даже годами, играя против вашего домена еще долго после того, как ссылки были удалены или дизавуированы.
Вы должны исходить из того, что любой ссылочный сигнал, положительный или отрицательный, является практически вечным.
#LinkEquity #ToxicLinks #Experiments
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
Точные анкоры притягивают санкции за 5 лет, а кривая Schema сносит NAP
Линкбилдинг на анкорах с прямым вхождением стал главным вектором санкций.
Августовский спам-апдейт задним числом наказал клиента за ссылки пятилетней давности, предупреждает Джой Хокинс.
Как следствие, я меняю генерик-контент на протокол Интервью с Клиентом, вытаскивая уникальные истории, которые копирайтеры не могут сфабриковать.
Отдельно: внедрение Local Business Schema дает ноль профита и вводит операционный риск.
Если скрытый скрипт не обновить идеально точно при переезде, Google откатит публичный NAP до данных устаревшего кода, предостерегает Даррен Шоу.
Массовые прогоны по каталогам и статьи "5 советов" — такая же трата ресурсов, заявляет Люк Дюран.
Он ставит в приоритет скорость Закрытия Лида (быстрые квоты и ответы на отзывы) выше метрик ранжирования: топ без скорости убивает ROI.
По мониторингу: я отказываюсь от стандартного съема позиций в пользу кастомного бенчмаркинга, выставляя цели на основе живой динамики конкурентов, добавляет Хокинс.
Также подключаю Reddit Pro для мониторинга отраслевых термов — это палит сигналы вовлеченности, которые Google Trends и Alerts не видят.
#LocalSEO #LinkBuilding #SpamUpdate
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
Таргетинг на "ключевые" домены перекрывает авторитет Википедии
Анализ 25 миллиардов дата-поинтов изолирует специфический тир из примерно 62,000 "ключевых" доменов, которые обучают основной Граф Знаний Google, раскрывает Джейсон Барнард.
Пока индустрия одержима Википедией, эти 62,000 специфических источников имеют непропорционально большое влияние на понимание сущностей, потому что они предоставляют гранулярные, структурированные данные, которых нет на платформах общего профиля.
Математика диктует стратегию: Википедия сейчас представляет лишь 0.012% общей базы знаний Google.
По мере того как LLM поглощают всё более специализированные данные, эта доля, по прогнозам, рухнет до 0.00001%.
Следовательно, получение упоминаний на гипер-нишевых или гео-специфичных сайтах ассоциаций (например, торговая ассоциация конкретного города) сигнализирует Графу Знаний о значительно более высоком авторитете, чем запись в Википедии общего профиля.
Касательно оптимизации сущностей: инвертируйте традиционную воронку, сначала бетонируя "дно воронки".
Четко определяйте Кто я, Что я делаю и Кому служу на странице "О нас", затем расширяйтесь до Категорий (Consideration), гарантируя, что сущность находится в "Топе алгоритмического разума" (Top of Algorithmic Mind) перед тем, как гнаться за широким трафиком осведомленности.
#EntitySEO #KnowledgeGraph #LinkBuilding
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO
Прямые эксклюзивы и маржинальность выбивают конкурентов из SERP
Стандартные аффилиат-модели зависят от паблик-сеток с фиксированными комиссиями (обычно 10-20%), что создает математический потолок CAC для SEO-кампаний.
Чтобы пробить этот потолок, внедряйте "Exclusivity Flip" — переговорную стратегию, обходящую сетки для получения выплат 50%+ напрямую от провайдеров, советует Ромен Пиротт.
Механика требует поиска ниши, где конкуренты сидят на агрегаторах вроде Udemy или паблик-платформах.
Не идите за стадом — найдите прямого владельца продукта (инди-автора курса или вендора софта) и предложите эксклюзив 1:1.
Вы обязуетесь промоутить только их решение в обмен на 50% ревшары.
На продукте за €500-1000 это меняет юнит-экономику с €50 комиссии (паблик рейт) до €250-500 (приват рейт).
Этот рост маржи на 500% — не просто профит, это тактическое оружие.
Оно позволяет заливать существенно больше в закуп ссылок и "Parasite SEO", эффективно выбивая конкурентов из SERP, так как их низкая маржа не вытянет такой же CAC.
Отдельно оптимизируйте этот поток через "Арбитраж Офферов" и жесткие переговоры.
Строго сплит-тестируйте Провайдера А против Провайдера Б для выявления разрывов в EPC — часто видна разница между €1 и €3 за клик.
Как только поток генерирует верифицируемую выручку (например, €2000/мес), используйте эти данные для требования уровня "Private Payout".
Пишите партнеру, показывайте объем и требуйте повышения комиссий или эксклюзивных прав.
Профи не ждут апгрейда тиров; они форсируют их, используя стабильность трафика как рычаг давления.
#AffiliateSEO #OfferArbitrage #UnitEconomics
@MikeBlazerX
☠️ Black Hat — в @MikeBlazerPRO