mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2557

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

SEO в эпоху агентов: итоги NYC SEO Week

Джеймс Кэдуолладер представил концепцию "Agentic Internet", где агенты на базе LLM выступают посредниками во взаимодействии с вебом, смещая фокус SEO с UX на Agent Experience (AX, опыт агента).

Агенты отдают предпочтение структурированным данным, семантическим URL, метаданным и сравнительным листиклам, часто игнорируя JavaScript и традиционные бэклинки.

Это ведет к потенциальному "будущему без кликов" и риску потери прямых отношений с пользователями.

-

Майк Кинг подробно описал механики AI-поиска: векторные эмбеддинги, обеспечивающие семантическое понимание за рамками устаревших лексических моделей.

Он выступил за "инженерию релевантности" (информационный поиск + UX + digital PR) и бросил вызов таким нормам, как короткие теги title, ссылаясь на тесты, показывающие, что когда Google дописывает ключевые слова к коротким тайтлам (что видно по данным GSC), это увеличивает клики.

Кинг описал гибридные системы извлечения (лексические + векторные) и расширение запросов.

-

AI Overviews (AIOs), встречающиеся примерно в 20% запросов в Google (и эта цифра, вероятно, будет расти), используют Retrieval-Augmented Generation (RAG) — семантический чанкинг и индексацию для извлечения данных LLM.

Кристал Картер отметила, что структурированные данные помогают усвоению информации Deepseek LLM, а Кришна Мадхаван подчеркнул важность фактологичного и ясного стиля письма для включения в LLM.

Примечательно, что Рикардо Баэза-Йейтс назвал RAG "костылём" для недостатков LLM, предупредив, что он усиливает посредственность и предвзятость.

Джефф Койл заявил, что AI отдает приоритет результатам (полезности, доверию), а не кликам.

Маник Бхан подтвердил, что тематическая релевантность важнее авторитета домена, рекомендуя визуализацию тематических векторов и отсечение нетематического контента.

Бьянка Андерсон призвала к "коперниканскому перевороту" в SEO KPI: отходить от трафика/позиций к оценке контента по его конверсионному потенциалу, поскольку AIOs могут снизить трафик.

-

Чтобы появляться в ответах LLM, Маник Бхан посоветовал включать контент в обучающие корпуса, такие как Common Crawl, через гостевые посты или PR Newswire, а также оптимизировать страницы "О нас".

Дэн Петровик обсудил отслеживание восприятия бренда/сущности в LLM и двунаправленные запросы.

Джори Форд предложила создавать "ответные активы" для LLM и анализировать поведение ботов (логи Cloudflare, показывающие высокую активность ботов при низком количестве кликов, указывают на упущенную оптимизацию).

Автор оригинального обзора отметил риск манипулирования LLM посредством повторяющейся обратной связи.

-

Кэрри Роуз подчеркнула важность digital PR для заметности бренда путем простановки ссылок на *страницы категорий* для закрепления лидерства в категории, используя модель "7/11/4" для запоминаемости бренда.

Рикардо Баэза-Йейтс также указал на языковое неравенство, предвзятость и недостаток прозрачности генеративного ИИ.

Роберт Хансен подтвердил существование негативного SEO, упомянув DMCA-спам, записи в RBL и манипулирование LLM.

-

Гарретт Сассман посоветовал создавать отдельные страницы под каждый интент и диверсифицировать трафик.

Он отметил рост длиннохвостых, диалоговых запросов, что совпадает с доминированием LLM, но предостерег от заискивания перед LLM.

Лили Рей осветила повторяющийся цикл в SEO (тактики -> их копирование -> апдейты Google -> ухудшение UX), что наблюдается с AI-контентом и ведет к санкциям, таким как Helpful Content Update 2023 года и Core & Spam Updates 2024 года.

Будущее требует аутентичного, ориентированного на пользователя и понятного для LLM контента, с фокусом на бренд, оригинальные исследования, мультимедиа и доверие сообщества, при этом сеошникам необходимо отслеживать видимость в AI-саммари и сентимент LLM.

https://lilyray.nyc/seo-in-the-age-of-agents-takeaways-from-nyc-seo-week/

@MikeBlazerX

Читать полностью…

Mike Blazer

Google недавно провел второй "Саммит Создателей" в Вашингтоне, для независимых издателей, которые потеряли трафик 🔍 🏛

Только семь человек были приглашены на 3 дня встреч с сотрудниками Google.

Одна из издательниц опубликовала свой опыт.

Интересная цитата о крупных сайтах против независимых издателей 🗣

...вот что Google признал сразу на саммите: они знают, что их система отдавала предпочтение крупным сайтам.

Они не намеревались этого делать, но именно так эволюционировал алгоритм.

Они прямо сказали нам, что больше трафика уходило к крупным изданиям, и они активно пытаются это исправить.

Это не решается за одну ночь.

Они даже сказали, что хотели бы просто щелкнуть переключателем, чтобы сбалансировать ситуацию, но требуются месяцы, чтобы исправить их чрезмерную коррекцию.


Увидим ли мы возвращение независимых сайтов?

Также, Google сообщил, что некоторые виджеты Оглавления (TOC) могут запутать их краулеров и даже снизить показатели ясности контента.

Они предположили, что если контент хорошо написан, организован с заголовками и имеет естественный поток, оглавление, вероятно, не требуется, и в некоторых случаях его удаление может помочь.

Вывод заключался в том, чтобы не полагаться на инструменты (такие как виджеты оглавления) для исправления того, что должна обеспечивать сильная структура написания.

https://tomikoharvey.com/google-creator-summit-review/

@MikeBlazerX

Читать полностью…

Mike Blazer

Мы будем оглядываться на эту эпоху и думать:

"Удивительно, как все SaaS-компании имели на своих сайтах библиотеки переработанного контента из Википедии".

Мы настолько привыкли к образовательным блогам и ресурсным центрам, что считаем их неотъемлемой частью пользовательского опыта и цифрового маркетинга в целом.

Но это не так: они являются результатом очень специфических стимулов, созданных одной компанией (Google).

И эти стимулы исчезают.

Мы создавали эти псевдоблоги, потому что это было невероятно прибыльно.

Несколько страниц текста из Википедии и несколько стоковых изображений с Unsplash исторически было достаточно, чтобы заработать тысячи и тысячи посещений.

Было глупо игнорировать создание контента в больших объемах.

Это был самый предсказуемый, самый надежный и самый прибыльный канал маркетинга.

Но стимулы меняются.

Вознаграждения меняются.

И если нынешняя тенденция сохранится, мы будем так же глупы, продолжая заниматься созданием контента того же типа.

Google не нравится "необходимое зло" в виде перенаправления трафика на сайты издателей.

В их идеальном мире пользователи бесконечно циркулируют между ресурсами Google и рекламой Google.

Перенаправление трафика на сторонний веб-сайт — это провал, потому что это выводит людей из их экосистемы.

Трафик был необходимым стимулом для поощрения создания контента, который питал машину Google.

Вы создаете контент, Google ранжирует его и вознаграждает вас частью своего поискового спроса.

Но благодаря Google LLM теперь обладает невероятным богатством информации.

Он достиг точки, когда ему не нужно стимулировать создание контента.

Как мы видим по замедлению индексации и мерам против программного контента, он хочет СОКРАТИТЬ создание контента.

Создание контента теперь является угрозой для поиска, а не преимуществом.

Благодаря поисковым функциям и рекламе Google, трафик на протяжении многих лет подвергался тысяче мелких ударов.

Но на этот раз все по-другому.

Социальный договор, который Google заключил с такими издателями, как вы и я, нарушен.

LLM нанесли смертельный удар.

Контент по-прежнему будет иметь несомненную ценность для потенциальных клиентов.

Некоторые темы заслуживают того, чтобы о них писали, даже если они не приносят трафика из поисковых систем.

Объясните, почему ваша компания существует.

Осветите основную информацию, необходимую для понимания особенностей вашего продукта.

Помогите клиентам использовать ваш продукт для достижения полезных результатов.

Но даже если это сделано хорошо, это относительно небольшая библиотека контента.

А сегодня контент-маркетинг вышел далеко за эти рамки и затронул темы, которые имеют очень малое отношение к продуктам и убеждениям компании.

Это просто арбитраж информации — и LLM гораздо лучше нас в арбитраже.

Каким бы ни было будущее контент-маркетинга, оно НЕ будет похоже на корпоративные википедии, охватывающие все возможные темы "как сделать" и "что такое".

Контент останется ядром маркетинга, но тех, кто думает, что сможет прожить следующие несколько лет без серьезных изменений в своей стратегии, ждет шок.

Нам нужно мыслить шире.

@MikeBlazerX

Читать полностью…

Mike Blazer

Я показываю коллегам как надо попасть под интент

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда ты, испробовав все методы спама с помощью ИИ, возвращаешься к старой доброй SEOшке

@MikeBlazerX

Читать полностью…

Mike Blazer

Каждый SEO-специалист проходит одну и ту же кривую обучения.

1. Начальный восторг

Добавляешь ключи.
Подкручиваешь тайтлы.

Работает.
Кажется простым.
Ты подсел.

2. Беспорядок

Краулинговый бюджет.
Хрефленги.
Схема.

Знаешь больше, но чувствуешь себя в тупике.
Уверенный и перегруженный одновременно.

3. Тихая ясность

Перестаешь гнаться за всем.

Фокусируешься на том, что важно:

Хороший контент.
Релевантные ссылки.
Четкие приоритеты.

Опасность?

Застрять посередине.

Это называется "запутаться в паутине".

Исправлять сложные проблемы, когда можно делать простые действия с большим эффектом, не изобретая велосипед.

Вот правда:

— Не каждая SEO-задача заслуживает твоего времени.
— Не каждое исправление приносит результаты.
— Иногда ты делаешь всё "правильно"...
А это всё равно требует времени.

В чем же секрет?

Фокус + терпение.

Продолжай.

Не парься по мелочам.

Даже когда кажется, что не работает.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как отзывы влияют на органический трафик из Google и на рекомендации ваших компании через ChatGPT?

В идеале, ваш продукт или услуга должны иметь рейтинг не менее 4.5 из 5 звезд и более 200 отзывов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Большинство SEO-спецов гадают, сколько контента нужно публиковать.

Google сам подскажет - если знаешь этот трюк.

Используй этот поисковый оператор:

site:comeptitor.com before:2025-04-21 after:2025-04-01


Это покажет все страницы, которые конкурент проиндексировал за этот период.

Теперь у тебя есть реальные данные.

Вот что можно с этим сделать:

✅ Ставить контент-цели, подкрепленные доказательствами

✅ Показывать клиентам, как быстро публикуются конкуренты

✅ Замечать тренды в контенте ниши за считанные секунды

Никаких догадок. Никакой воды.

Вот ссылка на это

@MikeBlazerX

Читать полностью…

Mike Blazer

Теперь с расширением Advanced GSC Visualizer вы можете визуализировать данные о краулинге из GSC и быстро выявлять полезные инсайты.

Устанавливайте здесь:👇

https://chromewebstore.google.com/detail/advanced-gsc-visualizer/cdiccpnglfpnclonhpchpaaoigfpieel

Advanced GSC Visualizer теперь включает:
— детальные отчеты по краулингу,
— оценки здоровья краулинга,
— сводки по успешным ответам сервера,
— выгружаемые разбивки запросов краулера,
— и рекомендации.

@MikeBlazerX

Читать полностью…

Mike Blazer

Одна метрика разоблачает линк-фермы

Я просматривал сайт клиента и обнаружил множество ссылок, которые он покупал на навороченных PBN, говорит Алекс Хорсман.

Операторы PBN используют ботов для генерации фейковых брендовых запросов в Google.

Это накручивают Semrush и Ahrefs, показывая огромный трафик на сайте.

1. Посмотрите на запросы, по которым сайт ранжируется

2. Если сайт выглядит отстойно и получает трафик только по своему бренду, это линк-ферма.

@MikeBlazerX

Читать полностью…

Mike Blazer

Знаете ли вы, что МОЖНО использовать дни с момента последнего краулинга + дни с момента последнего органического клика для понимания ценности контента.

ПРОБЛЕМЫ С ИНДЕКСАЦИЕЙ?

Вот что вам нужно знать.

👉 Дни с момента последнего краулинга

Дни с момента последнего краулинга могут быть показательным индикатором воспринимаемого веса страницы (опять же, это ТОЛЬКО один из многих факторов) - но, в целом, можно руководствоваться следующим:

❌ Страница охватывает запросы, по которым ищут, но не выдаётся

Если страница ориентирована на запросы / что-то, по чему есть поисковый спрос, но промежуток между краулингами растёт + увеличивается время с момента последнего клика, это ОБЫЧНО хороший индикатор того, что страница ТЕРЯЕТ ценность.

❌ Застоявшиеся страницы

Страницы, которые ЗАСТОЯЛИСЬ из-за того, что они не обновлялись или содержат устаревшую информацию, где в СЕРПах с тех пор появилось много новых результатов, могут восприниматься как "менее ценные" и начать деградировать (растёт время с момента последнего краулинга + показы постепенно исчезают).

Такие страницы с БОЛЬШЕЙ вероятностью выпадут из индекса.

❌ Страницы с недостатком внутренних ссылок

Страницы, которым НЕ ХВАТАЕТ внутренних ссылок, могут считаться менее важными, если это сочетается с любыми проблемами контента, например: плохим E-E-A-T/NLP или застоем, время выпадения (НЕИНДЕКСИРОВАННЫЕ СТРАНИЦЫ) сокращается.

❌ УСТАРЕВШИЙ контент с меньшей вероятностью соответствует различным критериям:

E-E-A-T современный, большая часть старого контента создавалась для SEO и поэтому с МЕНЬШЕЙ вероятностью демонстрирует экспертность (то же самое с YMYL)

По результатам анализа Даниэла Фоли Картера:

🔎 Страницы, у которых дата последнего краулинга превышает 90 дней, гораздо чаще попадают в статус "прокраулен/обнаружен, в настоащее время не проиндексирован".

🔎 Домены, которые НАКАПЛИВАЮТ растущее количество деградирующего / обесценивающегося контента или обесцененного контента (который индексируется, но больше не выдаётся) с БОЛЬШЕЙ вероятностью пострадают от CORE-апдейты

🔎 Накапливание устаревшего контента тратит пейджранк + может негативно повлиять на сайт.

Google использует оценку качества всего сайта, т.е. Panda/HCU.

Поэтому нужно учитывать пропорции, т.е. СКОЛЬКО вашего сайта индексируется vs сколько существует vs сколько выдаётся?

— 1000 страниц на сайте
— 700 страниц индексируется
— 220 страниц выдаётся

Сайты, ПОХОЖЕ, значительно больше страдают во время апдейтов, ЕСЛИ доля выдаваемого контента значительно меньше, чем индексируемый профиль домена, ЕСЛИ количество неиндексированных страниц также росло со временем.

🔎 Вероятно, ЕСТЬ ИСКЛЮЧЕНИЯ из правила для старых доменов и доменов, где предложение ПОСТОЯННО удовлетворяло потребности конечных пользователей, где поведение демонстрирует, что контент ценен, ДАЖЕ если более широкий домен содержит менее полезный/неполезный контент

@MikeBlazerX

Читать полностью…

Mike Blazer

Nofollow ссылки не бесполезны...

Слишком много маркетологов до сих пор не видят ценности в nofollow ссылках.

Как человек с 15-летним опытом в SEO, из которых 10 лет я посвятил построению команды по digital PR, хочу поделиться своим мнением на эту тему, пишет Джеймс Брокбанк.

Давайте поговорим о пользе nofollow ссылок для SEO...

👉 НЕТ ШАНСОВ, что Google полностью игнорирует nofollow ссылки, по крайней мере те, что приходят с сайтов, имеющих трафик.

👉 Одним из инсайтов прошлогодней утечки документации стало то, что "Nofollow ссылки помогают ранжированию, когда они приходят с ресурсов, получающих органический трафик"

👉 Еще в 2020 году Google подтвердил, что больше не рассматривает nofollow как директиву, а только как рекомендацию.

👉 Задумайтесь, почему это произошло.

ОГРОМНОЕ количество топовых медиа начали массово ставить nofollow на внешние ссылки.

Ссылки - это не только передача PageRank / авторитета.

Они помогают Google находить новые страницы.

👉 Со временем, когда всё больше издателей начали так делать, Google, вероятно, столкнулся с тем, что многие сид-сайты используют nofollow ссылки, что повлияло на их способность краулить веб от отправных точек с учетом nofollow.

Возможно, именно это привело к изменению статуса nofollow на рекомендательный?

Я думаю, да...

А теперь поговорим о других преимуществах nofollow ссылок...

👉 Реферальный трафик, который может и действительно приносит доход (никогда не забуду, как клиент получил £15k продаж за один день благодаря региональному освещению... при том, что ссылки были nofollow).

👉 Узнаваемость бренда не привязана к ссылкам.

Появление перед целевой аудиторией положительно влияет на охват бренда.

Мышление, что nofollow ссылки бесполезны - устарело.

Не забывайте также, что практически всегда решение о том, будет ли ссылка follow или nofollow, находится вне контроля PR-специалиста или даже журналиста.

Обычно это настраивается на уровне всего сайта.

Ваши конкуренты находятся в том же положении.

Когда вы смотрите на digital PR шире, чем просто метрики SEO, и понимаете историю nofollow за последние годы, становится гораздо понятнее, как эти ссылки могут и действительно положительно влияют на видимость.

@MikeBlazerX

Читать полностью…

Mike Blazer

🚨 Google может игнорировать ваш мета-дескрипшн и даже тайтл, если что-то другое загружается первым или выше в DOM.

Мохаммед недавно столкнулся с этой проблемой:

У сайта были правильные мета-теги, но Google начал показывать сообщение из баннера с куками в качестве мета-деска в поисковой выдаче.

Почему?

Потому что структура имеет значение.

Google не просто читает ваши мета-теги - он краулит страницу сверху вниз в DOM и рендерит её на основе каскада HTML и скриптов.

Если ваш попап с куками:

1. Загружается рано в HTML,
2. Рендерится до основного контента (даже с JavaScript),
3. Или является одним из первых видимых элементов на странице... он может быть выбран в качестве основного мета-деска.

Как это исправить: ✅

— Отложите отображение попапа с куками с помощью JavaScript
— Разместите HTML кукового баннера ниже в DOM
— Добавьте data-nosnippet, чтобы Google не использовал его
— Используйте инструмент проверки URL, чтобы увидеть, что реально видит Googlebot

@MikeBlazerX

Читать полностью…

Mike Blazer

Я протестировал более 50+ различных методов линкбилдинга с 2009 года, говорит Мэтт Диггити.

Большинство из них пустая трата времени в 2025 году, но некоторые SEO-специалисты до сих пор их используют.

Эти 5 методов стабильно приносят ROI прямо сейчас:

1. Digital PR кампании

Святой Грааль линкбилдинга в 2025 году:

— Создавайте контент, достойный новостей, основанный на оригинальных исследованиях или данных.

— Ориентируйтесь на журналистов, которые уже освещают вашу тему.

— Используйте инструменты вроде Muck Rack или Prowly для питчинга.

— Одна кампания может принести 40+ ссылок с высоким авторитетом за один месяц.

2. Стратегический гестпостинг

Не используйте подход "стреляй во все стороны", который используют большинство:

— Проведите обратный анализ конкурентов в Ahrefs.

— Питчите сайты, которые уже принимают гостевые посты и ранжируются по вашим ключевикам.

— Предлагайте ценность в питче: оптимизируйте пост под ключевое слово, которое они упускают.

— Фокусируйтесь на качестве, а не количестве - одна ссылка с DR70+ бьет двадцать ссылок с DR30.

3. Вставки ссылок в существующий контент

Быстрый способ получить качественные ссылки:

— Обращайтесь к владельцам сайтов и предлагайте бесплатно обновить старую статью.

— Гуглите: site:example.com intitle:2024, чтобы найти устаревшие страницы.

— Перепишите материал, чтобы актуализировать его, естественно добавив свою ссылку.

— Только вставки ссылок могут выглядеть неестественно. Разбавляйте ссылочный профиль другими типами ссылок.

4. Реактивные PR-возможности

Стратегия замены HARO (RIP):

— Мониторьте запросы журналистов в Twitter, Linkedin, Qwoted и Featured.

— Настройте оповещения по темам вашей экспертизы.

— Быстро отвечайте с лаконичными, цитируемыми инсайтами.

— Включайте релевантные регалии, которые делают вас достойным цитирования.

5. PBN

До сих пор один из лучших способов быстро получить позиции, если делать правильно:

— Создавайте или покупайте чистые просроченные домены с релевантными бэклинками.

— Избегайте спамных ссылочных ферм. Ищите сайты с реальной историей и трафиком.

— Или используйте проверенные PBN-сети.

@MikeBlazerX

Читать полностью…

Mike Blazer

Исследование индексации, анализирующее 1.7 миллиона страниц на 18 сайтах, показало, что 88% страниц, не проиндексированных Google, не попали в индекс из-за проблем с качеством.

Google активно удаляет страницы из результатов поиска или позволяет им быть забытыми.

Основная причина, по которой важные страницы не индексируются – этот активный процесс удаления и забывания.

Методология исследования включала:

— Мониторинг 1.7 миллиона важных страниц, добавленных в сайтмап, на 18 разных сайтах.
— Получение вердиктов индексации (Проиндексировано vs Не проиндексировано) через URL Inspection API.
— Использование снимка данных от 31/03/2025, включая только страницы с однозначными вердиктами.

Ключевые выводы:

— Маркетплейсы и сайты с листингами показали самый низкий показатель покрытия индексом (проиндексированные vs отслеживаемые страницы) – менее 70%. Новостные сайты имели лучший результат (97%), а интернет-магазины – ниже 90%. (Желательный показатель – более 90%).

— Наложение данных о траст сайта от Moz показало, что как малые, так и крупные бренды сталкиваются с проблемами индексации, с показателями покрытия индексом обычно 85-91%.

— Интернет-магазины, маркетплейсы и сайты с листингами демонстрировали более низкие средние показатели покрытия индексом независимо от размера бренда.

Последовательно, проблемы с качеством оказались основной причиной (88%) неиндексации среди отслеживаемых страниц.

"Качество" определяется как активное удаление проиндексированных страниц или забывание непроиндексированных страниц Google со временем.

Разбивка категории проблем с качеством:

"URL неизвестен Google" и "Обнаружено - в настоящее время не проиндексировано" составляют 67% непроиндексированных страниц из-за проблем с качеством.

— Исследования показывают, что эти состояния, наряду с "Прокраулено - в настоящее время не проиндексировано", часто представляют проблемы индексации (активное удаление/забывание), а не чисто краулинговые проблемы, что требует переосмысления. GSC может неправильно отображать эти состояния для забытых страниц.

Это доминирование проблем с качеством сохранялось при группировке страниц по:

Авторитету бренда Moz: Затрагивает бренды всех размеров.

Типу сайта: Преобладает для интернет-магазинов, маркетплейсов и сайтов с листингами. (Новостные сайты, однако, страдали больше от технических проблем индексации).

Размеру сайта: Влияет на малые и крупные сайты. (Исключение: Сайты, отслеживающие 100k-500k страниц, в основном новостные).

Масштаб проблем с качеством и выявление того, что GSC неверно отображает состояния типа "Прокраулено - в настоящее время не проиндексировано" и "URL неизвестен Google" для забытых страниц, были значительными.

Данные, потенциально находящиеся под влиянием апдейта ядра от 13 марта, подчеркивают, что недостатки качества приводят к выпадению страниц из индекса.

По мере того, как Google совершенствует алгоритмы, все больше важных страниц может столкнуться с удалением.

https://indexinginsight.substack.com/p/new-study-the-biggest-reason-why

@MikeBlazerX

Читать полностью…

Mike Blazer

В чёрном SEO атаки каноникализации - реальность.

Вы можете использовать кросс-доменные каноникалы чтобы:

— Повысить авторитет своего сайта, или
— Перенаправить алгоритмические санкции на конкурента.

Это работает.

Если у вашего бренда нет исторических данных или сильного распознавания сущности, они даже могут заставить ваш сайт ранжироваться по запросам малайзийских мыльных опер всего с несколькими низкокачественными сигналами.

Та же тактика применима к Web Answers.

Джеймс Дули создаёт блестящие модели "искусственного консенсуса" - формируя понимание LLM с помощью семантического слоения.

Убедить LLM - все равно что сформировать массовое сознание.

Нельзя сказать это один раз.

Вы говорите это:
— С другой страницы
— На другом сайте
— В другое время
— Через другую призму

Это многомерное повторение создаёт новые определения.

@MikeBlazerX

Читать полностью…

Mike Blazer

В то время как 301-редиректы отлично работают для поисковых систем, они недостаточны для моделей искусственного интеллекта (LLMs) типа GPT, Gemini и Claude. Вот почему это важно:

Ключевая проблема

LLM не краулят веб в реальном времени и не следуют техническим редиректам.

Они обучаются через лингвистические ассоциации.

Когда вы мигрируете домены без должного лингвистического контекста:

— Ваш бренд разделяется на две отдельные сущности в понимании ИИ
— Обе версии становятся слабее, так как сигналы разделяются
— Вероятность рекомендации в системах ИИ снижается

Примеры из реального мира

Neckermann.deOtto.de:

Несмотря на миграцию, LLM все еще воспринимают Neckermann как отдельный бренд, не связывая его с Otto

Amiando.comevents.xing.com:

Частичное разделение сохраняется, с ассоциациями стартапа, все еще привязанными к оригинальному домену

Как предотвратить разделение сущностей

— Создавайте поясняющий контент, связывающий старый и новый домены
— Обеспечьте со-цитирование в медиа ("X теперь известен как Y")
— Обновите ссылки в вики и директориях
— Включите упоминания на новом сайте ("ранее известный как...")

Это относится не только к доменам, но и к важным субдоменам и стратегическим URL.

Без лингвистического подкрепления присутствие вашего бренда в ИИ-экосистеме останется фрагментированным и ослабленным.

https://gpt-insights.de/ai-insights/domainumzug-llms-redirects/

@MikeBlazerX

Читать полностью…

Mike Blazer

Похоже, Google больше не ограничивает количество слов при поиске.

Раньше максимальное количество слов составляло 32, но теперь поиск прерывается только при достижении максимального предела URL-адресов.

Это изменение, вызванное ИИ.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вот как выглядит деиндексация

@MikeBlazerX

Читать полностью…

Mike Blazer

Как заработать $300 за 3 часа, используя только свой ноутбук:

— Открой ноутбук
— Купи домен
— Создай сайт
— Открой ChatGPT
— Сгенерируй 50 статей
— Наставь ссылок
— Размести посты в соцсетях

Когда всё это сделаешь:

Продай ноутбук за $300.

@MikeBlazerX

Читать полностью…

Mike Blazer

Загадка Googlebot

Мы разгадали загадку краулинга Googlebot'ом неожиданных 404-ых ошибок и развернули автоматическую систему смягчения для клиентов Vercel, сообщает Мальте Убл.

Анализируя логи нашей платформы, мы заметили более высокий, чем ожидалось, процент 404-ых ошибок для Googlebot, которому не было очевидного объяснения.

Копнув глубже, мы заметили еще кое-что: многие URL-адреса, возвращавшие 404, были для вспомогательных ресурсов (JS и CSS, а не документов), и они раньше существовали.

Однако ко времени запроса Googlebot они уже были заменены новым релизом клиента.

Но почему Googlebot запрашивал такие старые URL?

Оказывается, происходит следующее: Googlebot скачивает HTML-документ и потом иногда хранит его у себя неделями!

А затем в какой-то момент рендерит скачанный HTML в хедлесс Chromium браузере.

Этот браузер потом скачивает все вспомогательные ресурсы, на которые были ссылки несколько недель назад.

Естественно, вспомогательные ресурсы к этому времени могут быть уже недоступны, и поэтому мы видим 404 в наших логах.

404-ые ошибки для JS и CSS файлов могут быть крайне проблематичными, так как рендеринг страницы может не сработать.

Google индексирует только отрендеренный DOM (а не исходный HTML), и соответственно неудачные рендеры плохо влияют на SEO.

Так что же можно сделать?

Два года назад Vercel запустил штуку под названием Skew Protection.

Он позволяет автоматически перенаправлять подзапросы на тот же деплой, что и основная страница.

Skew Protection помог бы здесь, но стандартная конфигурация покрывает только минуты и до нескольких дней - а Googlebot ждал неделями.

Это натолкнуло нас на идею: что если мы расширим Skew Protection до 60 дней специально для Googlebot?

Он рендерит действительно старые документы.

Если мы позволим ему запрашивать файлы, которые он запросил бы во время первоначального краулинга, тогда результаты рендеринга будут гораздо ближе к ожиданиям.

И это сработало.

Общий объем 404-ых ошибок снизился на 80%.

Некоторый базовый уровень 404-ых ошибок ожидаем, так как наши клиенты иногда действительно запрашивают файлы, которых легитимно не существует.

Какое влияние это оказывает: намного, намного меньше неудачных краулов для клиентов Vercel.

Skew Protection изначально был разработан, чтобы помочь с краткосрочными ошибками во время деплоя, но оказалось, что это мощный примитив для SEO.

Насколько нам известно, Vercel - единственная платформа, поддерживающая Skew Protection, но мы бы хотели увидеть более широкое принятие этой технологии в индустрии.

https://vercel.com/changelog/automatic-mitigation-of-crawler-delay-via-skew-protection

@MikeBlazerX

Читать полностью…

Mike Blazer

Марк Уильямс-Кук обнаружил эксплойт в Google...

Он раскрыл более 2000 параметров и метрик, которые использует Google.

Один из них был "site_quality"!

Знали ли вы, что у Google есть оценка "site_quality" для каждого сайта (поддомена)?

Эта оценка определяет такие вещи, как право вашего сайта на отображение в рич сниппетах!

Конкретные сайты набирают гораздо больше баллов, чем популярные.

Оценка выставляется на основе сайта (поддомена).

Существует патент Google "Site quality score", который примерно описывает его как поисковый интерес к веб-сайту.

"site_quality" не коррелирует с ссылками.

Похоже, что "site_quality" - это оценка, основанная на том, сколько людей целенаправленно ищут именно этот конкретный веб-сайт.

@MikeBlazerX

Читать полностью…

Mike Blazer

SearchPilot провели SEO-тест для клиента из туристической индустрии, чтобы определить, улучшит ли добавление кодов городов назначения (например, LOND) или IATA-кодов аэропортов (например, LHR) в тайтлы и H1-заголовки органический трафик на страницах авиарейсов их итальянского домена.

Они реализовали эти коды в скобках после названий направлений на тестовых страницах и измерили влияние на органический трафик по сравнению с контрольными страницами без кодов.

Результаты оказались отрицательными: страницы с добавленными кодами показали падение органического трафика на 16% (с уровнем достоверности 95%).

Анализ показал, что коды, вероятно, сделали тайтлы менее естественными, не предоставили дополнительной ценности пользователям и выглядели как переоптимизация для Google.

Негативное влияние было сильнее на страницах городов, чем на страницах аэропортов, что предполагает, что пользователи обычно не ищут с использованием кодов городов.

На основе этих результатов SearchPilot рекомендовал отказаться от внедрения данного изменения.

https://www.searchpilot.com/resources/case-studies/adding-destination-city-or-airport-iata-codes-to-title-and-h1

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда рыбаки не могут выйти в море, они чинят сети.

Когда море слишком бурное для выхода в плавание, умные не сидят сложа руки — они берутся за работу.

Они латают свои сети, затачивают инструменты и готовятся к моменту, когда шторм утихнет.

Потому что даже в затишье есть возможность для прогресса.

Дело не в том, чтобы не сидеть без дела, а в том, чтобы строить будущее.

@MikeBlazerX

Читать полностью…

Mike Blazer

Ана спросила, пробовал ли кто-нибудь скрейпить данные из блоков "Люди также спрашивают" (PAA) и внедрять их на сайт клиента программатик способом.

Советы и мнения сообщества:

— Использование вопросов из PAA для создания IQQI-контента (Interesting, Questionable, Quantifiable, Informative) и FAQ работает с большим успехом.

— Масштабная программная публикация данных PAA, скорее всего, будет считаться спамом. Марк Уильямс-Кук проводил тесты со скрейпингом PAA и публикацией 10 тысяч страниц, отметив "работает, пока не перестает работать".

— Некоторые крупные компании используют GPTs со своими внутренними данными для создания FAQ в небольшом масштабе, что хорошо работает для них.

— Данные PAA лучше использовать как основу для понимания того, что пользователи ожидают от темы и какие вопросы у них возникают чаще всего, а не просто скрейпить и публиковать.

— При скрейпинге данных PAA нужно учитывать локацию, так как PAA зависят от геолокации (например, поиск "food trucks" в США, скорее всего, покажет названия городов, локальные для поиска).

— Для правильного взаимодействия с PAA требуется JavaScript. Простой "ре-гуглинг" даст разные вопросы и только 4 из них.

— Для масштабного скрейпинга необходимы прокси, так как Гугл будет блокировать. Существуют API-middleware вроде DataForSEO, но они предоставляют статичные данные, не учитывающие геолокацию.

— Использование данных PAA для структурирования контента/брифов/понимания пользователей работает "супер хорошо", в отличие от простого скрейпинга и публикации, что может считаться спамом.

— Тестовый сайт, публиковавший программный контент на основе PAA, в конечном итоге потерял позиции, причем даже Бинг потерял интерес к контенту.

@MikeBlazerX

Читать полностью…

Mike Blazer

У большинства сайтов нет EEAT.

Нет экспертности.

Нет авторитетности.

Нет траста.

И они удивляются, почему застряли на 7 странице СЕРПа.

Мы привлекаем настоящих экспертов, пишет Крис.

Людей с регалиями.

Людей, которые писали для медиа первого эшелона.

Мы размещаем их на странице "О нас".

Полная биография.

Фото.

LinkedIn.

Всё как надо.

Они пишут 2-3 поста для сайта.

Ровно столько, чтобы связь была реальной.

Затем мы начинаем питчить медиа от их имени.

Журналистам плевать на ваш бренд.

Им важно, кто это говорит.

Мы получаем ссылки с таких площадок, как HuffPost, NYPost, Daily Record и Investopedia.

Потом оборачиваем всё это в структурированные данные, чтобы Гугл знал, что этот эксперт пишет для вашего сайта.

Вот что строит траст.

У Гугла.

У пользователей.

Это работает.

Всегда.

@MikeBlazerX

Читать полностью…

Mike Blazer

Python скрипт для проверки блокировки URL из XML карты сайта правилами robots.txt

🔵 Предоставьте URL файла robots.txt и получите полный отчет
🔵 Проверяет все комбинации User-agent/URL
🔵 Выполняет тысячи проверок в пакетном режиме

https://adver.tools/python/how-to/audit-robots-blocking-sitemap/

@MikeBlazerX

Читать полностью…

Mike Blazer

Фебин Джозеф столкнулся с дилеммой: на его сайте есть две страницы, которые таргетируются на один и тот же интент.

Одна страница хорошо ранжируется по целевому запросу (позиции 5-6), а другая показывает слабые результаты (позиции 40-50).

В обычной ситуации он бы средиректил слабую страницу на более эффективную.

Однако отделу продаж и бренд-команде нужна именно эта слабо ранжирующаяся страница для лидов и клиентов.

Веб-команда также обеспокоена изменениями в архитектуре сайта (меню), но готова редиректить хорошо ранжирующуюся страницу на слабую.

— У хорошо ранжирующейся страницы наблюдается некоторое снижение показателей месяц к месяцу, что вызывает беспокойство.
— Изначально слабая страница была основной страницей в навигационном меню, созданной для таргетирования ключевого запроса.
— Хорошо ранжирующаяся страница была создана позже предыдущей SEO-командой и находится внутри подкаталога (на 3 уровня глубже), который был частью другого кластера.
— К хорошо ранжирующейся странице нельзя получить доступ напрямую через главное меню, но она все равно хорошо показывает себя в СЕРПах.
— Они получают много конверсий с хорошо работающей страницы.
— Фебин надеется устранить каннибализацию, чтобы страница из навигации не влияла на эффективную страницу в будущем.

Советы и рекомендации сообщества:

— Стоит рассмотреть использование тега noindex на слабой странице, чтобы она не отображалась в СЕРПах, но отдел продаж/бренда мог бы продолжать её использовать.

— Не стоит сразу делать вывод, что другая страница вызывает снижение производительности, но исключать этого не следует. Идея с тегом noindex звучит разумно.

— Изменение косинусного сходства терминов может помочь немного изменить интент, чтобы страница не конкурировала напрямую с основной.

— Продвиньте хорошо ранжирующуюся страницу в навигацию и сильно оптимизируйте её для органического трафика.

— Сделайте 301-редирект существующей страницы продаж на уже хорошо работающую страницу после копирования контента.

— Создайте новый URL для лендинга отдела продаж, скопируйте туда контент старой страницы продаж и добавьте noindex.

— Этот подход даст страницу, сильно оптимизированную для органического трафика (которая, вероятно, станет еще сильнее при объединении всех положительных сигналов и устранении каннибализации), и лендинг, который команда продаж/маркетинга может использовать для своих целей, не мешая работе органической страницы.

— Сделайте 301-редирект старой страницы на новую, чтобы сохранить бэклинки, затем скопируйте контент со старой страницы на НОВЫЙ URL, который может использовать команда продаж

@MikeBlazerX

Читать полностью…

Mike Blazer

Вот идеальная длина блог-поста в зависимости от ваших целей.

Анализ 8493 сайтов и длины их блог-постов показал среднее количество слов, которое приносило больше всего социальных шеров, беклинков и органического трафика.

Хотя это даст вам примерное представление, помните, что следует фокусироваться на пользовательском опыте, а не зацикливаться на количестве слов.

@MikeBlazerX

Читать полностью…

Mike Blazer

За 12 недель отслежено 768 тыс. цитирований из генеративных ИИ-платформ (ChatGPT, Google's Gemini AI Overviews, Perplexity) для анализа влияния форматов контента на ИИ-цитирование и LLM-оптимизацию по разным типам запросов.

Продуктовый контент стабильно доминировал в ИИ-цитированиях еженедельно, составляя от 46% до более 70% цитируемых источников.

Эта категория включает статьи "лучшее из", сравнения вендоров, сравнения "бок о бок" и прямые продуктовые страницы.

ИИ-движки предпочитают их для фактических или технических вопросов, используя официальные страницы для спецификаций, FAQ или гайдов.

В отличие от этого:

Новости и Исследования еженедельно составляли 5–16% цитирований, давая актуальность или авторитетную глубину.

Партнерский контент в основном оставался в пределах однозначных процентов (кроме одного скачка >20%), что предполагает периодическое использование даже без надежной информации о продукте.

Пользовательские отзывы (форумы, Q&A как Reddit, отзывы) составляли 3–10%; Perplexity.ai напрямую цитирует Reddit для продуктовых запросов.
Блоги имели меньшую долю (3–6%), указывая на цитирование только исключительных статей.

PR-контент (пресс-релизы) был минимален (<2%).

Это указывает на предпочтение официальных, богатых фактами страниц, дополняемых новостями, исследованиями, отзывами и некоторыми партнерскими сайтами для конкретных ниш.

Анализ B2B и B2C запросов выявил разные предпочтения по источникам:

B2B-запросы: Почти 56% цитировали продуктовые страницы (сайты компаний/вендоров). Умеренные доли у партнерского контента (13%) и отзывов (11%), далее новости (~9%) и исследования (~6%), что сигнализирует о сильной зависимости от официальных ресурсов для бизнес-вопросов.

B2C-запросы: Доля продуктового контента упала до ~35%, тогда как партнерский (18%), отзывы (15%) и новости (15%) выросли. ИИ комбинирует детали производителя с мнениями третьих сторон (обзорные сайты, Q&A-форумы вроде Reddit, цитируемые AI Overviews или Perplexity) для потребительских тем.

B2B-запросы опираются на меньше авторитетных источников; B2C - на более широкий микс.

Паттерны цитирования также варьировались по регионам:

Северная Америка (NA): ~55% продуктовых цитирований, далее новости (~10%) и исследования (~10%).

Европа: ~50% продуктовых референсов, с более высокими долями у новостей (13.4%), исследований (12.6%) и блогов (7.2%), что предполагает разнообразную контент-экосистему.
Азиатско-Тихоокеанский регион (APAC): Продуктовые цитирования ниже (45.9%), но цитирование исследований самое высокое в мире (22.3%), возможно, из-за нехватки локальных альтернатив или типов запросов.

Латинская Америка: Продуктовые цитирования достигли пика (62.6%), исследования также высоки (19.7%). Партнерский и блог-контент минимальны (<5%), предполагая зависимость от официального продуктового/исследовательского контента.

ИИ-движки адаптируются к доступности и воспринимаемой надежности локального контента.

Использование типов контента значительно менялось по воронке маркетинга:

Верхняя часть воронки (Небрендированная: Исследование проблемы + Обучение): Лидировал продуктовый контент (~56%), поддерживаемый Новостями и Исследованиями (~13-15% каждое); партнерский и отзывы <10%. Официальные сайты, новости/исследования дают образовательный контент. Эффективный ToFu-контент может увеличить вероятность включения в MoFu.

Середина воронки (Брендированная: Сравнение + Отзывы): Доля продуктового контента ~46%. Отзывы и партнерский контент выросли до ~14% каждый; новости и блоги вместе ~10-11%. ИИ собирает мнения производителей и сообщества (форумы, обзоры) для сравнений.

Нижняя часть воронки (Оценка решения): Продуктовый контент сильно доминировал (70.46%); исследования, новости, отзывы имели однозначные доли. На стадии решения по специфике (внедрение, цены) ИИ цитирует почти исключительно официальную документацию.

https://www.xfunnel.ai/blog/what-content-type-ai-engines-like

@MikeBlazerX

Читать полностью…
Subscribe to a channel