mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

7404

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

ChatGPT Path — новое расширение для Chrome, которое показывает, как ChatGPT генерирует свои ответы.

Оно показывает для каждого ответа:

— Поисковые запросы, которые модель выполняет в реальном времени для обоснования ответа.
— Внутренний "мыслительный" процесс модели.
— Все источники из Retrieval-Augmented Generation (RAG), на которые она ссылается.

В обновлении v1.1 появятся извлечение данных о товарах, доработки интерфейса и улучшения темной и светлой тем.

В следующем релизе (v1.2) планируется добавить новые функции, а исходный код будет опубликован на GitHub.

https://chromewebstore.google.com/detail/chatgpt-path/kiopibcjdnlpamdcdcnphaajccobkban?authuser=0&hl=en

@MikeBlazerX

Читать полностью…

Mike Blazer

Посетители из ИИ-сервисов просматривают меньше страниц и имеют более высокий показатель отказов, чем пользователи из поиска

Исследование на 81 947 сайтах опровергает мнение, что трафик из ИИ качественнее поискового.

Хотя представители Google называют клики из ИИ "более качественными", данные крупных ИИ-платформ показывают иное поведение пользователей.

Анализ с мая по июнь 2025 года сравнивал трафик с ИИ-платформ (ChatGPT, Perplexity) и поисковых систем (Google, Bing) с общим трафиком сайтов.

Исследование изучало метрики: количество страниц за сеанс, время на сайте и показатель отказов.

Метрики вовлеченности: меньше страниц, больше времени на сайте

Пользователи из ИИ-платформ просматривают меньше страниц и исследуют сайт менее глубоко.

Среднее количество просмотренных страниц: ИИ-трафик — 4 страницы за визит, поисковый — 5.2, общий — 5.5.
Скорость просмотра страниц за сеанс: ИИ-пользователи просматривают 2.27 страницы за единицу времени, против 2.79 у поискового и 2.99 у общего трафика.

Однако время на сайте у ИИ-посетителей выше: 86 секунд против 78 секунд у поискового и общего трафика.

Это указывает на менее глубокие, но более сфокусированные сеансы, вероятно, из-за четкого интента после взаимодействия с ИИ.

Более высокий показатель отказов у трафика из ИИ

Пользователи из ИИ-платформ чаще покидают сайт после одной страницы.

Средний показатель отказов: У ИИ-трафика — 67.8%, что на 4.1% выше поискового (63.7%) и на 5.4% выше общего (62.4%).

Высокий показатель отказов подтверждает модель поведения "одна страница за визит".

Пользователь либо находит нужное и уходит, либо разочаровывается, если контент не соответствует ожиданиям.

Заключение: поведение vs. конверсия

Метрики поведения показывают, что ИИ-трафик не превосходит поисковый по качеству.

Высокий показатель отказов, малое число страниц и большее время на сайте указывают на проверку информации, а не исследование сайта.

Однако конверсия не учитывается в этих данных.

Кейсы подтверждают ценность ИИ-трафика: Ahrefs отмечает конверсию в 23 раза выше, чем у органического поиска, Vercel сообщает о 10% конверсии, а для Tally ИИ стал ключевым каналом, увеличив ARR на 1 млн долларов.

Таким образом, оценка качества ИИ-трафика должна учитывать как высокий потенциал конверсии, так и уникальные паттерны вовлеченности.

https://ahrefs.com/blog/ai-traffic-quality-study/

@MikeBlazerX

Читать полностью…

Mike Blazer

Хакеры часто взламывают рекламные аккаунты Meta, чтобы откручивать скам-рекламу.

Теперь в Business Manager появилась новая мера защиты: Domain Security.

Вы можете заранее одобрить домены, на которые разрешено ссылаться в ваших объявлениях.

Теперь любое объявление со ссылкой на домен, которого нет в списке, потребует одобрения админа или доверенного пользователя.

Нет причин не настроить эту функцию прямо сейчас: ищите ее в Security Center вашего Business Manager.

Функция еще раскатывается и, скорее всего, будет доступна только админам Business Manager.

Эту настройку можно найти у себя в Security Center, в разделе уведомлений "Action needed".

Обычно она находится в секции Peer Approval.

@MikeBlazerX

Читать полностью…

Mike Blazer

Мюллер говорит, что Indexing API никак не реагирует на урлы, не являющиеся вакансиями и лайв трансляциями.

@MikeBlazerX

Читать полностью…

Mike Blazer

docs.new, sheet.new .... и теперь videos.new видео-генератор теперь часть Google Docs.

@MikeBlazerX

Читать полностью…

Mike Blazer

Похоже, фраза "Просто перепиши ИИ-контент" — это новое "А можешь сделать для портфолио?"

Недавно со мной связался потенциальный клиент, который очень хотел поработать вместе.

Они хотели, чтобы я писала для них статьи в блог объемом 1500 слов, и попросили назвать свою цену.

Я назвала, пишет Комал Билал.

(Цена рыночная. Ничего заоблачного. Без продажи почки.)

Их ответ?

"О, но мы будем генерировать контент с помощью ИИ...

Вам нужно будет его просто переписать".

Ах, ну конечно.

Как я могла забыть золотое правило фриланса:

Если сомневаешься, можешь обесценить навык, который ты, собственно, и аутсорсишь.

Давайте разберем по полочкам:

— Вы хотите контент профессионального уровня.
— Вы генерируете сырой черновик с помощью ИИ.
— Вы ожидаете, что кто-то добавит в него немного человеческой магии, изменит структуру, проверит факты, сделает так, чтобы текст не звучал, будто его написал тостер...

Но при этом вы хотите платить полцены, потому что "ИИ уже сделал большую часть работы".

Друзья, использовать ИИ для создания контента — это как заказать замороженную пиццу и попросить шеф-повара ее "просто испечь", а потом ожидать, что он выставит вам счет как в Domino's.

Спойлер: рерайтинг ИИ-контента — это не меньше работы.

Часто даже больше.

Потому что теперь мне еще и приходится разгребать последствия галлюцинаций ChatGPT.

Райтеры, не бойтесь брать деньги за обдумывание, редактуру, полировку и, да, — за рерайтинг.

Клиенты, если вы цените голос своего бренда, пожалуйста, поймите: ИИ — это инструмент.

А не гострайтер.

А теперь, если позволите, я пойду "просто переписывать" кучу сгенерированных машиной абзацев во что-то, что звучит так, будто это написал человек, который не забыл выпить кофе.

@MikeBlazerX

Читать полностью…

Mike Blazer

Думал, что посты на этой неделе самое дно, вообще толкового ничего нет. Но вроде терпимо, заходят с пол хрена ))

@MikeBlazerX

Читать полностью…

Mike Blazer

Длинный хвост (лонг-тейл) — это на самом деле не про "больше слов".

Буквально это значит "менее популярные запросы".

Этот термин связан с объемом поиска, а не с количеством символов или слов в фразе.

Как видно на этом графике, длина запроса не меняется по мере продвижения вглубь графика.

https://terakeet.com/blog/long-tail-keywords/

@MikeBlazerX

Читать полностью…

Mike Blazer

Согласно недавнему исследованию Profound, ChatGPT во многом полагается на Википедию.

Но для менее "известных" компаний может быть сложно получить страницу в Википедии.

Зато несложно создать ЧЕРНОВИК страницы в Википедии.

@MikeBlazerX

Читать полностью…

Mike Blazer

MANG полностью изменили структуру своего трафика менее чем за 12 месяцев.

До: Во всем доминировал брендовый поиск.

После: Органический поиск стал их каналом #1.

Вот как они этого добились:

Этап 1: Контент для верха воронки

Они начали с таргетированных постов в блоге под ключевые слова с низкой конкуренцией... и успели набрать начальный рост трафика до того, как AI-сниппеты захватили выдачу.

Этап 2: Оптимизация страниц категорий

Когда Google изменил правила игры, они адаптировались.

Сфокусировались на страницах для низа воронки, которые приносят конверсии.

Этап 3: Стратегическое расширение

Добавили страницы категорий, нацеленные на чуть более конкурентные ключевые слова.

Начали получать качественные бэклинки с более авторитетных источников.

Сейчас у них на 30% больше органического трафика, чем в их самый лучший месяц за все время → и это только май.

Большинство брендов сдались бы, когда AI-сниппеты убили трафик из их блога.

Вместо этого MANG переключились на страницы категорий.

Теперь органический поиск помогает им держаться на плаву во время экономических трудностей, в то время как конкуренты полностью отказываются от SEO.

@MikeBlazerX

Читать полностью…

Mike Blazer

Небольшой совет по бренд-менеджменту в эпоху LLM: если у вашей компании нет прозрачного ценообразования, генеративному ИИ все равно.

Он найдет лучший ответ из доступных, и этот ответ может "заякорить" ваших потенциальных клиентов на неверной, и притом гораздо более низкой, цене.

Зайдите в ChatGPT и AI-режим Google и спросите: "how much does [company name] cost?".

Посмотрите, что он ответит и на какие страницы сошлется.

Если ответ неправильный, свяжитесь с сайтами, которые подтягиваются в ответ, и попробуйте договориться, чтобы они обновили информацию о ваших ценах.

Вот пара примеров с Clari и Benchling, где низкокачественные агрегаторы или даже конкуренты(!!!) напрямую влияют на ответы LLM по запросам о ценах...

Такое... и это то, за чем маркетологам придется следить.

@MikeBlazerX

Читать полностью…

Mike Blazer

Раньше любой дроп-домен с высоким авторитетом работал, независимо от его первоначальной тематики.

Теперь это не так.

Сейчас Google анализирует семантическую релевантность и исторический анкорный профиль дроп-домена.

Например дроп в автомобильной тематики, и у него большинство обратных ссылок имеют анкоры вроде "autos in Mexico" или "autos in Costa Rica".

Если затем средиректить этот домен на партнерскую страницу казино, Google увидит полное несоответствие между старой тематикой (автомобили) и новой (гемблинг).

Этот метод больше не работает.

Google обесценит или полностью проигнорирует редирект, потому что тематики слишком разные.

Ключ к тому, чтобы эта тактика сработала, — найти дропы определенного типа.

Самыми ценными и эффективными дропами для редиректов являются те, в чьем ссылочном профиле преобладают брендовые анкоры.

Название бренда семантически нейтрально.

В отличие от анкора, насыщенного ключевыми словами ("autos in Mexico"), брендовый анкор ("MegaCorp Inc.") не привязывает домен к конкретной тематике.

Из-за этого Гуглу сложно точно понять, есть ли несоответствие с новым контентом.

Поскольку название бренда неоднозначно, вы можете средиректить домен на новый сайт практически любой тематики, не активируя фильтры Google за семантическое несоответствие.

Авторитет передается чище, потому что Google не может легко доказать, что редирект тематически нерелевантен.

@MikeBlazerX

Читать полностью…

Mike Blazer

Введение Google текстовых фрагментов, заметных в URL с #:~:text=, открывает новый способ получения инсайтов, особенно в эпоху AIO сниппетов, где Google чаще ссылается на такие фрагменты.

Эти клиентские фрагменты, которые выделяют определённый текст на странице, могут предоставить реферальные данные даже тогда, когда серверные логи или GA4 ничего не показывают.

Поскольку они являются конструкцией на стороне браузера, для их отслеживания нужен JavaScript, а не серверные хаки.

Кастомный метод трекинга заключается в добавлении JS-сниппета в хедер сайта, который захватывает хэш в URL и передаёт его в логирующий скрипт.

Анализ логов показывает временные метки с зафиксированными фрагментами.

Обработка этих логов на предмет повторяющихся паттернов выявляет разделы контента с высоким интересом.

Эти данные помогают в оптимизации контента — показывают, какой текст стоит расширить, выявляют ключевики, по которым вас находят, и помогают анализировать поведение пользователей для улучшения сайта и внутренней перелинковки.

Хотя Google Analytics перестал показывать данные о фрагментах в мае 2021 года, кастомная реализация позволяет их отслеживать.

Это многоступенчатый процесс с использованием Google Tag Manager и GA4.

— Сначала создаётся кастомная JavaScript-переменная в GTM, которая вытаскивает текстовый фрагмент из URL.

— Затем модифицируется тег конфигурации GA4 в GTM, чтобы добавить захваченный фрагмент в поле page_location, отправляя полный URL с фрагментом в GA4.

— После создаётся пользовательское измерение в GA4 с областью действия event, где в качестве параметра события используется page_location, чтобы анализировать данные фрагментов в отчётах.

— Наконец, настройка тестируется через Preview режим GTM и DebugView GA4 перед публикацией изменений.

Есть несколько важных нюансов.

Поддержка текстовых фрагментов не универсальна во всех браузерах.

SEO-специалистам нужно быть осторожными, поскольку отслеживаемые фрагменты могут содержать чувствительную информацию.

Для больших трафиковых сайтов возможно потребуется внедрять фильтры для управления объёмом собранных данных по фрагментам.

В статье также приведены необходимые клиентские JavaScript-коды для сбора этих фрагментов, а также примеры серверных скриптов на Perl, PHP и Python для записи собранных данных в файл для анализа.

https://www.searchengineworld.com/tracking-text-fragments-from-google-this-is-seo-gold

@MikeBlazerX

Читать полностью…

Mike Blazer

Аудит по локальному SEO всегда должен начинаться с 10 телефонных звонков.

Зайдите на сайт вашего клиента и позвоните по номеру, указанному на нем.

Затем зайдите на сайты 9 его конкурентов и тоже позвоните им.

После этого сделайте несколько заметок:

— Отвечают ли они на звонки?
— Как быстро они отвечают?
— Насколько они дружелюбны?
— Насколько они готовы помочь?
— Насколько они убедительны?
— Какие у них цены по сравнению с другими?

Как ваш клиент выглядит на фоне конкурентов?

Если конкуренты отвечают на звонок за 5 секунд, а вашему клиенту нужно звонить трижды, чтобы он взял трубку, — удачи вам с таким SEO.

Скорее всего, он никогда не закрепится в топе.

Ни ссылки, ни контент, ни супербыстрый сайт не помогут сайту ранжироваться, если интент пользователя не удовлетворяется должным образом после перехода на страницу.

Ссылки толкают сайт вверх, но он рухнет камнем на дно, если пользователь останется недоволен и уйдет на другой сайт.

Начинайте свой аудит с симуляции поведения пользователя и убедитесь, что ваш клиент наилучшим образом удовлетворяет его интент.

И тогда вы увидите, как его позиции растут и закрепляются в топе, при меньших усилиях на линкбилдинг и контент.

@MikeBlazerX

Читать полностью…

Mike Blazer

Контент-стратегия с использованием дополнительного (вспомогательного) контента в сворачиваемых блоках через HTML-тег <details> поначалу работала отлично: сайты хорошо ранжировались и показывали прекрасные результаты.

Но теперь Google вывел тег <details> из игры, перестав индексировать контент внутри него.

В результате любой контент внутри тега <details> перестал индексироватся, из-за чего сайты, использовавшие этот метод, резко просели в выдаче.

Проблему подтвердил Тед Кубайтис после того, как позиции его клиента упали, а анализ исходного кода сайта выявил использование тега <details>.

Это не значит, что дополнительный контент больше не работает.

Проблема была именно в этой HTML-реализации.

@MikeBlazerX

Читать полностью…

Mike Blazer

Все кричат: "ChatGPT уничтожит Google!"

Но вот что показывают данные... 👀

98.1% пользователей ChatGPT ТАКЖЕ используют Google.

А тот крошечный 1.9%?

Это единственные люди, которые используют исключительно ChatGPT.

То же самое с Perplexity — 98.2% пользователей также используют Google.

Это полностью меняет картину, не так ли?

Люди не заменяют Google искусственным интеллектом.

Они используют ИИ как еще один инструмент в своем арсенале поиска.

Подумайте о своем собственном поведении — вы, вероятно, ищете что-то в Google, затем спрашиваете ChatGPT о другом ракурсе, возможно, проверяете источники в Perplexity, а затем возвращаетесь в Google, чтобы копнуть глубже.

И пока все спорят, какая платформа "победит", умные маркетологи уже задают более интересные вопросы:

→ Как мне появиться, когда кто-то ищет в Google мою категорию?
→ Как мне упомянуть, когда они спрашивают ChatGPT о решениях?
→ А что, если они ищут информацию в Perplexity?

Сейчас трафик может быть небольшим (на большинстве сайтов доля переходов с ИИ составляет всего 1–2%), но поведение пользователей меняется.

Бренды, которые сегодня начнут повышать свою видимость на ВСЕХ этих платформах, завтра будут доминировать.

А пока мы все продолжаем оптимизировать, как в 2019 году 🤦‍♂️

@MikeBlazerX

Читать полностью…

Mike Blazer

С появлением AI Overviews и AI Mode, частотность ключевых слов, на которую мы полагаемся в SEO-инструментах, теряет свою ценность и, как и другие, превращается в пузомерку.

Если вы возразите, что частотность ключевых слов, пусть и с меньшей точностью, все еще отражает тренд спроса на информационную потребность, я спрошу: а как насчет query fan-outs (веера)?

Ключевые слова используются не только людьми во время поиска, их также используют и LLM.

LLM также могут галлюцинировать и генерировать ключевики, которые люди на самом деле не используют.

Раздутая частотность ключевых слов будет создавать еще больше шума и хаоса.

@MikeBlazerX

Читать полностью…

Mike Blazer

Просто поищите OPENAI_API_KEY на GitHub.
Не благодарите.

@MikeBlazerX

Читать полностью…

Mike Blazer

Переезд сайта согласно фэн-шуй

@MikeBlazerX

Читать полностью…

Mike Blazer

Интенсив по генережке контента

@MikeBlazerX

Читать полностью…

Mike Blazer

В инструментах GSC URL Inspector и Rich Results Test возникла потенциальная проблема с обработкой юзер-агентов и IP-адресов.

Недавние тесты показывают:

— Иногда эти инструменты сканируют страницы как Googlebot, а иногда как Google-InspectionTool.

— Блокировка доступа по IP-адресу или юзер-агенту для "запускаемых пользователем" краулеров НЕ всегда предотвращает доступ инструмента Rich Snippet к полному (незащищенному платной стеной) контенту.

Почему это важно?

Раньше издатели могли открывать доступ к определённому контенту только для Googlebot (для индексации/сниппетов), не раскрывая paywall-контент для всех.

Теперь же, с текущим поведением, любой пользователь, кто запускает инструмент проверки Rich Snippet, возможно, сможет увидеть paywall-контент, что фактически обесценивает подобную защиту.

@MikeBlazerX

Читать полностью…

Mike Blazer

Бесплатная электронная книга:

Entity SEO: Moving from Strings to Things

Зачем ее автор Диксон Джонс решил сделать ее бесплатной, читайте тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как мы использовали Power Hubs, чтобы увеличить трафик сайта на 61% за 6 месяцев, автор — Мэтт Диггити

Не обязательно быть Forbes или Healthline, чтобы доминировать в СЕРПах.

Организация контента по их образцу творит чудеса.

Используя "Power Hubs", мы увеличили трафик на сайте в нише здоровья на 61% за 6 месяцев, подняв количество ранжирующихся ключей с 1 405 до 2 288. Вы тоже сможете добиться похожих результатов, даже если у вас нет домена с DR90.

Power Hubs — это тематические кластеры контента, стратегически связанные между собой для создания тематического авторитета в Google.

Структура включает одну страницу-столп по широкой теме, от 4 до 8 кластерных страниц по подтемам и продуманную внутреннюю перелинковку.

Такое построение сигнализирует Google о полном охвате темы, позволяя ранжироваться по в 5-10 раз большему количеству ключей, удерживать пользователей дольше, создавать несколько точек входа в контент и снижать риски от обновлений алгоритмов.

Шаг 1. Поиск темы для страницы-столпа

В Ahrefs Keywords Explorer вводим широкий нишевой запрос, например "vitamin d" или "probiotics".

После выбора гео анализируем "Keyword Ideas" в разделе "Terms match" и применяем фильтр "Group by terms".

Так находим кластеры ключей, подходящих для темы-столпа.

Для сайта о здоровье, например, "vegan recipes" выявил "vegan pasta recipes" как классный вариант за счёт большого волюма, вариаций и смешанного интента, в отличие от слишком общей "pasta".

Шаг 2. Определяем кластерные темы

С помощью ключа страницы-столпа, например "vegan pasta recipes", снова в Ahrefs смотрим отчёт Terms Match.

Там появляются подтемы типа "vegan pasta salad recipes", "pasta sauce recipes vegan", "vegan pasta dough recipes".

Эти подтемы становятся основой для кластерных страниц.

Выбираем 4-8 таких тем и копаем глубже, чтобы найти дополнительные ключи для каждой страницы.

Шаг 3. Создаём страницу-столп — ядро Power Hub

Она должна всесторонне раскрывать тему, ссылаться на все кластерные страницы, таргетить основные ключи и вариации, иметь оглавление и давать самостоятельную ценность.

Делаю анализ ТОПа Google по ключу — смотрю подзаголовки, часто задаваемые вопросы, форматы контента и пробелы.

Моя страница-столп превосходит конкурентов: добавляю крутые визуалы, уникальные инсайты, полезные гайды для скачивания, удобную структуру и ответы на неудовлетворённые вопросы.

Шаг 4. Пишем кластерный контент

Каждая такая страница граничит с отдельной подтемой, например "vegan pasta salad recipes", исследуется по тому же принципу.

Покрываем ключевые вариации, делаем глубже, чем у конкурентов, и ссылаемся обратно на страницу-столп.

Пока страница-столп даёт обзор, кластерные дают экспертную глубину — такой баланс Google любит видеть для хороших позиций.

Шаг 5. Важнейшая внутренняя перелинковка

Здесь многие проседают.

Схема чёткая: страница-столп ссылается на все кластеры, кластеры обратно на столп, кластерные страницы между собой линкуются по смыслу, а существующие страницы сайта ведут на обе.

Использую якоря с ключевыми словами от столпа к кластерам и более общие якоря от кластеров к столпу, меняя их естественно для семантической релевантности.

Совет: если на существующих страницах есть хорошие бэклинки или трафик, добавьте контекстные ссылки на Power Hub — это передаст им вес и ускорит рост позиций.

@MikeBlazerX

Читать полностью…

Mike Blazer

Стоит ли блокировать бот google-extended?

ОТВЕТ: Скорее всего, нет.

Если вы это сделаете, то не сможете участвовать в Grounded Search.

ЧТО ТАКОЕ GOOGLE-EXTENDED?

— Это бот, который теперь есть в официальном списке краулеров Google
— Это не бот в привычном нам понимании.
— У него нет отдельной строки user agent в HTTP-запросе.
— Краулинг происходит с использованием существующих user agent'ов Google.
— Это директива user-agent, которую можно использовать в robots.txt, чтобы разрешить или запретить использование вашего контента для обучения будущих поколений моделей Gemini. Эти модели лежат в основе приложений Gemini, Vertex AI API for Gemini и для "заземления" (grounding).
— Блокировка Google-Extended НЕ является фактором ранжирования.
— Блокировка Google-Extended НЕ повлияет на попадание страниц в индекс Google Search.

ЧТО ТАКОЕ ЗАЗЕМЛЕНИЕ

— На самом деле, это широкий термин, а не только гугловский.
— Это способ "привязать" LLM к реальным источникам при генерации ответа.
— Вместо того чтобы "галлюцинировать", модель в реальном времени обращается к набору проверенного и достоверного контента — вашему сайту, страницам продуктов, документации.
— Заземление делает ответы модели более точными и обоснованными.
— Если вы не участвуете в заземлении, то вас просто нет в игре, когда клиенты задают вопросы в Gemini.

ПРИМЕРЫ ПРИЧИН, ПО КОТОРЫМ ВАШ САЙТ МОЖЕТ НЕ ПОПАСТЬ В ЗАЗЕМЛЕНИЕ:

— Запрет в robots.txt
— Низкокачественный контент
— Вы не входите в набор данных, на котором дообучалась модель для заземления.
LLM не знают о вашем сайте/бренде.

ВАЖНО ЗНАТЬ:

Даже если ваш сайт проиндексирован в Google Поиске, Gemini может не "видеть" его или не отдавать ему предпочтение на уровне заземления.

Блокировка Google-Extended — это не блокировка бота.

Вы блокируете разрешение на использование контента.

@MikeBlazerX

Читать полностью…

Mike Blazer

Знаете ли вы, что можно увидеть, кто пытался получить доступ к вашему аккаунту Google Search Console?

Коллега?

Стажер?

А может быть конкурент?

На что только не пойдут люди... 😅

@MikeBlazerX

Читать полностью…

Mike Blazer

Этот партнерский сайт жестоко ушатало августовским апдейтом в прошлом году. Они наняли меня для аудита и восстановления сайта, и на онбординг-колле я дал им свой главный совет: КЛОАЧЬТЕ ПАРТНЕРСКИЕ ССЫЛКИ!

С тех пор, как они это внедрили, они восстановили почти 50% трафика, который был до падения, а я ведь еще даже не приступал к остальным исправлениям, изменениям и улучшениям по OnPage, техничке, ссылочному профилю и сущностям, над которыми мы будем работать...

Сайт пока что возвращает лишь часть потерянного трафика, но я собираюсь составить им план по полному захвату их ниши, и действовать мы будем жестко 😈

Гугл ненавидит сеошников, работающих с партнерками, и целенаправленно бьет по ним уже добрый десяток лет...

И есть множество способов, которыми они по нам бьют.

Я больше не полагаюсь на контент в партнерском SEO, в общем-то, совсем, — говорит Чарльз Флоут.

Я реверсирую сигналы на каждом уровне:

— Структура ссылок
— Паттерны брендовых сущностей
— Архитектура и краулинговый бюджет
— Частота публикаций и свежесть контента
— Консенсус, микроразметка, микроданные и т.д.
— Общесайтовые сигналы качества и траста (Q*/T*)

Сайт истекал кровью, потому что паттерн партнерских ссылок был жестко зашит в HCU-классификаторы. Дело было не в "трасте" или "E-E-A-T", или в том бреде, который изрыгает SEO-блогосфера... Дело было в сигналах, которые Гугл мог изолировать и снести под ноль, не рискуя при этом другими сайтами или индустриями.

И как только ты понимаешь, как они охотятся, ты понимаешь, как нужно обфусцировать...

Теперь сайт вернулся к тому состоянию, когда Гугл больше не может с уверенностью наложить санкции за партнерки, и это мы только разогреваемся.

@MikeBlazerX

Читать полностью…

Mike Blazer

Если бы усердный труд приводил к успеху, то ферма принадлежала бы ослу.

@MikeBlazerX

Читать полностью…

Mike Blazer

Для полноценной и прибыльной карьеры SEO-специалистам необходимы 5 основных компетенций.

Каждый навык имеет решающее значение.

Вы не можете быть сильны только в четырех.

Вы должны быть сильны во всех из них.

Развивая все пять, вы станете ценным активом для любой организации.

Вот их распределение:

1️⃣ Коммуникация: Овладение навыками внутреннего согласования, межфункционального сотрудничества и внешнего общения для создания влияния и привлечения лучших талантов.

2️⃣ Обучение: Адаптивность, умение эффективно фильтровать информацию и быть в курсе отраслевых тенденций.

3️⃣ Бизнес-чуйка: Согласование SEO с бизнес-целями, стратегическое планирование и демонстрация окупаемости инвестиций путем целенаправленного выполнения.

4️⃣ Техничность: Использование автоматизации, анализа данных и глубокого технического понимания для достижения эффективных результатов, основанных на данных.

5️⃣ Лидерство: Пропаганда SEO, создание высокоэффективных команд и налаживание прочных отношений в организации.

Эти компетенции взаимосвязаны.

Сильная коммуникация способствует эффективному лидерству, а деловая хватка - стратегическому планированию.

Как вы оцениваете эти поднавыки?

@MikeBlazerX

Читать полностью…

Mike Blazer

✓ 23-пунктный чек-лист для оптимизации контента с помощью GenAI

Вот базовый чек-лист, который поможет оптимизировать контент для поиска фрагментов с помощью ИИ и того, как такие системы, как ChatGPT, Claude и Perplexity, находят, разбивают на фрагменты, цитируют и упоминают ваш контент.

Обратите внимание, что все это направлено на снижение когнитивной нагрузки и трения между людьми и машинами.

✓ Разбиение на фрагменты — каждый абзац фокусируется на одной основной идее

✓ Избегайте неопределенных формулировок — удалите "может быть", "возможно", "по-видимому"

✓ Оптимизируйте плотность абзацев — разбивайте плотные блоки, делайте абзацы легкими для восприятия

✓ Маркированные списки и числовые списки — используйте структурированное форматирование, если это улучшает ясность

✓ Избегайте избыточности — поддерживайте ключевые термины с помощью синонимов и терминов LSI для векторизации

✓ Ясность сущностей — замените неопределенности и жаргон на четкие понятия

✓ Несоответствие модификатора и намерения — соотносите технические детали с намерением и точками карты путешествия

✓ Сигналы когнитивной нагрузки — структурируйте контент для уменьшения трения при чтении и поиске

✓ Семантический дрейф — удалите отклонения от темы, которые снижают чистоту фрагментов

✓ Уверенность в поиске — используйте четкие атрибуции, избегайте формулировок типа "Говорят, что...".

✓ Ошибки в согласованности встраивания — не смешивайте инструкции и мнения в одном абзаце.

✓ Последовательность и иерархия заголовков — используйте правильную структуру H1/H2/H3 и проверяйте последовательность и релевантность информации.

✓ Длина абзацев — старайтесь, чтобы абзацы естественным образом не превышали +/- 100 слов

✓ Отсутствие структурированных форматов — используйте таблицы для сравнений, списки для процессов

✓ Избыточное использование ключевых слов или повторения — избегайте чрезмерных повторений, используйте естественный язык

✓ Отсутствие синонимов и вариантов использования — используйте несколько способов выражения ключевых концепций

✓ Пропуск именованных сущностей — указывайте бренды, инструменты, версии с учетом контекста

✓ Согласование контента с макро- и микро-намерениями

✓ Нарушение ясности (переизбыток умных выражений) — заменяйте метафоры буквальным языком

✓ Устранение неоднозначности — добавьте контекст для неоднозначных терминов

✓ Оптимизация плотности токенов — цель: 75–400 токенов на фрагмент

✓ Соответствие заголовков шаблонам запросов — пишите заголовки, отражающие естественные поисковые запросы

✓ Сделайте абзацы тематически самодостаточными

@MikeBlazerX

Читать полностью…

Mike Blazer

При оптимизации под AI-поиск избегайте тем, которые относятся к общеизвестным или устоявшимся сведениям.

Утечка данных из Claude AI показала, что существует команда never_search для информации, не теряющей актуальности, фундаментальных концепций или общеизвестных фактов.

В частности, Claude не будет выполнять поиск в вебе и ссылаться на источники по фактам, которые "не теряют актуальности со временем или являются стабильными".

Можно предположить, что и другие LLM следуют аналогичной команде.

Это не означает, что вся верхняя часть воронки бесполезна.

Однако контент, написанный под копирку, без свежего взгляда и с пережевыванием одних и тех же идей, вознаграждаться не будет.

Это тревожный звоночек для ленивого контент-маркетинга.

Добро пожаловать в эпоху ИИ, где ценность публикации страниц с общеизвестными знаниями равна нулю.

@MikeBlazerX

Читать полностью…
Subscribe to a channel