mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

8310

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Снижение INP на 80% увеличило рост конверсий на 36% у QuintoAndar

Изначально платформа недвижимости демонстрировала худший INP среди конкурентов: только 42% страниц соответствовали порогу "хорошо" в 200 миллисекунд. Для решения проблемы была введена инициатива "Code Yellow" — концепция, вдохновлённая Google, которая позволяла привлекать любых сотрудников для работ по улучшению производительности.

Анализ RUM (Real User Monitoring) показал, что у 25% пользователей взаимодействие с платформой занимало до 4 секунд во время поиска недвижимости.

Основные стратегии оптимизации

1. Работа с длинными задачами:

- Использование async/await для управления точками приостановки выполнения кода.
- Реализация React-переходов для предотвращения блокировки UI при обновлении состояния.

2. Дополнительные оптимизации:

- Мемоизация данных.
- Дебаунсинг событий.
- Использование аборт-контроллеров.
- Применение React Suspense.

3. Структурные изменения:

- Удаление сторонних пикселей.
- Отказ от CSS-in-JS.
- Оптимизация рендеринга для снижения задержек ввода, вызванных перегрузкой главного потока.

Метрики и управление процессами

Для оценки влияния изменений использовалась метрика Total Blocking Time (TBT) в качестве прокси-показателя.

Система управления производительностью включала:

- Фиксированные и переменные пороговые значения, разделённые по типу приложений и пользовательскому опыту.
- Хранение данных RUM в базе данных с временными рядами для мониторинга и выявления аномальных шаблонов.
- Регулярный анализ порогов тревог на заседаниях раз в две недели.
- Подробные "руководства по действиям" для управления инцидентами.

Внедрение изменений

Для развёртывания изменений использовалась система Canary Release:

- Постепенное масштабирование внедрения: на 1%, 10%, 65% и 100%.
- Автоматический откат изменений в случае ухудшения производительности.

Результаты

Комплексный подход позволил достичь значительных улучшений:

- INP на мобильных устройствах снизился с 1 006 мс до 216 мс.
- Доля страниц с хорошими показателями INP увеличилась с 42% до 78%.
- Число пользователей с плохим опытом сократилось с 32% до 6.9%.

Улучшение пользовательского опыта привело к 36%-му росту конверсий записи на просмотр недвижимости в годовом выражении.

https://web.dev/case-studies/quintoandar-inp

@MikeBlazerX

Читать полностью…

Mike Blazer

Поиск потерянных URL после миграции CMS с помощью командной строки и Internet Archive

После миграции CMS всякое может таинственным образом пропасть.

Вместо полноценного сайта у вас может остаться только раздел с гитарами — очевидно, что никто не стал бы делать такое специально, верно?

Вот быстрый и грязный хак для проверки важных потерянных URL.

Internet Archive (IA) предоставляет способ извлечения известных URL.

Поскольку постоянно дергать archive.org немного некрасиво (и иногда не срабатывает — в таком случае закиньте донат в $5 и попробуйте снова), давайте сохраним вывод в текстовый файл:

curl "http://web.archive.org/cdx/search/cdx?url=colored.house.com*&output=txt&from=20241201&to=20241231" --output - > archive-wh-urls.txt


Архив включает нерабочие и не-HTML URL, поэтому фильтруем их с помощью grep " text/html 200 ".

Это также отфильтрует http URL, потому что, будем надеяться, вы настроили редирект на https.

Затем оставляем URL из каждой строки (3-й элемент): awk '{print $3}'.

Теперь каноникализация — у нас есть URL с параметрами запроса, которые нужно почистить.

Обрежем всё после знака вопроса с помощью sed 's/\?.*//'.

Не нужно беспокоиться о фрагментах ("#"), так как в IA их нет (хэштеги же для JavaScript, верно, а кому он нужен?).

Это отражает базовую каноникализацию, которую делают поисковики.

Oтсортируем по частоте встречаемости URL: sort | uniq -c | sort -nr | awk '{print $2}'.

Теперь мы практически Гугл (только без GPU).

Вот промежуточный шаг:

cat archive-wh-urls.txt | grep " text/html 200 " | awk '{print $3}' | sed 's/\?.*//' | sort | uniq -c | sort -nr | awk '{print $2}' > archive-wh-urls-clean.txt


Теперь самая забавная часть — проверка работоспособности URL.

Разумный человек создал бы простой, читаемый скрипт.

Но мы здесь не для этого.

Возьмем топовые URL (head -n 50) и используем xargs для передачи их в curl.

Кто-то реально делает так в жизни?

Это дичь.

Но опять же, если бы ракетные инженеры занимались чистыми миграциями CMS, нас бы здесь не было.

Финальная проверка:

cat archive-wh-urls-clean.txt | head -n 50 | xargs -I {} curl -s -o /dev/null -w "%{http_code} %{url_effective}\\n" {} | grep -v "^[23]"


Это показывает топовые "важные" URL, которые работали в декабре, но теперь не работают или редиректят.

Серьезные владельцы сайтов могут затем решить, какой исторический контент сохранить, что нуждается в новых URL, а что может остаться 404.

https://johnmu.com/2025-trust-issues/

@MikeBlazerX

Читать полностью…

Mike Blazer

Массовая скупка Австралийских дропов

Drop.com.au перехватил 271 797 освобожденных и удаленных австралийских доменов с 1 июля по 31 декабря 2024 года, что составляет 99.8% всех дропнутых .au доменов.

SEO Web Recovery выкупили 263 727 из этих доменов через платформу Daily Domain Name Drop Auction от Drop.com.au, что составляет 97% всех доступных освободившихся австралийских доменных имен.

Drop.com.au является частью Above.com, компании, специализирующейся на парковке доменов.

SEO Web Recovery является их крупнейшим VIP-клиентом.

1. Кто такие SEO Web Recovery и какая у них связь с Drop.com.au и Above.com?

2. Сколько денег SEO Web Recovery заплатил Drop.com.au за 263 727 доменных имен?

https://assets.com.au/seo-web-recovery-registered-97-of-every-expired-domain-name-for-the-last-half-of-2024/

@MikeBlazerX

Читать полностью…

Mike Blazer

Bitly внедряет межстраничную рекламу под названием "Destination Previews" (предпросмотр назначения) для всех ссылок и QR-кодов бесплатных аккаунтов

В их уведомлении пользователям говорится:

Начиная с февраля, ваши ссылки и QR-коды Bitly могут показывать страницу предпросмотра перед тем, как перенаправить вашу аудиторию на целевой URL.

Эта страница включает информацию о ссылке и может содержать рекламу.

Вы можете в любой момент отключить страницу предпросмотра для ваших ссылок и QR-кодов, выбрав платный тариф Bitly.


Этот шаг Spectrum Equity, купившей Bitly в 2017 году, вероятно, направлен на монетизацию миллионов существующих ссылок Bitly по всему интернету с 2008 года, а не на конвертацию бесплатных пользователей в платных подписчиков, учитывая строгое ограничение бесплатного тарифа в 5 ссылок в месяц.

Традиционные 301-редиректы Bitly передают ссылочный вес целевым страницам, но эти межстраничные объявления разорвут цепочку редиректов, блокируя передачу ссылочного веса.

Хотя Bitly мог бы сохранить ссылочный вес, не показывая межстраничную рекламу поисковым ботам, это может нарушать политику Google по спаму и рекомендации по пользовательскому опыту.

Саймон Кокс не рекомендует использовать сокращатели URL для SEO, советуя вместо этого использовать собственный домен с короткими именами папок, редиректящими на более длинные URL (например, example.com/topic редиректит на example.com/category/long-article-title/).

YOURLS представляет жизнеспособную альтернативу как самохостящийся опенсорсный сокращатель URL, который работает на базовом шаред-хостинге с кастомными доменами.

Пошаговая инструкция по установке YOURLS для внедрения - тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Директор, сеошник, и письмо от спаммера, обещающее за $100, с помощью AI продвинуть сайт в топ за неделю.

@MikeBlazerX

Читать полностью…

Mike Blazer

Все работает до того момента, пока не перестает работать

@MikeBlazerX

Читать полностью…

Mike Blazer

Squish

Сжимайте и конвертируйте ваши изображения в AVIF, JPEG, JPEG XL, PNG или WebP

Отличный инструмент для оптимизации изображений прямо в браузере.

https://squish.addy.ie

@MikeBlazerX

Читать полностью…

Mike Blazer

Если ты не лежишь без сна по ночам, думая об этом, значит, ты недостаточно сильно этого хочешь

@MikeBlazerX

Читать полностью…

Mike Blazer

Прикольно наблюдать, как Healthline часто получает featured snippets и AI Overviews благодаря своей секции "Итоги", где кратко излагаются основные выводы из статьи.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как руководитель по найму и руководитель менеджеров по найму, я просмотрела, наверное, около 1000 резюме за свою карьеру, пишет Джинни Ким.

Вот самые большие ошибки, которые я вижу постоянно (и что делать вместо этого):

Акцент на обязанностях вместо результатов.

Если ваша должность "редактор e-commerce", читающий ваше резюме человек, вероятно, может догадаться о ваших базовых обязанностях — так что не тратьте много места на их перечисление.

Делайте упор на достижения в каждой роли.

Какое влияние вы оказали на команду или бизнес?

Увеличили ли вы трафик в вашем направлении на X%?

Внесли вклад в рекордную выручку во время Черной пятницы/Киберпонедельника?

Оптимизировали процесс публикации?

Корректировка пунктов с акцентом на результаты поможет вам выделиться среди других кандидатов.

Отсутствие адаптации резюме под конкретную вакансию.

Когда я искала Директора по SEO-контенту в Policygenius, было поразительно, сколько резюме я получила от очень опытных редакторов, в которых вообще не было слов "SEO" или "поиск".

Возможно, у них был релевантный опыт, но как я могла об этом узнать?

Найдите время, чтобы убедиться, что ваши пункты соответствуют описанию вакансии.

Не заставляйте менеджера по найму или рекрутера гадать о ваших квалификациях; сделайте так, чтобы им было легко увидеть, что вы отлично подходите.

Перегруженность резюме.

Я не строга насчет правила одной страницы (хотя если у вас менее 5 лет опыта работы, придерживайтесь одной страницы!).

Но однажды я видела резюме, где человек использовал целых четыре страницы (!), чтобы описать последние четыре года своей карьеры.

Если вы не создаете академическое CV, резюме должно быть кратким обзором вашей карьеры с акцентом на последние 5-10 лет, а не исчерпывающим отчетом обо всем, что вы когда-либо делали на работе.

Будьте безжалостны в выделении своих самых больших достижений в каждой роли и уложитесь в две страницы или меньше.

Когда у вас накопится 10-15 лет опыта, ранние карьерные позиции должны вообще исчезнуть из вашего резюме (давайте признаем, они, вероятно, уже неактуальны).

Бонус: Большой вклад в чрезмерную длину резюме вносит раздутое описание в сводке о себе.

Если ваша сводка занимает 3/4 страницы — это не сводка!

Постарайтесь уложиться в 4-5 строк — максимум 1/4 страницы — а большие достижения укажите под соответствующими должностями.

@MikeBlazerX

Читать полностью…

Mike Blazer

Совет по краулингу сайтов, которые обычно блокируют ваши запросы

Улучшаем краулинг сайтов, использующих Cloudflare, Akamai и подобные системы защиты.

Вот что нужно сделать для УЛУЧШЕНИЯ краулинга таких сайтов...

1. Зайдите на сайт, который хотите прокраулить, через браузер

2. На стартовой точке краулинга откройте DevTools (обычно F12), перейдите на вкладку APPLICATION, затем в разделе STORAGE слева нажмите Cookies - найдите основной сессионный куки

3. Скопируйте строку куки (можно также скопировать содержимое куки, отправить его в chatGPT/gemini и попросить построить строку куки)

4. В Screaming Frog идите в CONFIGURATION > Crawl Config > HTTP Header

5. В правом нижнем углу нажмите + ADD, в селекторе для новой записи выберите COOKIE и в текстовое поле справа вставьте строку куки

6. Теперь, когда мы инициировали сессию через браузер, используем ТОТ ЖЕ юзер-агент, что и наш браузер (поддерживая сессию активной) - в DEVTOOLS (F12) нажмите NETWORK и обновите страницу, затем в левой секции под NAME кликните на название сайта, увидите HEADERS, PREVIEW, RESPONSE и т.д. Нажмите HEADERS, прокрутите вниз и скопируйте USER AGENT

7. В Screaming Frog перейдите в USER-Agent, измените юзер-агент на CUSTOM и вставьте в поле HTTP request user agent

8. Вернитесь в HTTP Header в Screaming Frog и используйте следующие значения:

Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8

Accept-Encoding: gzip, deflate, br

Cache-Control: no-cache

Pragma: no-cache

Accept-Language: en-US,en;q=0.5

Connection: keep-alive

Upgrade: 1

Примечание!

У вас могут быть не все эти заголовки - чтобы добавить их, нажмите + ADD и используйте выпадающий селектор.

9. В Screaming Frog перейдите в SPEED, измените MAX THREADS на 1 и поставьте галочку Limit URL/s на 0.1 (да, медленно, но нужно эмулировать реальный браузинг - можно экспериментировать, но легко спровоцировать Cloudflare и подобные системы)

10. Перейдите в SPIDER > Crawl и настройте как на моих скриншотах - по сути, не нужно ставить галочки IMAGES, MEDIA, CSS для краулинга и хранения, как и SWF.

Это влияет на рендеринг в Screaming Frog и проверки IMG ALT и т.д. - но это низкоприоритетные вещи, о которых можно не беспокоиться.

11. Перейдите в SPIDER > Extraction - это опционально, но БОЛЬШИНСТВУ сеошников не нужно беспокоиться о:

FORMS, Page Size, Hash Value, Text to Code Ratio, Meta Keywords - так что снимите эти галочки

12. Нажмите SPIDER > Rendering и измените рендеринг на Javascript, я также предпочитаю менять пресеты WINDOW SIZE на DESKTOP

13. SPIDER > Advanced - убедитесь, что Always Follow Redirects и Always Follow Canonicals ОТКЛЮЧЕНЫ, а RESPECT HSTS Policy ВКЛЮЧЕН

14. Раздел Robots.txt - убедитесь, что выбран RESPECT ROBOTS.TXT

Это может УЛУЧШИТЬ КРАУЛИНГ сайтов, которые обычно сложно краулить, но это не панацея.

Больше скриншотов тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Иногда чтобы занять первое место в списке, достаточно просто убедиться, что название твоего бизнеса начинается с AAA.

Названия файлов?

Символы вроде "!" творят чудеса для общих папок в глобальной команде на Google Workspace.

Почему так важно быть первым в выдаче?

Предвзятость порядка.

До того как я стал сеошником, я помогал семейному бизнесу, рассказывает Виктор Пан.

Представьте открытие ресторана быстрого питания на оживленном перекрестке с арендой около $40,000 в месяц.

То, как и где представлены позиции меню, сильно влияет на прибыльность и повторные визиты.

Ссылка

Если правильно провести маркетинговое исследование, можно распределить позиции меню в матрице меню.

Какие были мои цели тогда?

Повысить прибыльность.

Увеличить LTV клиентов/снизить отток.

Тут и появляется матрица меню.

Она помогает бизнесу визуализировать, какие позиции должны заказывать чаще.

И в инженерии меню, и в методологиях опросов существует предвзятость в пользу первого пункта в списке.

Когда понимаешь это, возникает самосбывающееся пророчество.

Этот первый пункт создает предвзятость первого впечатления.

Этот первый пункт часто запоминается из-за эффекта первичности.

Другими словами, порядок важен, потому что человеческое поведение имеет определенную предсказуемость, на которую можно влиять.

Это тонкий язык, который бизнес использует для изменения выбора пользователя с целью оптимизации бизнес-результатов.

Роль дизайнера меню во многом похожа на роль поискового инженера.

Частая жалоба, которую я слышу от сеошников - что Гугл выбрал прибыльность вместо качества.

Что "ухудшение" технологий намеренное, чтобы приходилось запускать больше рекламы для латания дыр.

Не так все просто.

Эффективность рекламы не может падать.

ROAS должен работать для доверия к рекламной платформе.

Материалы, всплывшие в ходе антимонопольного процесса против Google, приоткрывают завесу над политикой того, что максимизировать.

Об этом стоит серьезно задуматься и в отношении контента вашего сайта.

Больше трафика?

А может лучше качественный трафик?

Проблема узконаправленного фокуса на порядке и позициях в том, что мы заметаем под ковер все наши прошлые "достижения".

Учитывая, как развивается информационный поиск, бизнесам придется проявить еще больше креатива в конвертации высокочастотных запросов в деньги.

@MikeBlazerX

Читать полностью…

Mike Blazer

Деян Петрович произвел реверс-инжиниринг ключевого этапа из пайплайна Google по обнаружению скама на базе ИИ, который определяет основной бренд и намерение страницы.

Что Gemini думает о вашем бренде?

В Chrome Dev для тех, у кого эта функция включена, есть квантованная версия флагманской модели Google Gemini.

Модель выполняет множество задач: от суммаризации, перевода и помощи в написании текстов до предотвращения скама.

Архитектура модели засекречена, но её веса хранятся в виде 3ГБ .bin файла на машине пользователя.

Внутри папки "\User Data\optimization_guide_model_store\55\" находится файл "on_device_model_execution_config.pb", который определяет промпт для роли Gemini в обнаружении мошенничества.

Модель получает очищенный текст из Chrome и возвращает два параметра:

- Бренд
- Интент

Вот инструмент: https://brand-intent.dejan.ai

Вы можете либо ввести URL для парсинга, либо вставить обычный текст.

https://dejan.ai/blog/what-does-gemini-think-about-your-brand/

@MikeBlazerX

Читать полностью…

Mike Blazer

"ИИ-контент звучит неестественно"

Это не так, вы просто используете неправильные промпты.

1. Используйте ChatGPT o1-mini

Эта модель не ленится, и нам нужна она только для переписывания текста.

2. Используйте промпт для очеловечивания:

<context>
Rewrite this blog post and keep the same structure, information and length. Only change the language used.
</context>

<prohibited_words>
Do not use complex or abstract terms such as 'meticulous,' 'navigating,' 'complexities,' 'realm,' 'bespoke,' 'tailored,' 'towards,' 'underpins,' 'ever-changing,' 'ever-evolving,' 'the world of,' 'not only,' 'seeking more than just,' 'designed to enhance,' 'it's not merely,' 'our suite,' 'it is advisable,' 'daunting,' 'in the heart of,' 'when it comes to,' 'in the realm of,' 'amongst,' 'unlock the secrets,' 'unveil the secrets,' 'transforms' and 'robust.' This approach aims to streamline content production for enhanced NLP algorithm comprehension, ensuring the output is direct, accessible, and easily interpretable.
</prohibited_words>

<blog_post>
[PASTE YOUR BLOG POST HERE]
</blog_post>


Не забудьте заменить "[PASTE YOUR BLOG POST HERE]" на ваш текст блога.

3. Пост готов

Больше никаких "In the fast-paced world of..."

4. Обойдет ли это детекторы ИИ?

Мы делаем это не для того, чтобы обойти детекторы ИИ.

Наша цель - сделать контент более читабельным для людей.

Да и Гугл на это не обращает внимания, пруф.

@MikeBlazerX

Читать полностью…

Mike Blazer

Несколько URL-адресов, ранжируемых по одному ключевику - исследование 9.7 тыс. случаев

На Ahrefs.com обнаружено 9700 случаев множественного ранжирования, когда сайт ранжируется по одному ключевику несколькими страницами.

После анализа 80 ключей с множественным ранжированием только один случай требовал исправления.

Каннибализация ключей происходит, когда Google меняет местами позиции нескольких страниц или когда похожие страницы ранжируются одновременно.

История позиций по запросу "seo case studies" показала, как новые кейсы заменяли старые в СЕРПе.

Создание пилларной страницы с внутренними ссылками на кейсы решило проблему, подняв сайт в топ-3 и получив некоторые кейсы в виде сайтлинков.

По запросу "broken link building" два руководства одновременно ранжировались в топ-10.

Их объединение в одно комплексное руководство значительно улучшило позиции, показав, что контент этих страниц был достаточно близок для слияния.

Диверсификация ключей происходит, когда страницы ранжируются одновременно без смены позиций.

По запросу "keyword rankings" глоссарий занимает фичерд сниппет, а лендинг инструмента находится на 4-й позиции.

Аналогично, по "SEO audit" блог на 4-м месте, а страница инструмента на 7-м, удовлетворяя разные поисковые интенты.

Данные по трафику для ключей с 2 URL в топ-10 показывают разные результаты:

- "keyword search": прирост 1.94% (98.10% старая страница, 1.90% новая)
- "seo audit": прирост 37.74% (72.60% старая, 27.40% новая)
- "free seo tools": прирост 296.13% (25.24% старая, 74.76% новая)
- "affiliate marketing for beginners": прирост 6.63% (93.78% старая, 6.22% новая)
- "free keyword research tool": прирост 677.69% (12.86% старая, 87.14% новая)
- "keyword rankings": прирост 60.71% (62.22% старая, 37.78% новая)
- "how to become an affiliate marketer": прирост 2.39% (97.67% старая, 2.33% новая)
- "keyword difficulty": прирост 9233.33% (1.07% старая, 98.93% новая)

Поддержание топовых позиций для двух страниц оказывается сложным.

Большинство историй позиций показывают нестабильное ранжирование - страницы появляются в топ-10, пропадают на месяцы, затем случайно возвращаются.

Альтернативные тактики диверсификации включают ранжирование видео для видео-выдачи или создание страниц с определениями для фичерд сниппетов.

Наблюдения:

- Медианная частотность для каннибализированных ключей (50) соответствует единичным ранжированиям (40).

- Распределение количества слов показывает, что большинство множественных ранжирований происходит с запросами из 3-4 слов.

- Ключи с множественным ранжированием показывают более высокую сложность (медиана KD 64 против 37).

Используя отчет Traffic Share в Keywords Explorer от Ahrefs можно оценить потенциал трафика для каждой позиции.

Анализ по фреймворку 3C показывает, что ранжирующийся контент Ahrefs соответствует существующим паттернам СЕРПа - когда в выдаче показываются статьи и лендинги, сайт ранжируется обоими типами.

Один конкурент приобрел SEO-блог и теперь ранжируется в топ-10 по 8700 ключам обоими сайтами, несмотря на то, что это один бизнес.

Google рассматривает их как отдельные сущности, что позволяет эффективно диверсифицировать СЕРП через приобретение сайтов.

https://ahrefs.com/blog/multiple-rankings-study/

@MikeBlazerX

Читать полностью…

Mike Blazer

AI-обзоры Google уничтожают показатели кликабельности

Трейси Макдональд проанализировала 10 000 информационных запросов в топ-20 позиций, отсортированных по потенциальному трафику.

Методология исследования включала данные из трех источников (Google Ads, GSC и ZipTie) за период январь 2024 - январь 2025.

Ключевые находки:

1. Запросы с AIO изначально имели низкий CTR (подтверждено исследованием SparkToro по zero-click запросам)

2. Влияние AIO аналогично фичерд сниппетов: они появляются на запросах, изначально имеющих низкую кликабельность

3. Органический CTR для запросов с AIO упал с 1.41% до 0.64%

4. Запросы без AIO показали рост органической кликабельности

5. Платный CTR снижается по всем запросам независимо от присутствия AIO

6. Бренды в AIO получают двойной буст благодаря социальному доказательству и высокому базовому CTR брендовых запросов:

— органический CTR растет с 0.74% до 1.02%
— платный CTR увеличивается с 7.89% до 11%

https://www.seerinteractive.com/insights/ctr-aio

@MikeBlazerX

Читать полностью…

Mike Blazer

Обновления ядра Google влияют на индексацию, а не только на видимость

Апдейты ядра, выпускаемые несколько раз в год, активно удаляют проиндексированные страницы и понижают приоритет краулинга неиндексированных страниц.

Данные показывают две четкие закономерности во время апдейтов ядра.

Крупный многоязычный сайт с более чем 1 миллионом страниц потерял 144 000 страниц из индекса за 30-40 дней.

Небольшой издательский сайт с менее чем 10 000 страниц потерял 500 проиндексированных страниц, которые были активно удалены из индекса Google после декабрьского корного апдейта 2024 года.

Кор-апдейты могут привести к тому, что система индексации Google полностью "забывает" урлы.

Сайт с программным SEO показал, что неиндексированные страницы перешли из статуса "отсканировано — в настоящее время не проиндексировано" в статус "URL неизвестен Google", увеличившись с 5 000 до 10 000 страниц в течение 30 дней после декабрьского апдейта 2024 года.

Гари Иллиес подтвердил, что "неизвестные" URLs получают нулевой приоритет от гуглобота.

Три ключевых доказательства подтверждают это влияние на индексацию.

9-летнее исследование Scientometrics, опубликованное в феврале 2016 года, показало, что размер индекса Google существенно варьируется из-за системных апдейтов, а не показывает рост.

Патент Google под названием "Managing URLs" описывает использование порогов важности для управления проиндексированными страницами, объясняя, как Google удаляет старые страницы, когда новым страницам с более высокими показателями важности требуется место в индексе.

Гари Иллиес на конференции SERP в мае 2024 года прямо подтвердил массовую деиндексацию URLs с февраля из-за изменения восприятия качества сайтов.

Это заявление согласуется с неподтвержденным апдейтом Google от 14 февраля 2024 года.

Отчет по индексации страниц в GSC показывает эти влияния через конкретные метрики.

Чтобы проанализировать эффекты корного апдейта, проверьте "Все отправленные страницы" в разделе XML Sitemaps, изучите "Почему страницы не индексируются" и отсортируйте по количеству страниц.

Увеличение количества страниц со статусом "Отсканировано - сейчас не индексируется" или "Обнаружено - сейчас не индексируется" после апдейтов указывает на то, что Google активно удаляет страницы или снижает приоритет краулинга.

Декабрьский и ноябрьский апдейты 2024 года продемонстрировали это поведение через систематическое удаление проиндексированных страниц и корректировку приоритетов краулинга на основе пороговых значений качества Google.

Когда Google обновляет свои системы, как количество проиндексированных страниц, так и их приоритеты краулинга меняются в соответствии с этими перекалиброванными пороговыми значениями важности.

https://indexinginsight.substack.com/p/google-core-updates-impact-indexing

@MikeBlazerX

Читать полностью…

Mike Blazer

Реальный хак:

Если добавить "fuck" в конце поискового запроса, это отключает AI-обзоры.

Минус в том, что вместо них получаешь результаты с Reddit'а...

@MikeBlazerX

Читать полностью…

Mike Blazer

Как на самом деле работает A/B-тестирование мета-тайтлов:

Вы пишете новые сочные тайтлы и применяете их к выборке страниц, ждете 30 дней, наблюдая рост кликов и CTR, и делаете вывод, что новые метатеги эффективны.

Что происходит под капотом:

Ваши новые мета-тайтлы оказались хуже предыдущих версий, из-за чего Google начал чаще переписывать переписывать ваши тайтлы в сниппетах, что привело к улучшению CTR и, как следствие, увеличению кликов и показов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда я вижу людей, которые все еще используют Google для поиска

@MikeBlazerX

Читать полностью…

Mike Blazer

9 промптов для создания эмоциональных заголовков:

Achievement:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can achieve their goals with [brand] product.

Autonomy:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can feel more free with [brand] product.

Belonging:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can feel more accepted with [brand] product.

Competence:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can feel more competent with [brand] product.

Empowerment:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can feel empowered with [brand] product.

Engagement:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can enjoy more of their life experience with [brand] product.

Esteem:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can increase their appeal with [brand] product.

Nurturance:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can nurture themselves (or their families) with [brand] product.

Security:
Give me 10 ad headlines (4-7 words long) that persuades [target market] that they can guarantee their success with [brand] product.

@MikeBlazerX

Читать полностью…

Mike Blazer

"Обнаружено - в настоящее время не проиндексировано" - это список ожидания

Что на самом деле означает "Discovered - currently not indexed"?

У Гуглбота и Бингбота всегда есть очередь URL-адресов, ожидающих краулинга.

Она формируется из URL, найденных в:

📍 XML-сайтмапах
📍 RSS-фидах
📍 Во внутренних и внешних ссылках

Краулинг работает как двухуровневая система с приоритетной очередью, которая позволяет ускорить процесс, когда вы:

📍 Вручную отправляете URL в GSC или Bing Webmaster Tools
📍 Отправляете через API индексации

Все эти URL, ожидающие в очередях, помечены как "Discovered - currently not indexed".

Поисковики знают об их существовании, но еще не добрались до их краулинга.

Большое количество таких исключений показывает, что нужно сфокусироваться на оптимизации краулинга.
-

Перейдем к "Crawled - currently not indexed" (Просканировано - в настоящее время не проиндексировано).

Многие считают, что это проблема качества контента.

Но часто это не так.

Это техническая проблема.

Либо вы прячете большую часть SEO-значимого контента за JavaScript.

В этом случае решение простое - прекратите это делать.

Особенно учитывая растущие доказательства того, что AI-краулеры не могут получить доступ к контенту с клиентским рендерингом.

Либо исключение происходит потому, что контент все еще анализируется для понимания контекста:

📍 Мета-теги, каноникалы, структурированные данные, текст, изображения, видео - все требует оценки.
📍 Нужно отметить дубликаты, оценить качество и проверить информационную ценность.
📍 Необходимо учесть авторитет бренда, силу путей и ссылочные сигналы.

И все это требует времени.

Чтобы ускорить процесс и уменьшить количество ценных URL, помеченных как "Crawled - currently not indexed", сосредоточьтесь на оптимизации краулинга и индексации.

@MikeBlazerX

Читать полностью…

Mike Blazer

Инструмент для проверки HTTP Cache Header в Request Metrics.

Удобный инструмент для анализа того, как браузеры будут кэшировать ваш сайт, изображения, скрипты и любые другие веб-ресурсы.

Грамотное использование кэширования может значительно улучшить веб-перформанс для повторных посетителей.

Абсолютно бесплатно, без регистрации:

https://requestmetrics.com/resources/tools/http-cache-checker/

@MikeBlazerX

Читать полностью…

Mike Blazer

Сколько контента нужно публиковать?

— Если конкуренты публикуют 1200 статей в год, то 100 постов в месяц - вполне реально.
— Оцените ценность трафика относительно ваших затрат, чтобы понять ROI.

Если вы уверены в качестве - спринтуйте.

Если нет - начните с малого и оттачивайте процесс.
-

Как определить объем публикации контента для SEO

Объем публикаций в SEO — это не про то, чтобы равняться на производительность конкурентов.

Контент — это инвестиционный актив, и частота публикаций должна определяться потребностями аудитории, а не действиями других.

Как и при производстве терок для сыра, создание контента должно базироваться на финансовых возможностях и прогнозируемой отдаче.

Правильный подход к определению объема публикаций начинается с анализа аудитории и спроса/интереса, установки четкого бюджета и определения конкретных целей.

Чтобы определить оптимальную скорость производства контента, посчитайте стоимость одного материала и ожидаемую отдачу со временем, затем разделите доступный бюджет на количество необходимых релевантных материалов.

Такой подход гарантирует, что ваша контент-стратегия соответствует вашим целям, а не слепо следует графикам публикаций конкурентов.

Хотя анализ конкурентов важен, он должен выходить за рамки простого подсчета количества контента.

Сфокусируйтесь на том, как работает их контент, насколько он релевантен вашему бизнесу и какое реальное влияние оказывает.

Если конкуренты публикует 1000 пустышек в месяц ради 10000 визитов без влияния на бизнес — это не та модель, которой стоит подражать.

При масштабировании производства контента нужно учитывать несколько критических факторов.

Важно правильно распределять бюджет между созданием нового контента и улучшением существующих материалов.

Масштабное производство контента может привести к каннибализации ключевых слов, что требует надежной системы отслеживания контента.

Некачественный контент в больших объемах рискует привести к санкциям от Google, а программная генерация контента может создать проблемы с дублями при создании похожих сравнительных страниц (например, [X vs Y] и [Y vs X], или [красные яблоки] vs [апельсины]).

Пробелы в контенте для пути пользователя и поддерживающих материалах могут навредить конверсии больше, чем помогает трендовый контент.

Для крупных сайтов краулинговый бюджет становится важным фактором, когда новый контент может отвлекать внимание от старого, или новый контент может игнорироваться.

Это требует правильных методов управления краулингом.

Наконец, темы и форматы контента различаются по потенциальной отдаче, поэтому важно отдавать приоритет тем, которые имеют больший интерес и потенциал трафика, чтобы не тратить ресурсы на низкоэффективный контент.

@MikeBlazerX

Читать полностью…

Mike Blazer

На основе наблюдений за 142 сайтами в нише купонов и промокодов, где отслеживались случаи манипуляций с репутацией сайтов, Мальте Ландвер делится следующими наблюдениями:

▶️ Май 2024: Затронуты были только США и Великобритания.

▶️ Июнь 2024: Эффект распространился на другие англоязычные страны.

▶️ Q4 2024: В США под санкции попали дополнительные компании.

▶️ Январь 2025: Произошел запуск во многих (но не всех) странах ЕС.

Похоже, что Гуглу нужно обучить людей, владеющих соответствующими языками, чтобы выдавать эти ручные санкции.

Это объясняет, почему Гугл сначала расширил охват с США/Великобритании на другие англоязычные рынки.

@MikeBlazerX

Читать полностью…

Mike Blazer

Какая самая недооцененная конфигурация в международном SEO?

Нет, это не hreflang разметка:

Это возможность краулинга перекрестных ссылок между страницами на разных языках или версиями URL для разных стран!

До сих пор это настолько легкодоступный фрукт для СТОЛЬКИХ сайтов с международными версиями, которые в итоге реализуют глобальную навигацию без возможности краулинга, или такую, которая всегда ведет на главную страницу каждой языковой/региональной версии вместо альтернативных языковых/региональных версий текущей страницы.

Это не только помогает краулингу между различными международными версиями сайта, но и позволяет передавать внутренний ссылочный вес между ними, что особенно полезно, когда у вас есть одна хорошо развитая версия и много новых!

Работаете над сайтом с международными версиями?

Сделайте себе одолжение - проверьте, правильно ли это реализовано, и если нет - сделайте это приоритетной задачей прямо сейчас.

@MikeBlazerX

Читать полностью…

Mike Blazer

Возвращение Короля

(или как мы обошли Semrush и Ahrefs по запросу "SEO checker")

Годами мы пытались вывести главную страницу Sitechecker на первое место по этому ключу, пишет Иван Палий.

Ничего не помогало: ни смена контента, ни дизайн страницы, ни мощные бэклинки.

Потом Роман Рогоза сделал наблюдение.

В топ-10 ранжировались 2 типа сайтов:

— те, кто выдают SEO-отчет без регистрации;

— те, кто выдают SEO-отчет только после регистрации (Semrush и Ahrefs).

Наша главная страница тоже требовала регистрации для получения отчета и, как следствие, имела высокий показатель отказов.

Но мы же не Semrush и не Ahrefs, чтобы ранжироваться в топ-10 с такой воронкой :)

SEO-специалисты, которые раньше не работали с SaaS, часто этого не понимают.

Ни один инструмент анализа СЕРПа вам этого не покажет!

В анализе СЕРПа вы увидите бэклинки, тайтлы, количество слов на странице и многое другое, но вы никогда не увидите пользовательскую воронку.

Именно поэтому, анализируя как можно улучшить позиции по ключам, связанным с инструментами, нужно вручную проходить воронки всех конкурентов в СЕРПе.

Поэтому мы приняли стратегическое решение.

Главную страницу будем ранжировать только по брендовым запросам.

А по ключу "seo checker" будем ранжировать отдельную страницу /on-page-seo-checker/, где будем выдавать отчет БЕЗ регистрации.

Такая миграция была непростой.

Поменять воронку легко, но много времени ушло на смену URL в старых бэклинках.

В общей сложности нам потребовался 1 ГОД, чтобы стать вторыми по этому ключу.

Теперь пора на матч с Seobility они очень долго доминируют на первом месте.

Они изначально выбрали правильную стратегию, и сдвинуть их будет очень сложно.

P.S. Я учитываю, что Гугл может легко выкинуть нас со второй позиции.

Но самый большой риск — если Semrush или Ahrefs изменят свою воронку.

Они сразу же займут топ 1-2.

Надеюсь, они это не читают.

@MikeBlazerX

Читать полностью…

Mike Blazer

Влияние манипуляций с CTR на позиции: реальный эксперимент

Недавно мы с Рэндом Фишкиным провели эксперимент во время нашего вебинара, чтобы проверить, остается ли CTR фактором ранжирования, манипулируя кликами для вьетнамского ресторана в Сиэтле, пишет Джой Хокинс.

Мы попросили сотни зрителей вебинара ввести запрос "Vietnamese Restaurant Seattle" и кликнуть на результат со второй страницы выдачи.

Первоначальные результаты были впечатляющими - ресторан практически моментально поднялся на вторую позицию после начала массовых кликов.

Однако то, что произошло дальше, оказалось более показательным.

В течение последующих недель и месяцев позиции постепенно снижались, пока сайт не вернулся на исходные места.

Это не первый раз, когда я тестирую манипуляции с CTR.

Каждый тест показывает одну и ту же картину - позиции растут, пока продолжаются искусственные клики, но падают, как только они прекращаются.

Это похоже на оплату временной видимости, которая исчезает, как только вы перестаете платить.

Но у манипуляций с CTR есть еще более темная сторона.

Во время интервью с агентством, занимающимся накруткой CTR, в подкасте Крейга Кэмпбелла они раскрыли, что Google может обнаруживать и наказывать подозрительные паттерны кликов.

Если вы продолжаете отправлять фейковые клики, когда сайт попадает на 2-3 страницу выдачи, Google распознает их как искусственные и может даже понизить ваши позиции.

Мы наблюдали это своими глазами во время нашего эксперимента.

Тестовый ресторан испытал серьезное падение позиций, в то время как другие компании в том же сегменте сохраняли стабильные позиции.

https://www.sterlingsky.ca/does-ctr-manipulation-work-long-term/

@MikeBlazerX

Читать полностью…

Mike Blazer

Настали золотые времена для SEO-специалистов, ведь PPC не может купить себе место в ответах LLM.

Мы наконец-то попадаем в переговорные советов директоров.

Наконец-то получаем более крупные бюджеты.

Наконец-то нас признают драйвером роста бренда.

Но этот момент мимолетен.

Реклама придет.

Бренды смогут платить за видимость в LLM.

И то, что произойдет потом, зависит от того, что вы делаете сейчас.

Не повторяйте прошлых ошибок.

Давайте договоримся:

🏆 Отслеживание позиций в СЕРПе никогда не было KPI (метрика - да, но не KPI).

Отслеживание промптов в LLM ничем не отличается.

🧠 SEO - это не про клики на сайт.

Это про то, чтобы быть на первом месте в сознании потребителя, когда он готов к конверсии.

💩 Спам с помощью ИИ и блэкхат-трюки не принесут вам уважения на уровне руководства.

Сфокусируйтесь на создании устойчивой ценности

@MikeBlazerX

Читать полностью…

Mike Blazer

Бесплатный инструмент, который может предсказать, какой семантический класс запроса Google присвоит любому поисковому термину

Модель DistilBERT, обученная на 4..8 млн реальных запросов из данных Google и семантических классов от Google, теперь может классифицировать ваши запросы по одному из восьми различных типов:

1. SHORT_FACT (короткий факт)
2. REASON (причина)
3. DEFINITION (определение)
4. COMPARISON (сравнение)
5. INSTRUCTION (инструкция)
6. CONSEQUENCE (следствие)
7. BOOL (да/нет вопрос)
8. OTHER (прочее)

Больше про них тут.

Инструмент позволяет вводить список запросов.

https://rqpredictor.streamlit.app/

Обратите внимание, что особенно для "короткохвостых" запросов он регулярно возвращает "OTHER" или для очень похожих запросов выдает разные категории - и это, скорее всего, правильно!

Давайте разберемся почему.

Пользовательский интент субъективен, а не объективен.

Это означает, что один и тот же запрос может иметь разное значение для разных людей, и Google должен отражать эту разницу в СЕРПах.

В целом, чем короче ключевик, тем шире потенциальное значение.

Если вы введете запрос "Обручальные кольца", он, вероятно, будет помечен как "OTHER".

Это может быть кто-то, кто ищет факты об обручальных кольцах (сколько они должны стоить), кто-то, кто ищет сравнения (золото против серебра), или кто-то, кто хочет их купить.

Без простого способа классифицировать поиск категория "OTHER" как гибридная может оказаться вполне подходящей.

Если вы не получаете ожидаемые категории - В ЭТОМ И ЕСТЬ СМЫСЛ ИНСТРУМЕНТА

Как говорит Марк Уильямс-Кук, они использовали 20% реальных данных для слепого тестирования инструмента, и он показал невероятно точные результаты, поэтому если вы думаете, что категоризация неверна, ИСПОЛЬЗУЙТЕ ДАННЫЕ, ЧТОБЫ СКОРРЕКТИРОВАТЬ СВОЕ МНЕНИЕ, а не отбрасывайте их просто потому, что вы не согласны.

@MikeBlazerX

Читать полностью…
Subscribe to a channel