mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2557

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Массовый импорт истории погоды в Google Sheets

Нравится вам это или нет, но ваши продажи зависят от погодных условий.

Никто не купит перчатки во время аномальной жары и никто не будет покупать шорты во время снежной бури.

И если погода ухудшается, что влияет на ваши продажи, вам, возможно, придется объяснять начальству, почему компания не зарабатывает деньги.

С другой стороны, если ваши продажи растут, важно понимать, результат ли это ваших маркетинговых усилий или просто везение.

Поэтому воспользуйтесь генератором истории погоды в Google Sheets.

Всего одним нажатием кнопки вы можете импортировать ежедневную историю погоды за выбранный период прямо в вашу таблицу.

Затем вы можете легко вставить эти данные в отчеты Google Analytics, чтобы наглядно показать корреляцию между погодой и продажами.

Получите свой бесплатный генератор истории погоды здесь: https://gossage3.gumroad.com/l/odxqq

Как использовать:

1) - Перейдите на https://openweathermap.org/api и подпишитесь на One Call API

2) - Перейдите на https://home.openweathermap.org/api_keys, чтобы получить ключ API для погоды.

Это бесплатно для большинства случаев использования.

После получения введите его во вкладке настроек.

3) - Получите широту и долготу места, для которого вы хотите получить прогноз погоды.

Вы можете сделать это быстро, просто загуглив "[местоположение] координаты"

4) - Введите нужные даты в таблицу в формате ГГГГ-ММ-ДД.

После заполнения просто нажмите "Get weather history" и наблюдайте, как статистика погоды появляется перед вашими глазами!

https://seogreetings.com/blogs/news/import-weather-histories-into-google-sheets-in-bulk

@MikeBlazerX

Читать полностью…

Mike Blazer

Я поднял SEO интернет-магазина клиента, который падал годами, не добавив НИЧЕГО, пишет Амин Эль Фадиль.
Мы не добавляли:

— новых страниц
— контент на существующие страницы
— таблиц, изображений, параграфов
— внутренних ссылок
— бэклинков

Так как же нам это удалось?

Мы удалили страницы не по теме
Мы удалили страницы по теме, но не соответствующие таргету
Мы удалили страницы по теме и соответствующие таргету, но не представляли собой ценности для позиций в поисковиках
Мы удалили страницы без контента
Мы удалили страницы с контентом низкого качества
Мы удалили ненужные параграфы, таблицы, изображения
Мы удалили ненужные внутренние ссылки
Мы дезавуировали ссылки с других сайтов, не имеющие ценности
Мы удалили элементы коммуникации, CTA и баннеры, которые не были оптимальными, эффективными или эстетичными

Эта работа по удалению всего, что было плохим, посредственным, не по теме, вводящим в заблуждение или безвкусным, изменила траекторию интернет-магазина с многолетним падением трафика, вернув его к стабильному росту.

Часто в SEO убрать то, что не работает, важнее, чем добавить то, что может сработать.

@MikeBlazerX

Читать полностью…

Mike Blazer

Наказывает ли Google "несфокусированные" сайты?

Давайте рассмотрим случай с GetApp.com, которые потеряли 768K ежемесячного органического трафика с 2023 года.

Их самые большие потери можно разбить по категориям.

Огромные потери приходятся на маркетинг, операционную деятельность, HR, совместную работу, управление проектами, электронную коммерцию, управление клиентами, медицинскую фармацевтику и т. д.

Почему они охватывали так много категорий ПО?

Понятно почему.

Больше охват -> больше трафика -> больше дохода для GetApp.

Так почему же они получили санкции?

Из-за "несфокусированного" сайта?

Отсутствие тематической направленности - это лишь симптом.

Создание контента исключительно для получения поискового трафика - вот основная причина.

А GetApp именно этим и занимался.

Google теперь рассматривает это как спам.

Это работало в 2023.

Но правила игры изменились.

Избегайте делать что-то только для "SEO".

Придерживайтесь 1-2 основных тематических категорий, если хотите преуспеть в SEO.
-

Согласно Semrush, в "топе" января 2023 их ключевым запросом #1 был "yahoo mail", с 15% их трафика, за которым следовала "aol mail".

Может быть, дело не в их "тематическом распределении", а скорее в сильной концентрации на несвязанных ключевых словах?, спрашивает Дарио Диамент.
-

Я заметил, что традиционные агрегаторы снижаются в СЕРПе, и их заменяют "Топ-10 [ключевое слово]" - вы заметили это?, пишет Сэм Кюнле.

Например, при поиске "best ATS software", исторически вы увидели бы G2, Capterra и т.д. на верхних позициях.

Сейчас вы видите статьи в формате блог-постов от организаций, таких как Select Software Review и Zapier, которые берут старую стратегию TOFU SEO и переносят её на запросы с более выраженным интентом.

Самое интересное, что многие из них всё ещё работают по модели pay-to-play, где, хотя технически это "органическая" статья, компании/продукты из списка платят за то, чтобы быть в этом списке.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда вы в последний раз проверяли, как ранжируетесь по брендовым поисковым запросам?

Это одна из самых недооцененных задач в SEO — но она может привлечь трафик с высоким интентом и защитить видимость и репутацию вашего бренда.

Большинство людей думают о брендовом поиске так:

👉 "Ранжируется ли моя главная страница по названию бренда?"
✅ Если да — отлично.
❌ Если нет — проблема.

Но это лишь поверхностный уровень брендового SEO.

Чтобы полностью контролировать свое присутствие в брендовом поиске, вам нужно смотреть глубже и проверять хвостовые брендовые запросы — поисковые запросы, где люди используют название вашего бренда вместе с определенными ключевыми словами.

Например:

✅ [Бренд] + отзывы
✅ [Бренд] + цены
✅ [Бренд] + альтернативы
✅ [Бренд] + кейсы
✅ [Бренд] + логин / поддержка
✅ [Бренд] + категория продукта / функция
✅ [Бренд] vs [Конкурент]

Эти запросы имеют высокий интент — люди активно рассматривают покупку, изучают конкурентов или ищут подтверждения.

Но многие бренды даже не проверяют, что ранжируется по этим запросам.

Вот на что стоит обратить внимание:

🚀 Какие страницы ранжируются?
⚡️ Это та страница, на которую вы хотите, чтобы попадали пользователи — или вместо нее ранжируется случайная, менее релевантная страница?
⚡️ Ранжируются ли сторонние сайты (новостные статьи, сайты отзывов, треды на Reddit или Quora) выше вас?
🔍 Соответствует ли ранжирующаяся страница пользовательскому интенту?
⚡️ Если кто-то ищет "[Бренд] + цены", но ваша страница с ценами не ранжируется, вы упускаете огромную возможность.
⚡️ Если кто-то ищет "[Бренд] + кейсы", но вместо этого ранжируется блог-пост, ваш контент не соответствует запросу.
⚠️ Ранжируется ли ваш сайт вообще?
⚡️ Доминируют ли в поиске по вашему бренду сайты отзывов, конкуренты или форумы?

Почему это важно:

✅ Брендовые запросы конвертируют.

Люди, ищущие эти термины, уже знают ваш бренд.

Вы должны владеть этими запросами.

✅ Если не ранжируетесь вы, будет ранжироваться кто-то другой.

Конкуренты, сайты сравнений и сторонние платформы будут рады забрать этот трафик у вас.

✅ На кону ваше восприятие бренда.

Если пользователи ищут "[Бренд] + отзывы" и видят негативный или устаревший контент, вам нужна стратегия, чтобы вытеснить его вниз.

Проверить это легко...

📌 Зайдите в Google.
📌 Поищите свой бренд + распространенные ключевые слова и модификаторы.
📌 Проверьте, что ранжируется, кто ранжируется и где ваши самые большие пробелы.
🚀 Затем оптимизируйте своё присутствие в брендовом поиске.

Когда вы в последний раз делали это для своего бренда?

@MikeBlazerX

Читать полностью…

Mike Blazer

Что работает (и что не работает) в SEO-консалтинге в этом году, от Карла Хенди

Что работает:

Меньше упоминаний "SEO" – Чем меньше я говорю о "SEO" с заказчиками и компаниями, тем легче становятся обсуждения.

Но это не означает, что мы не занимаемся SEO.

Приоритизация интента – Убираем "шум" и контент с неоднозначным интентом, особенно на лендингах для B2B и eCommerce.

Очистка старого контента – "Меньше – лучше".

Безжалостно удаляем устаревшие и неэффективные страницы.

Деоптимизация – Огромное количество времени уходит на исправление старых агрессивных SEO-манипуляций.

Строгие коммуникации в начале работы – Установление реалистичных ожиданий с самого начала улучшает отношения с клиентами и избавляет от лишних проблем.

Сказать "нет" – Не каждый клиент или проект сможет восстановиться после HCU или слабого бренда/товарного предложения.

Долгосрочная фокусировка – Быстрые результаты помогают, но устойчивые победы в SEO более важны.

Это про стратегию, а не просто долгосрочные ретейнеры.

Аудиты серверных логовScreaming Frog Log File Analyser быстро дает четкие и полезные инсайты.

Разработчики ценят доказательную SEO-оптимизацию.

Контроль индексации и краулинга – Перекраулинг и недоиндексация (и наоборот) требуют анализа и исправлений.

Оптимизация расходов на технику – А нужна ли вам полноценная SEO-платформа ради мониторинга позиций по ключевикам?

Сбалансированное обсуждение AI – Используйте AI только там, где это уместно, а не для хайпа.

Анализируйте риски и возможности.

UX и UI – Улучшение макетов, заголовков и сокращение "SEO-воды" дает результат.

Возрождение качественного старого контента – Старый контент с историей и авторитетом все еще ценен для SEO.

Актуальность знаний – Подписки на рассылки Марка Уильямса-Кука и Алейды Солис постоянно снабжают ценными инсайтами и сводками.

Более компактная документация – Большинству клиентов уже не нужна развернутая SEO-образовательная программа.

Что не работает:

Аналитика и отчеты – По-прежнему сложно получать четкие инсайты из множества источников данных.

Волшебного AI-решения пока нет.

"Большие данные" так и не случились.

SEO без учета бизнеса и пользователей – "SEO ради SEO" или излишние доработки, которые не приносят реальной пользы.

Изолированное SEO – SEO должно быть интегрировано с другими бизнес-каналами, а не ограничиваться еженедельными "встречами для галочки".

Новый контент, основанный на гайдах – Сложно выделиться, если он не реально полезный или создан исключительно ради модных терминов вроде "Information Gain".

Ресурсы разработчиков – Постоянное узкое место, особенно для крупных и устаревших сайтов.

Также отвлекают тренды, связанные с AI.

Шум в индустрии и "блестящие объекты" – Все изменения в Google SERP, дискуссии об AI и растущее внимание к качеству поиска заставляют проводить больше времени за обсуждениями "тенденций поиска" в этом году.

@MikeBlazerX

Читать полностью…

Mike Blazer

Меня всегда забавляют люди, которые принимают посты на свой счёт и оставляют комментарии типа "я это и так знаю" или "я такое делаю по другому", как будто в канале с 7к подписчиков не будет тех, кому этот пост зайдет.

При этом, такие комментаторы никогда не напишут "спасибо", в случаях, когда они узнали что-то новое.

Действительно успешные люди не срутся в комментариях, не пишут гадостей и не оскорбляют других...

@MikeBlazerX

Читать полностью…

Mike Blazer

Гугл (пародия): Цель этого обновления - полностью удалить любые ссылки на сайты, кроме Reddit, Forbes и сервисов Google.

Пожалуйста, сообщайте о любых ссылках на другие сайты, чтобы мы могли оперативно их удалить.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда после окончания интенсива по SEO показываешь чему тебя научили

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда привел девушку в свое логово фриланса и игр.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы хотите правильно оценивать трафик с LLM в своей веб-аналитике?

Вам надоело вручную вести список хостов и доменов?

Тогда этот новый репозиторий на Github может стать тем, чего не хватало в вашей жизни:

https://github.com/MalteBerlin/LLM-Referrer/blob/main/llm-referrer.txt

@MikeBlazerX

Читать полностью…

Mike Blazer

Гугл в 2025 году. Захват AI-обзоров!!!

@MikeBlazerX

Читать полностью…

Mike Blazer

Ян-Виллем Боббинк сделал простой плагин для Chrome, который извлекает HTML-ответ Googlebot (либо из кэша, либо из живого теста с помощью Inspection tool).

Затем он открывает новую вкладку и сравнивает ее с запрошенной версией страницы.

Так что переходите к проверке конкретного URL, нажимайте кнопку плагина и начинайте сравнивать.

Ищите элементы, которые Google не видит, но которые есть в вашей живой версии, или наоборот.

Убедитесь, что вы используете мобильный пользовательский агент, поскольку Googlebot ориентируется на мобильные устройства, и у сайта может быть специальная мобильная версия.

Возможно, из-за специфических настроек JavaScript Google не видит такие SEO-элементы, как метаданные, заголовки H, содержимое вкладок, внутренние ссылки и многое другое.

Видео на Loom: https://www.loom.com/share/e72282d77f6f4e2582e77bad76a99f59?sid=126cbf42-f14e-4f7b-a9e4-db6e2472dbc2

Плагин доступен по ссылке https://www.notprovided.eu/area51/comparing-googlebot-with-live.zip

@MikeBlazerX

Читать полностью…

Mike Blazer

Торговец заплатил $20 000 SEO-агентству, а сайт получил четыре просмотра в месяц и ноль продаж...

https://www.news.com.au/finance/small-business/its-ridiculous-tradie-pays-20000-to-seo-firm-website-gets-four-views-per-month-and-zero-sales/news-story/a5cd2fe2bd762fa62712984d9f293f46

@MikeBlazerX

Читать полностью…

Mike Blazer

Есть ли кто-нибудь в OnlyFans SEO?

Все крупные игроки в поисковой нише OnlyFans потеряли свой трафик к концу года.

Они больше не ранжируются даже по своим собственным брендам.

1. OnlyFinder - Скриншот

2. FansMetrics - Скриншот

3. Hubite - Скриншот

Честно говоря, я был в нише OF с самого начала существования OnlyFans и заработал много легких денег, - говорит Грождица.

Последние два года я ничем не занимался, но сейчас я начинаю строить сайд-проект, который станет лучшей поисковой системой по сравнению со всеми имеющимися конкурентами.

И он уже почти готов.

Но похоже, что SEO больше не является вариантом получения трафика для подобных проектов.

Что бы вы сделали на моем месте, если бы у вас был продукт, который по своим возможностям и качеству результатов намного лучше, чем любой другой продукт?

Как бы вы его продвигали?
-

Майк:

Тебя все равно забанят, я создал много сайтов-каталогов, и каждый из них был забанен.
-

Рахман:

Если SEO для этого мертво, то следующий лучший вариант - полномасштабная социальная инженерия.

Поднимайте креаторов, заставляйте их чувствовать, что они должны быть на вашей платформе, и пусть сарафанное радио сделает тяжелую работу.
-

YourFriendlyGIGACHAD:

Единственные SEO-усилия, которые я вижу у ребят из OnlyFans - это паразитные посты в Github Repo.

В твоем случае я бы спамил в основном органическими роликами+тиктоком.

Ты можешь автоматизировать это с помощью AI контента и нескольких аккаунтов.

Там есть огромная аудитория дрочеров.
-

casualhyped:

Автоматизируй органическую ферму социальных сетей.

Проблема в том, что сайт - это не "актив", а скорее SM-аккаунты.

Я предлагаю TikTok и Reels.

TikTok стал немного тяжеловат для взрослых.

@MikeBlazerX

Читать полностью…

Mike Blazer

Для тех, кто верует в "noindex, follow" молитвы и заклинания SEO, стоит знать, что если у вас стоит noindex, Google даже не попытается обработать JavaScript на вашей странице. ❎

Это означает, что если ваши ссылки требуют рендеринга JS на стороне клиента, то они вдвойне не будут работать 😉.

@MikeBlazerX

Читать полностью…

Mike Blazer

Кто там ещё говорит, что нет времени, денег и идей для хорошей рекламы...

Крутая акция одного мюнхенского турагентства.

Компания не только достигла высокого охвата при минимальном бюджете и затратах времени.

Но и точно зацепила большинство автовладельцев.

Ведь желание тепла, солнца и отпуска редко бывает сильнее, чем когда скребёшь лёд с автомобильного стекла.

Как вам такая идея?

@MikeBlazerX

Читать полностью…

Mike Blazer

Один из моих тестовых сайтов недавно показал интересное поведение, — говорит Сэм Пенни.

Сайт позволяет смотреть видео из TikTok без приложения, и когда TikTok был заблокирован в США на 14 часов, я заметил резкий рост показов, так как люди искали способы получить доступ к платформе.

Что интересно, даже после того, как "запрет на TikTok" был снят, сайт продолжил расти в позициях и привлекать больше трафика по общим запросам.

Мы знаем, что Google динамически корректирует ранжирование в ответ на события в реальном мире — именно поэтому новостные статьи, опубликованные всего несколько минут назад, могут резко появляться в топе поисковой выдачи.

Также мы знаем, что поведенческие сигналы пользователей в СЕРПах могут влиять на ранжирование.

Такие люди, как Рэнд Фишкин и Мари Хейнс, показали, что привлечение пользователей к поиску и кликам по результату способно повысить его видимость.

Моя теория?

Рост спроса вызвал лавину поисковых запросов, пользователи нашли мой сайт, и сигналы вовлеченности помогли Google оценить его ценность.

Мой вывод?

Вы можете и должны использовать всплески интереса в нише для увеличения видимости, но долгосрочные результаты достигаются только через выполнение обещания предоставления отличного пользовательского опыта.

CTR?

Он начинался примерно с 50%!

В основном это был брендинг (watchwithout), но со временем показатель снизился с 50% до ~20%, так как доля трафика по общим запросам стала преобладать.

Этот инструмент довольно нишевый, и практически нет других решений, которые нацелены на такую группу ключевых слов, поэтому CTR для общих запросов обычно выше 10-15%!

@MikeBlazerX

Читать полностью…

Mike Blazer

Мошенники вызывают наплыв спамных URL-адресов в Google Search Console

Эсбен Расмуссен заметил, что крупные сайты столкнулись с внезапным наплывом подозрительных URL в GSC.

При правильной настройке robots.txt такие ситуации на самом деле не влияют на SEO-показатели.

Схема всегда одна и та же: кто-то обнаруживает тысячи странных URL, внезапно появившихся в GSC за ночь, помеченных как "заблокировано файлом robots.txt".

При проверке этих URL через инструмент инспектирования GSC, пользователи в шоке видят, что они помечены как "проиндексированные" (с примечанием "Проиндексировано, хотя заблокировано файлом robots.txt").

Дальнейшее расследование может даже показать минимальные данные по производительности — возможно, один клик и три показа за несколько месяцев на сайте, который обычно генерирует миллионы показов.

На самом деле происходит спланированный скам.

Эти атакующие нацелены на динамические страницы, такие как результаты поиска или страницы ошибок, которые отражают пользовательский ввод.

Они манипулируют параметрами URL в надежде, что Google проиндексирует либо бэклинк, либо текстовое упоминание.

Динамическая природа этих страниц позволяет скамерам генерировать бесконечные вариации URL против одной уязвимой конечной точки.

Ирония в том, что для работы этой схемы спам-сеть должна создавать dofollow ссылки на "сайт-жертву", чтобы Google обнаружил эти манипулированные URL.

Вот почему правильно настроенный файл robots.txt делает эту атаку безвредной:

Robots.txt предотвращает краулинг, что означает, что Google не хранит и не индексирует сигналы на странице, хотя и сохраняет обнаруженные URL в своем индексе.

— Поскольку Google никогда не краулит содержимое, краулинговый бюджет не тратится впустую, и Google никогда не видит потенциально спамный контент.

— Те 100 000 URL в GSC — это просто сообщение Google: "Я знаю, что этот URL существует, потому что на него указывают ссылки, но я не знаю, что он содержит".

— Эти проиндексированные, но не прокрауленные URL не могут ранжироваться по обычным поисковым запросам, что объясняет незначительные метрики производительности.

Некоторые сеошники предлагают добавить теги noindex к этим динамическим страницам, но это потребует удаления блокировки в robots.txt — позволяя Гуглоботу тратить ресурсы на краулинг тысяч спам-URL только для того, чтобы увидеть директиву noindex.

Правильный подход — проверить в GSC, не проскакивают ли какие-либо URL через вашу защиту robots.txt.

Проверьте отчеты "Проиндексированные страницы" и "Не проиндексировано" на необычные всплески, совпадающие с проблемой плохих URL.

Если обнаружены, скорректируйте ваш robots.txt для лучшей защиты всех динамических страниц, которые могут эксплуатировать скамеры.

Для сайтов, которые уже правильно блокируют эти страницы в robots.txt, никаких действий не требуется, несмотря на раздражающие данные в GSC.

Чем крупнее ваш сайт или бренд, тем вероятнее, что вы столкнетесь с такими попытками скама.

https://www.linkedin.com/pulse/scammers-behind-influx-bad-urls-google-search-console-esben-rasmussen-1kmxf/

@MikeBlazerX

Читать полностью…

Mike Blazer

Эффективные URL-адреса против сильной архитектуры сайта

При обсуждении SEO часто путают два понятия:

— структура URL (длина пути) и

— архитектура сайта (внутренняя перелинковка).

Вот упрощенная схема:

1. Структура URL: "Адрес", который видят пользователи

— Длина пути (например, /category/subcategory/product) отражает то, как контент организован в URL.

— Миф: короткие URL всегда лучше ранжируются.

— Реальность: Иерархия в URL улучшает удобство использования.

Например, более длинный URL, такой как /lightsabers/double-bladed/exar-kun, помогает пользователям *и* поисковым системам понять контекст.

— Ключевой момент: Отдавайте предпочтение ясности, а не краткости.

Структурированный URL действует как дорожная карта, направляя пользователей без ущерба для SEO.

2. Архитектура сайта: "Дороги", соединяющие страницы

— Речь идет о внутренней перелинковке и о том, как страницы связаны между собой тематически.

— Пример: Связывание страницы товара с его категорией и сопутствующими товарами усиливает тематическую релевантность.

— Почему это важно: Хорошая архитектура эффективно распределяет авторитет (например, PageRank), избегая "тупиков" для пользователей или краулеров.

Совет профессионала

— Избегайте крайностей: Плоские URL-адреса (например, /product123) могут казаться чистыми, но в них отсутствует контекст.

Слишком глубокие пути (например, /category/subcategory/brand/product) могут показаться загроможденными.

— Баланс: Создавайте URL-адреса для людей (читаемые, взламываемые) и машин (логическая иерархия).

При этом используйте внутренние ссылки для создания тематических кластеров, которые улучшают видимость.

Хорошо структурированный сайт похож на хорошо организованный магазин - пользователи находят то, что им нужно, а поисковые системы вознаграждают за четкость.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google Search испытал впечатляющий рост на 21.64% в 2024 году, развеяв спекуляции о том, что ИИ-инструменты отбирают долю рынка у поискового гиганта.

Такой темп роста особенно впечатляет для такого зрелого продукта и согласуется с публичными заявлениями CEO Google о том, что ИИ-обзоры увеличили использование поиска и удовлетворенность пользователей.

Однако эти ответы на базе ИИ существенно повлияли на кликабельность, что органические результаты потерпели падение CTR на 70%, в то время как платные результаты снизились на 12%.

При анализе ландшафта ИИ-инструментов, бросающих вызов Google, ChatGPT явно доминирует, а Gemini от Google теперь занимает второе место, несмотря на свое позднее появление.

Другие игроки, такие как Perplexity, Claude и Copilot, остаются относительно незначительными по сравнению с ними.

Их показатели выглядели бы как незначительные фрагменты на любой визуализации, делая ChatGPT единственным значимым конкурентом для анализа против Google.

Для корректного сравнения между Google и ChatGPT потребовались три ключевых метрики:

— Объем поиска Google
— Объем промптов ChatGPT
— Процент промптов ChatGPT, представляющих поисково-подобное поведение

Google официально сообщил о "более чем 5 триллионах поисковых запросов в 2024 году".

Тем временем, Сэм Альтман из OpenAI заявил, что ChatGPT получает "1 миллиард сообщений в день".

Эти цифры требовали корректировки для справедливого сравнения.

Согласно исследованию Semrush 2024 года, медианное количество сообщений в беседе с ChatGPT составляет три, причем более половины (59%) пользователей ведут беседы из трех сообщений или меньше.

Однако среднее значение возрастает до восьми сообщений на беседу из-за более длительных взаимодействий.

Кроме того, анализ Semrush 80 миллионов промптов показал, что только 30% промптов ChatGPT имеют поисковый интент, а остальные 70% сосредоточены на непоисковых функциях, таких как создание изображений, суммирование текста, написание кода и выполнение домашних заданий.

Результирующие расчеты показывают:

— Google: 14+ миллиардов поисковых запросов ежедневно
— ChatGPT: 37.5 миллионов поисково-эквивалентных запросов ежедневно

Это означает, что Google получает примерно в 373 раза больше поисковых запросов, чем ChatGPT.

Для сравнения, объем поиска ChatGPT сопоставим с Pinterest (~20 млн/день) и составляет примерно треть от объема DuckDuckGo (~108 млн/день).

Используя данные Statcounter о глобальной доле рынка поисковых систем, которые ставят Bing на 3.95%, Bing обрабатывает около 613.5 миллионов поисковых запросов ежедневно по сравнению с 14 миллиардами Google.

Yahoo следует аналогичным паттернам на основе их доли рынка.

DuckDuckGo достиг максимума в 106 миллионов поисковых запросов в день в 2022 году, и с их текущей ~0.7% глобальной долей рынка (ниже, чем их ~2% доля в США), они обрабатывают примерно 108 миллионов поисковых запросов ежедневно.

Даже если предположить, что 100% из 125 миллионов промптов ChatGPT в день были связаны с поиском, они все равно будут представлять менее 1% поискового рынка.

В сочетании со всеми промптами на Perplexity, Claude, Copilot и Gemini (предполагая, что среднее значение ~8 сообщений/промпт аналогично), все ИИ-инструменты вместе останутся ниже 2% поискового рынка.

Эти цифры могут быть не на 100% точными, но они соответствуют публичным заявлениям и могут быть проверены через несколько источников данных, предоставляя наиболее четкую картину на сегодняшний день о доле традиционного поискового рынка, захваченной ChatGPT и Google.

https://sparktoro.com/blog/new-research-google-search-grew-20-in-2024-receives-373x-more-searches-than-chatgpt/

@MikeBlazerX

Читать полностью…

Mike Blazer

Интересный корнер кейс в robots.txt, знали ли вы, что пробелы, созданные клавишей Tab, и пробелы, созданные пробелом на клавиатуре, могут ломать логику?

В этом примере вы ожидаете, что /foo будет заблокирован.

Но на самом деле он будет доступен для краулинга, потому что после Disallow: /foo есть несколько табов, которые трудно заметить!

@MikeBlazerX

Читать полностью…

Mike Blazer

Google решил конкурировать за запросы "cheap flight".

И вы никогда не догадаетесь, что произошло дальше.

Конкуренты годами строили свои бренды и продукты, только чтобы Google за 18-24 месяца поглотил значительный процент этого $ трафика на свою платформу через органические поисковые позиции и преимущественное размещение своего продукта для поиска авиабилетов.

Некоторые сеошники могли бы посчитать усилия Google "переоптимизированными"?

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда полез разбираться и весь день провел в документации

@MikeBlazerX

Читать полностью…

Mike Blazer

Именно благодаря этому резюме я получила работу в компании Meta, пишет Николь.

Я несколько раз безуспешно подавала резюме, и ни разу меня не выбрали для собеседования с рекрутером.

В третий раз, хотя мой опыт не изменился, изменилось то, как я его преподнесла.

Вот некоторые из основных изменений, которые я сделала, чтобы пробиться и привлечь внимание к своему резюме:

⭐️ Количественно оценила все пункты моего резюме по методу STAR -> если в конце предложения я спрашивала "ну и что" и мне было что сказать, я больше концентрировалась на результатах своих действий.

⭐️ Была краткой -> хорошее эмпирическое правило - 1 страница на каждые 5 лет опыта.

⭐️ Имела четкое ценностное предложение -> в компаниях FAANG обычно есть должности, которые очень специализированы, поэтому я постаралась выделить эти конкретные сильные стороны в пунктах.

Самый главный ключ к написанию резюме - обеспечить его максимально четкое и количественное описание перед тем, как подавать заявку на новую роль.

Вам может казаться, что вам не везет в поиске новых должностей.

Но ваше время придет!

@MikeBlazerX

Читать полностью…

Mike Blazer

Google в 2010 vs 2025, на примере их собственной ТВ-рекламы.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как SEO-специалист с 18-летним опытом, пишет Давор Бомештар, я никогда не думал, что скажу это, но...

Потеря трафика на сайте — это НЕ плохо. 🤷

Ну, не обязательно.

Знаю, звучит безумно, но выслушайте меня.

Мы живем в эпоху, когда платформы не хотят, чтобы вы их покидали.

Возьмем, к примеру, LinkedIn.

Вся причина, по которой люди не ставят ссылки на внешние ресурсы в своих постах в LinkedIn, заключается в том, что они знают... 👇

LinkedIn ограничит охват такого контента.

И теперь Google делает то же самое.

Для быстрых, простых ответов пользователи получают ИИ-генерируемые ответы прямо в Google.

Но как только они получают эти базовые ответы и хотят узнать больше...

Вот тогда они начинают кликать на сайты. 🖱

Что это значит для вас?

Это означает, что трафик, который ВСЕ-ТАКИ приходит, на самом деле более качественный.

А трафик, который вы потеряли, — это просто пузомерка.

→ Клики от пользователей, которые ищут ответы, но не интересуются тем, что вы предлагаете.
→ Клики, которые в конечном итоге не приводят к конверсиям.

И это НЕ плохо.

Так что теперь?

Стоит ли вообще заморачиваться с контентом для блога? 🤔

Ответ — да, сейчас как никогда.

Потому что даже если вы не получаете клики на свой контент, но появляетесь в качестве источника в ИИ-инструментах, это все равно форма продвижения и брендинга.

И вы можете достичь этого, только если сосредоточитесь на создании высококачественного контента.

Но помимо этого...

🔑 Ключ в том, чтобы снять ваш сайт с трона.

Не вкладывайте 100% своих усилий только в привлечение трафика на него.

Вместо этого влияйте на клиентов, чтобы они покупали у вас, максимально используя и другие платформы.

А это значит:

✅ используйте видео
✅ начните рассылку новостей
✅ будьте активны в социальных сетях
✅ лучше управляйте своими PPC-усилиями.

Варианты бесконечны.

@MikeBlazerX

Читать полностью…

Mike Blazer

🤵 НОВЫЙ ПОТЕНЦИАЛЬНЫЙ КЛИЕНТ:

"Мы ищем новое агентство, которое поможет нам с SEO-стратегией, хотели бы, чтобы вы отправили коммерческое предложение"

🙅 Я В МОЛОДОСТИ (Даниэл Фоли Картер):

— Возможность поработать с крупным брендом (SEO-стояк)
— Приступаю к изучению длинного списка критериев
— Обливаюсь слюной от мысли о 5к фунтов в месяц
— Представляю, сколько этих денег превратится в дивиденды, прежде чем будет спущено на модные стрижки, навороченные аудиосистемы и тюнинг машины
— Создаю огромное SEO-предложение/ответ
— Пускаю пену от волнения при мысли о возможности наконец-то погасить 100к фунтов студенческого кредита, двухлетний счет за электричество и 5 налоговых уведомлений
— Обновляю страницу КОМАНДА стоковыми фото случайных людей со случайными именами
— Корректирую подпись в электронной почте, добавляя корпоративную воду
— Переключаю ТОН в ПИСЬМАХ на корпоративного SEO-парня
— Вылизываю жопу потенциального клиента с быстрыми ответами на электронную почту и отношением ДА, СЭР, МЫ МОЖЕМ СДЕЛАТЬ ВСЁ

НОВЫЙ ПОТЕНЦИАЛЬНЫЙ КЛИЕНТ:

Как потенциальный партнер, ваше агентство должно уметь:

— Предоставить 20 кейсов клиентов с рекомендациями, электронными адресами, телефонами, Skype ID, BBM пинами
— Показать нам, как именно вы достигли роста, что вы сделали
— Продемонстрировать рост в течение 3 месяцев
— Предоставить полную SEO-стратегию, аудит и дорожную карту до нашей фазы отбора
— Присоединиться не менее чем к 3 часовым звонкам через Zoom с последующими записями и расшифровкой разговора через Otter AI
— Рассказать нам всё, что вы знаете и узнали о нашей компании, продукте и стратегии на сегодняшний день
— Провести анализ конкурентов и предоставить полный обзор всего, что они делали, и как вы собираетесь делать это лучше

Мы также требуем, чтобы потенциальный партнер-агентство:

— Работал с условиями оплаты в 180 дней (это демонстрирует устойчивость вашего агентства в ответственном обращении с деньгами)
— Обеспечил полную сертификацию ISO 900001
— Имел актуальную страховку ответственности на 100М фунтов
— Имел CyberEssentials, сертификаты безопасности, проверки AML
— Предоставил пункт о возврате средств при недостижении целевых показателей

🙅 Я В МОЛОДОСТИ:

— Отправляю ОГРОМНОЕ 100-страничное подробное предложение, детализирующее все тонкости их сайта, SEO, стратегии, инсайты клиентов
— Посещаю личную встречу в Лондоне
— Участвую в 3 часовых звонках по Zoom
— Предлагаю ретейнер в 4к фунтов в месяц, который включает ВСЁ от SEO, линкбилдинга, контента до завтрака в постель
— Соглашаюсь на длительные условия оплаты в надежде, что Barclays не будет возражать, если я загоню овердрафт в фискальное состояние, эквивалентное банковскому счету под управлением лейбористов

НОВЫЙ ПОТЕНЦИАЛЬНЫЙ КЛИЕНТ:

Спасибо за ваше предложение, к сожалению, ваша презентация не прошла отбор, до свидания.

Перемотаем на 10-15 лет вперед:

🧓 Я С ОПЫТОМ:

Спасибо, но мы вежливо отклоним приглашение участвовать в тендере.

1. Мы не в отчаянии
2. Условия оплаты 180 дней - нет, спасибо, вы можете оплачивать счета значительно быстрее, но как бизнес вы выбираете этого не делать
3. Во многих случаях запроса на коммерческое предложение у бизнеса уже есть агентство на примете, но они юридически обязаны получить несколько предложений
4. Во многих случаях - это гонка на понижение цены

@MikeBlazerX

Читать полностью…

Mike Blazer

Выгрузите весь сайт в текстовый файл (для использования с AI-моделями)

https://github.com/egoist/sitefetch

@MikeBlazerX

Читать полностью…

Mike Blazer

Для больших сайтов недостаточно просто ссылаться на релевантные страницы.

Комплекты внутренних ссылок должны охватывать релевантные страницы, новые страницы и рандомные страницы.

Это обязательная стратегия программатик SEO для ранжирования и индексации страниц в масштабе.

Для наглядности давайте рассмотрим страницы ресторанов Yelp в качестве примера.

Подробнее о каждом типе ссылок:

РЕЛЕВАНТНЫЕ СТРАНИЦЫ:

Эти ссылки наиболее полезны для пользователей, поэтому я часто ставлю этот пакет ссылок на первое место.

Они также наиболее эффективны для ранжирования из-за релевантности между контентом страниц.

Сложность заключается в определении, какие страницы релевантны.

Существует множество различных способов (алгоритмов) решения этой проблемы — я расскажу о некоторых вариантах в следующем посте — но один простой подход заключается в ссылках на страницы из той же категории.

Используя пример Yelp, это как если бы страница пиццерии ссылалась на другие страницы пиццерий.

НОВЫЕ СТРАНИЦЫ:

Эти ссылки также ценны для пользователей, поэтому я обычно размещаю их следующими.

Однако реальная ценность здесь — это индексация.

Как младенцы, новые страницы нуждаются в дополнительной любви (в виде ссылок).

В противном случае они становятся орфанами (без внутренних ссылок на них) и не индексируются.

Эти страницы имеют ценность для пользователей, потому что людям нравятся новые вещи, например, новые рестораны.

СЛУЧАЙНЫЕ СТРАНИЦЫ:

Это еще один уровень защиты от орфанных страниц.

Ссылки на набор случайных страниц гарантируют, что каждая страница получит ссылку.

Как и с новыми страницами, алгоритм здесь прост: просто берите страницы случайным образом, но не забудьте дедуплицировать их со ссылками в других модулях.

@MikeBlazerX

Читать полностью…

Mike Blazer

XML-карты сайта существуют с 2005 года и уже порядком надоели, верно?

Подумайте еще раз - вот 5 способов, которыми они могут быть полезны в повседневных SEO-задачах...

1. Быстрая индексация новых страниц

Создайте XML sitemap только для нескольких новых страниц, которые вам нужно проиндексировать, и отправьте ее в GSC.

2. Быстрая переиндексация страниц

То же самое, что и выше, создайте отдельный сайтмап только с теми URL, которые вам нужно переиндексировать.

3. Быстрое удаление страниц из индексации

Установите тег noindex на страницы, которые нужно деиндексировать, а также создайте и отправьте сайтмап, содержащий только эти URL-адреса.

4. Отслеживать состояние индексации подразделов сайта (по XML сайтмапу)

В GSC

5. Выявлять бесхозные страницы - используйте XML сайтмап и ваш любимый краулер

@MikeBlazerX

Читать полностью…
Subscribe to a channel