Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Кстати, сейчас отличный момент зайти на разделы с юзерами в GSC и GA4, и удалить оттуда доступы всяким хз аккам, накопившимся за год...
@MikeBlazerX
Быстрый заход в новую нишу без тщательной подготовки
@MikeBlazerX
К 30 годам в IT
у тебя должно быть:
— домен с расширением .ai
— подписки на 3 разных чат-бота с ИИ
— среднее время экрана за прошлую неделю 9 часов 28 минут
— $37 в какой-то крипте, про которую ты уже и забыл
— одна "гениальная идея стартапа с ИИ, которую кто-то должен сделать"
— 7 коробок от старых продуктов Эппл, которые ты зачем-то хранишь
— непрочитанное письмо 7-месячной давности, вечно висящее в инбоксе
— один друг, работающий в FAANG
, и один - в стартапе (они завидуют друг другу)
Я не устанавливаю правила
@MikeBlazerX
Классификатор поисковых запросов Google
https://intent.dejan.ai
Обучен на 20 000 синтетических поисковых запросах.
Поисковые запросы были сгенерированы с помощью Gemma2 9b
после сбора описания всех типов
@MikeBlazerX
Вот 6 советов по написанию конвертящего текста для лендингов:
1. Фреймворк КТО/ПОЧЕМУ/ЧТО
— Заголовки читают в 5 раз чаще, чем основной текст
— Цепляющие заголовки повышают кликабельность (CTR)
2. Переходим от CTA к CTV
— CTA
= "Сделай это"
— CTV
= "ВОТ ПОЧЕМУ тебе стоит это сделать"
— Фокус на выгодах, а не просто на действиях
3. Копирайтинг по формуле ПОР
— ПОР = Проблема, Обострение, Решение
— Этапы:
1. Определить и показать проблему посетителя
2. Обострить проблему, сделать очевидным, почему она болезненна
3. Предложить решение проблемы
4. Характеристики информируют, выгоды продают
— Продавайте выгоды, а не продукты или услуги
— Характеристики: ЧТО делает продукт (технические термины)
— Выгоды: КАК продукт помогает пользователям решать проблемы
5. Социальные доказательства
— Используйте социальные доказательства для повышения доверия
— Укрепляйте доверие через:
— Отзывы: пользовательские рецензии
— Кейсы: отобранные отзывы клиентов
— Логотипы компаний: логотипы крупных клиентов
— Награды/сертификаты: значки полученных наград или аккредитаций
6. Используйте визуал для рассказа истории
— Хороший дизайн - это визуальное повествование
— Превращает скучный текст в захватывающий опыт, соединяя слова с образами, вызывающими эмоции
— Когда сделано правильно, это не просто информирует - это связывает, захватывает внимание и конвертирует
@MikeBlazerX
Создание сайтов и их продвижение - это старая школа SEO.
В наши дни можно просто спамить проблемы на GitHub
в опенсорс-проектах.
-
Из контейнеров AWS
также могут получиться отличные паразиты, вот пример, который прямо сейчас на коне.sedocolorado.s3.amazonaws.com
@MikeBlazerX
YouTube SEO против SEO блогов: Что проще?
30 компаний, у которых есть YouTube
-каналы с минимум 10 000 подписчиков и блоги с ежемесячным SEO-трафиком не менее 10 000 посетителей, поделились своим опытом по этому вопросу.
Оказывается, попасть в топы на YouTube
проще и быстрее, чем в Google, но в долгосрочной перспективе именно Google дает более стабильный трафик (даже с учетом апдейтов алгоритма).
Однако если вы создаете видеоконтент, то сможете эффективно работать как с YouTube SEO
, так и с Google SEO одновременно.
@MikeBlazerX
Google НЕ относится к вещам "произвольно" - например, вы можете указать Google каноникализировать один URL
на другой, но он может это проигнорировать.
Вы можете использовать функцию смены адреса (COA
- change of address) при смене домена - и даже если вы явно сообщаете Google о смене домена, это не значит, что Google корректно это обработает.
По сути - вы что-то сообщаете Google, но сигналы могут перевесить эти указания.
Функция COA
в Google НЕ всегда эффективна, если не следовать определенным шагам пре-миграции.
Вот пример - клиент сменил домен, настроил редиректы и использовал COA
в Google.
Что произошло?
Позиции в топах обвалились/исчезли, затем Google начал пытаться индексировать старый домен - и стал рассматривать целевой домен как "дополнительный", отправив весь эквивалентный контент в "отсканировано/обнаружено, но не проиндексировано", несмотря на редирект со старого домена.
Что усугубляет ситуацию:
1. Если вы используете COA
на домене, который ранее уже мигрировал с цепочкой редиректов на основе бэклинков
2. Когда Google получает НЕСКОЛЬКО COA
одновременно с разных доменов на один
3. Когда на исходном домене растет ссылочная масса, что намекает на его активность (да, звучит безумно)
4. Когда есть другие сигналы, убеждающие Google, что старый домен все еще лучший для выдачи - Google продолжает держаться за старые URL
даже при настроенной смене адреса
5. Если есть внутренние ссылки, опирающиеся на редиректы со ссылками на старый домен - это может затягивать процесс переноса индексации
6. Если на домене до миграции много страниц, которые "известны", но не проиндексированы - Google может бесконечно запрашивать их
7. Если на домене использовалась динамическая генерация URL
, например, многоуровневые параметры, создающие сотни тысяч канонических дочерних путей
8. Если перенос домена происходит близко к core
-апдейту с влиянием HCU
9. Если Гуглбот не получает корректные HTTP
-хидеры или где HTTP
-ответ идет цепочкой
И это еще не все причины!
Вот почему нужно быть ОЧЕНЬ-ОЧЕНЬ-ОЧЕНЬ осторожным при смене доменов.
Это уже не то, что было раньше.
Теперь нужно учитывать передачу сигналов.
Google не так умен в некоторых аспектах индексации сайтов - нельзя полагаться только на то, что Google сделает всё правильно - нужно минимизировать/смягчать возможность того, что Google сделает что-то неправильно.
Проблемы с индексацией могут убить позиции и трафик - и восстановить их бывает очень непросто.
@MikeBlazerX
Вовлеченность vs. Популярность: ключевые различия и концепции
Вовлеченность (функция) — это то, как пользователи взаимодействуют с вашим контентом, а популярность (репутация) — насколько вы известны в диджитал-пространстве.
1. Функция vs. Репутация
— Google различает "злоупотреблением функциями" и "злоупотреблением репутацией сайта"
— Функция определяет, выполняет ли документ/страница свое предназначение
— Для функции важны технические элементы (например, поля ввода для конвертеров, математические разделы для калькуляторов)
— Google использует "предиктивный информационный поиск" для проверки конкретных точек, а не всего подряд
— Google снижает позиции в выдаче, если страница вводит в заблуждение или не выполняет свою функцию
2. Кластеризация и Контекст Источника
— Google группирует сайты по кластерам (например, партнерские, e-commerce
)
— Конкуренция происходит как между кластерами, так и внутри них
— Попадание в неправильный кластер может навредить позициям независимо от других факторов
— Сайтам необходимо согласовывать свой "контекст источника" с моделью монетизации
3. Распознавание Сущностей и Популярность
— Популярность связана с распознаванием сущностей и репутацией
— Сайты могут набирать популярность через:
— Присутствие в Википедии
— Упоминания в авторитетных источниках
— Консенсус относительно качества и авторитетности
— Сигналы тональности
— Присутствие на разных языках
— "Невидимый PageRank
" - дело не в ссылках, а в определении/консенсусе
4. Географические и Языковые Особенности
— Популярность можно наращивать на разных рынках/языках
— Можно использовать сигналы популярности из других стран/регионов
— Дешевые ссылки и контент с других рынков могут передавать популярность на основные рынки
— Можно использовать "асимметричный перевод" - переводить контент в зависимости от популярности темы на каждом языке, а не переводить все подряд
@MikeBlazerX
Сотрудник Google Крис Нельсон из команды Search Quality
, согласно его LinkedIn
, руководит глобальной командой, которая разрабатывает решения для ранжирования в рамках Google Search
, связанные с "обнаружением и обработкой AI
-сгенерированного контента".
Также Крис Нельсон - тот самый гуглер, который в ноябре 2024 года опубликовал обновление политики по борьбе со злоупотреблением репутацией сайтов, что привело к удалению Forbes Advisor
и других ресурсов из поисковой выдачи Google.
https://developers.google.com/search/blog/2024/11/site-reputation-abuse
Его LinkedIn
Кроме того, Крис Нельсон является автором поста в блоге Search Central
о Helpful Content
("Что авторам контента нужно знать о..."), публикации с рекомендациями по AI
-генерированному контенту и ряда других постов, связанных с последними обновлениями алгоритмов.
https://developers.google.com/search/blog/authors/chris-nelson
@MikeBlazerX
Сайт JustAnswer.com
не только ранжируется на топовых позициях по тысячам YMYL
-запросов, но часто делает это с помощью закрытого контента: полную, полезную часть экспертного ответа на вопросы могут видеть только авторизованные пользователи.
Версию для авторизованного пользователя видит и Гуглобот.
В приведенном примере Just Answer
находится на второй позиции по запросу "сколько я могу выручить за продажу почки" — весьма показательному YMYL
-запросу.
Интересно (и озадачивает) не только то, что URL
Госдепартамента, где разъясняется легальность этого вопроса в каждом штате США, не ранжируется на первой позиции... но и то, что Just Answer
так хорошо ранжируется, когда его ответ (с указанием сумм) виден только залогиненным юзерам.
За последние полтора года Just Answer
показал взрывной рост в SEO благодаря такому подходу — индексации диалогов клиентов с экспертными ответами на все возможные темы — причем часто с отредактированным контентом для неавторизованных пользователей.
@MikeBlazerX
Я очень ценю, когда члены команды берут на себя ответственность за ошибки — чем неудобнее признавать косяк, тем больше уважения это вызывает, говорит Джон-Генри Шерк.
Почти всегда можно найти уважительную причину для факапа, но вместо этого просто сказать "это моя вина, я накосячил(а), и я внедрю процесс, чтобы такого больше не повторилось" — вот что я действительно хочу услышать.
Меня не интересует почему это случилось, меня интересует, почему это больше не повторится.
@MikeBlazerX
Недавний анализ внутренних данных Google, полученных через эксплойт, раскрыл важные детали того, как поисковик использует прогнозируемую кликабельность (CTR
) в своей системе ранжирования.
Открытие было сделано после изучения более 90 миллионов поисковых запросов и примерно 2 терабайт данных, что предоставило конкретные доказательства механизмов, о которых раньше в SEO-сообществе только строились теории.
Данные показывают, что Google использует сложную модель прогнозирования, похожую на ту, что применяется в Google Ads
, чтобы оценить вероятность клика пользователей по результатам поиска.
Этот прогнозируемый CTR не используется напрямую на начальном этапе ранжирования, но играет ключевую роль в пост-ранжировании через систему, известную как Twiddler Framework.
Твиддлеры - это автономные программы, которые работают независимо после первичного ранжирования и могут принимать изолированные решения, не завися от других частей системы.
Твидлеры используют метрики, рассчитанные во время первичного ранжирования, включая (но не ограничиваясь) прогнозируемый CTR
, чтобы вносить дополнительные корректировки в результаты поиска.
Например, если данные о пользовательском взаимодействии — такие как реальные клики — значительно отклоняются от прогнозов Google, система может временно переранжировать результаты, чтобы лучше соответствовать поведению пользователей.
Однако это обычно приводит к постепенным изменениям, а не к резким сдвигам, поскольку модель прогнозирования медленно адаптируется к новым паттернам пользовательского поведения.
Этот процесс обеспечивает релевантность и привлекательность поисковой выдачи, даже если изначальная модель ранжирования не идеально предсказывает предпочтения пользователей.
Эти находки согласуются с предыдущими заявлениями Google о том, что они не используют прямые данные CTR
для ранжирования, и объясняют сложные механизмы, через которые поведенческие факторы могут влиять на результаты поиска.
Это создает систему, где первичное ранжирование и пост-ранжирование работают вместе, чтобы выдавать пользователям максимально релевантные и привлекательные результаты.
Одним из самых удивительных открытий было то, как прогнозируемый CTR
Google меняется при обновлении тайтлов.
Это говорит о том, что оптимизация тайтлов напрямую влияет на прогнозируемый CTR
, делая его критически важным фактором поисковой видимости.
Однако любые попытки оптимизации должны балансировать между улучшением кликабельности и сохранением точного описания содержимого страницы.
Вводящие в заблуждение тайтлы, даже если они повышают CTR
в краткосрочной перспективе, могут подорвать доверие пользователей и привести к негативным долгосрочным последствиям.
Для крупных корпоративных сайтов это открытие создает возможности для оптимизации через машинное обучение и автоматизированные подходы.
Проводя систематические тесты вариаций тайтлов и контента, можно отточить стратегии для максимизации прогнозируемого CTR
.
Такие инструменты как GSC
и предиктивные модели могут помочь определить, какие изменения с большей вероятностью улучшат поведенческие факторы, что позволяет принимать решения на основе данных.
@MikeBlazerX
Миллионы аккаунтов под угрозой из-за уязвимости в OAuth
от Google
Критическая уязвимость в системе аутентификации Google OAuth
, особенно в функции "Войти через Google", создает серьезные риски безопасности.
Основная проблема заключается в том, что Google OAuth
не может предотвратить несанкционированный доступ, когда кто-то покупает дроп-домен и воссоздает email
-аккаунты, соответствующие бывшим сотрудникам, потенциально подвергая риску различные подключенные сервисы и платформы.
Как используют эту уязвимость OAuth
Процесс эксплуатации включает следующие ключевые шаги:
1. Злоумышленники находят и покупают дроп-домены стартапов
2. Создают новые почтовые ящики, соответствующие аккаунтам бывших сотрудников
3. Используя "Войти через Google", получают доступ к различным платформам:
— Аккаунтам ChatGPT
— Slack
— Базам данных Notion
— Конференциям Zoom
— HR
-системам
— Различным SaaS
-платформам
Масштаб и последствия
Масштаб проблемы безопасности впечатляет:
— Более 100 000 дроп-доменов стартапов доступны для покупки
— Потенциальное влияние на более чем 10 млн пользовательских аккаунтов
— Несанкционированный доступ к чувствительным данным (номерам соцстрахования, налоговым документам, приватной переписке)
Меры безопасности и стратегии защиты
1. Для конечных пользователей:
— Ограниченные возможности защиты после ухода из компании
— Уязвимость сохраняется, если домен бывшего работодателя истекает
2. Для организаций:
1. Внедрение строгого SSO
с 2FA
2. Отказ от аутентификации по паролю
3. Усиленная верификация при сбросе пароля
3. Для SaaS
-провайдеров:
— Внедрение дополнительных методов многофакторной аутентификации
— Мониторинг выхода патча безопасности от Google
Google признал эту проблему безопасности и работает над решением.
Предлагаемый фикс включает внедрение новых неизменяемых идентификаторов в системе OAuth
:
1. Постоянная уникальная идентификация пользователя
2. Доменно-специфичный идентификатор рабочего пространства
https://trufflesecurity.com/blog/millions-at-risk-due-to-google-s-oauth-flaw
@MikeBlazerX
DoubleClickjacking
представляет собой продвинутую эволюцию традиционных кликджекинг-атак, которая использует временной интервал между двойными кликами для компрометации пользовательских аккаунтов.
Эта техника уже успешно применялась против крупных платформ, таких как Salesforce
, Slack
и Metamask Wallet
.
Атака работает путём манипуляции коротким интервалом между событиями mousedown
и onclick во время двойного клика.
Когда пользователь взаимодействует с тем, что выглядит как легитимный элемент интерфейса (например, CAPTCHA
), атака организует точную последовательность: первый клик запускает редирект через window.opener.location
, в то время как второй клик попадает на подменённый чувствительный элемент UI, такой как кнопка OAuth
-авторизации.
Техническая реализация включает несколько ключевых компонентов, работающих согласованно.
Исходная веб-страница содержит кнопку, которая вручную или автоматически открывает новое окно.
При клике это создаёт окно, запрашивающее двойной клик, одновременно перенаправляя родительское окно на целевую страницу (обычно страницу авторизации).
Первый клик из последовательности двойного клика закрывает верхнее окно, позволяя второму клику попасть на теперь уже открытую кнопку авторизации в родительском окне.
Особенно опасным DoubleClickjacking
делает его способность обходить традиционные меры безопасности, такие как X-Frame-Options
, SameSite cookies
и Content Security Policy (CSP)
.
Эти защитные механизмы были разработаны для сценариев с одиночным кликом и не могут эффективно противостоять такому более сложному подходу.
Поверхность атаки распространяется за пределы веб-сайтов на браузерные расширения и мобильные устройства, где простой "DoubleTap
" может вызвать аналогичные эксплойты.
Угроза усиливается минимальными требованиями к пользовательскому взаимодействию - достаточно простого двойного клика - и широкой применимостью на платформах, которые специально не защищены от этой уязвимости.
Реальные последствия могут быть серьёзными, потенциально предоставляя атакующим полный доступ к аккаунту, возможность извлечения конфиденциальных данных, изменения настроек или перевода средств до того, как пользователь поймёт, что произошло.
Хотя бдительность пользователей помогает, основная ответственность лежит на разработчиках и платформах в реализации более сложных механизмов обработки событий и валидации пользовательского взаимодействия, способных обнаруживать и предотвращать такие атаки, основанные на тайминге.
https://www.billhartzer.com/internet-usage/doubleclickjacking-the-stealthy-web-hack-that-could-hijack-your-accounts/
@MikeBlazerX
Классификатор товарной таксономии Google V2
https://taxonomy.dejan.ai
Вставьте ваш рекламный текст, описание товара, сниппет из SERP
, отзыв или любой другой текст, связанный с товаром.
Классификатор вернёт наиболее вероятную товарную таксономию для e-Commerce
.
@MikeBlazerX
Digital
-предпринимательство для начинающих:
— Пишите не для того, кем является читатель.
— А для того, кем читатель хочет стать.
— Продавайте не тому, кто является потенциальным покупателем.
— А тому, кем хочет стать потенциальный покупатель.
— Продавайте не тому, кем является человек.
— Но тому, кем человек хочет быть
Ваш бизнес = мост
@MikeBlazerX
Google: мы инвестируем миллиарды, чтобы наши невероятно сложные поисковые алгоритмы лучше всего показывали людям наиболее релевантную информацию.
Спамер: Я просто куплю EMD
-домен (точного соответствия) и займу место на первой странице по одному из самых популярных в мире брендов.
@MikeBlazerX
Это самый молодой миллиардер, о котором вы никогда не слышали...
Он бросил MIT
и из своей общаги построил Stripe
, компанию стоимостью $95 млрд.
Его стратегия роста была настолько ГЕНИАЛЬНОЙ, что топы PayPal
, Square
и Visa
не могли в это поверить.
Знакомьтесь: Патрик Коллисон.
В 19 лет он бросил MIT
, чтобы решить самую большую проблему интернета:PayPal
...
В 2009 году прием онлайн-платежей был настоящим кошмаром.
Интеграция PayPal
занимала 7 дней и требовала мануал на 100 страниц.
При этом компании теряли $40 млрд ежегодно из-за неудачной обработки платежей.
Патрик увидел возможность, лежащую на поверхности.
Его решение?
Сделать платежи до смешного простыми.
Всего 7 строк кода для приема платежей (PayPal
требовал 500+).
Когда Патрик показал это топам PayPal
, они рассмеялись.
"Невозможно сделать это настолько простым" - сказали они.
Но у Патрика было секретное оружие: его брат Джон.
— Оба говорили на нескольких языках
— Оба бросили учебу ради Stripe
— Оба кодили с 10 лет
Они жили на дошираке, кодили по 16 часов в день и фокусировались на одной метрике:
Счастье разработчиков.
Пол Грэм из Y Combinator
назвал их демо "подозрительно хорошим".
Питер Тиль, основатель PayPal
, был так впечатлен, что проинвестировал $2 млн.
Первый офис Stripe
?
Двушка, где 6 человек безостановочно кодили.
Их миссия: "увеличить ВВП интернета".
Вот во что верил Патрик при найме первых 10 сотрудников:
Короткое видео
2011: Публичный запуск Stripe
.
Их тайминг был идеальным:
— Shopify
набирал обороты
— Апп сторы росли как на дрожжах
— SaaS
-индустрия взрывалась
Каждому стартапу нужны были простые платежи.Stripe
был тут как тут.
Рост был безумным:
2011: обработано транзакций на $1M
2012: $100M
2013: $1B
2015: $20B
Традиционные банки называли это "новичкам везет".
Они ошибались, и вот почему:
Скриншот
Патрик понял, что сложность платежей не была необходимостью – это был просто исторический багаж.
Пока конкуренты добавляли фичи, Stripe
их убирал.
Результат: разработчики могли интегрировать платежи за минуты, а не недели.
К 2016 году Stripe
работал с:
— Lyft
— Instacart
— DoorDash
— Shopify
— Amazon
Дропаут из колледжа теперь стоил миллиарды.
Следующий ход Патрика шокировал всех, он вышел за рамки платежей в:
— Регистрацию бизнеса (Atlas
)
— Предотвращение фрода (Radar
)
— Корпоративные карты (Issuing
)
Каждый продукт упрощал очередную сложную проблему.
2021: Stripe
достигает оценки в $95 млрд
Дороже чем:
— Goldman Sachs
— BMW
— General Motors
— Target
Возраст Патрика?
Всего 32.
Самое безумное?
У Stripe
все еще меньше 1% глобальной обработки платежей.
Их миссия "увеличить ВВП интернета" только начинается.
И Патрик только разогревается.
За источником и визуалами - сюда
@MikeBlazerX
📺 Начинаете безликий канал на YouTube
?
Настоятельно рекомендую сначала оценить конкурентов в вашей нише, советует Кит.
Отслеживая всего 3 простых (публичных) метрики каждый месяц, вы получите очень полезную информацию о рынке с помощью этих 10 KPI
.
Первого числа каждого месяца используйте простую Google-таблицу для отслеживания следующих показателей по каждому каналу конкурентов:
— количество видео (на странице канала)
— количество подписчиков (на странице канала)
— общее количество просмотров (на странице "О канале")
Единственное предположение - это какой RPM
использовать.
Я использую $5.
Впрочем, это важно только для нескольких KPI
.
В общем, этого достаточно, чтобы рассчитать следующие 10 KPI
:
— Просмотры за 30 дней
— Примерный доход с AdSense
— Доход на одно видео
— Просмотры на одно видео
— Доход на 1000 подписчиков (ежемесячно)
— Просмотры на подписчика (общие)
— Среднее количество просмотров в день на видео (за последние 30 дней)
— Ежемесячные просмотры на видео
— Показатель вовлеченности (месячные просмотры как % от подписчиков)
— Средний доход на видео в день
Через пару месяцев вы четко увидите, какие каналы работают наиболее эффективно.
С помощью этих 10 базовых KPI
вы поймете, какие каналы стоит детально проанализировать, чтобы оценить, какие элементы их видео действительно резонируют с аудиторией.
@MikeBlazerX
Google использует многоуровневую систему для своего индекса.
Самый популярный контент индексируется на более быстрых и дорогих носителях, в то время как основная часть индекса хранится на более дешевой системе хранения.
Существует 3 типа хранилищ (тиры):
1. RAM
(оперативная память) – самый быстрый и дорогой вариант хранения
2. SSD
– очень быстрый и умеренно дорогой, золотая середина
3. HDD
– самый медленный, но дешевый и легко заменяемый при сбоях
Google резервирует RAM
-индексацию для контента/документов, которые с высокой вероятностью будут часто показываться в поисковой выдаче.
Объем индекса Google, обслуживаемый через быстрые хранилища (RAM
и SSD
), составляет невероятно малую часть от общего индекса.
Стабильность ранжирования и изменения
— Статус тира (уровня) может меняться с апдейтами ядра
— Даже устоявшиеся сайты первого тира могут потерять свой статус
— Накопление исторических данных влияет на сайты не первого тира
— Длительные периоды оценки для сайтов вне топ-25
Как определить свой тир в индексе?
1. Проверка задержки индексации
— Создайте Python
-скрипт для сравнения времени последней модификации в сайтмапе со временем краулинга Гуглботом
— Если Google не краулит в течение часа после изменений, вероятно, вы не в первом тире
— Это можно сделать с помощью промпта в ChatGPT
2. Частота краулинга HTML
— Отслеживайте, сколько раз в день Google краулит HTML
-страницы
— Если краулинг меньше 40 раз в день на HTML
-страницу, вероятно, вы не в первом тире
— Фокусируйтесь на HTML
-файлах, а не на CSS
или JS
3. Рич сниппеты
— Отсутствие рич сниппетов указывает на то, что вы не в первом тире
— Похоже, существует "бюджет ранжирования" или лимит на рич сниппеты в зависимости от вашего тира
— Даже с отличным контентом может быть невидимый потолок по количеству рич сниппетов
4. Юзер-агент "Google Other
"
— Проверьте лог-файлы на наличие юзер-агента "Google Other
"
— Его присутствие указывает на статус первого тира
— Используется для исследований и разработки
5. Дополнительные индикаторы
— Тестирование новых SERP
-фич
— Больше SERP
-фич, чем у конкурентов
— Полная индексация изображений (проверяйте через оператор SRC:
в Google Images
)
— Толерантность к мелким техническим проблемам
— Ранжирование в топ-25 (получает особое отношение, например, PageRank
)
Преимущества нахождения в первом тире
1. Алгоритмические и процессинговые преимущества
— Более быстрая индексация и частый краулинг
— Доступ ко всем алгоритмам Google
— Лучшая толерантность к техническим проблемам
— Особое отношение со стороны дата-центров
— Приоритет в обработке алгоритмами
— Применение PageRank
(только для топ-25 из-за вычислительной сложности)
— Все алгоритмы "работают на вас"
— Более быстрая выдача результатов
2. Особое отношение
— Более частый краулинг
— Высокая толерантность к техническим проблемам или "косякам"
— Использование разных дата-центров и алгоритмов
— Более быстрая оценка и внедрение изменений
3. Обработка данных
— Мгновенный доступ к важным алгоритмам вроде PageRank
(для топ-25)
— Отсутствие периода ожидания для оценки исторических данных
— Ускоренная обработка и оценка
@MikeBlazerX
Кейс миграции T-Online
Когда T-Online переносили региональный контент Гамбурга с www.t-online.de/region/hamburg/
на hamburg.t-online.de/region/hamburg/
, они столкнулись с неожиданной проблемой:
Гугл продолжал показывать URL
-ы со старым www
даже для новых статей, которых никогда не существовало на старом домене.
Это происходило несмотря на:
— Корректно настроенные 301
редиректы на серверном уровне
— Правильно прописанные каноникал теги и og:url
— Обновленные сайтмапы и фиды
— Отсутствие джаваскрипт-редиректов
В итоге первопричину нашли в настройках Google News
, где невозможность обновить основной URL
(из-за отказа Гугла от ручного управления публикациями) вызывала проблемы с индексацией.
Трафик начал восстанавливаться только после того, как саппорт Гугла вручную поменял основной URL
.
Похожий опыт HubSpotHubSpot
столкнулся с аналогичными проблемами при миграции www.hubspot.com/agencies
на новый поддомен:
— Изначально успешный перенос со 100% передачей трафика в первую неделю
— Резкое падение трафика, длившееся 3-6 месяцев
— Старые URL
-ы с www
оставались в индексе около года
— Путаница с тайтлами между старыми и новыми URL
— Снижение краулингового бюджета на новом поддомене
@MikeBlazerX
Действительно ли косинусное сходство - новый золотой стандарт SEO?
В последнее время появляется больше сеошников, которые полностью сфокусировались на новом хайпе вокруг эмбеддингов и косинусного сходства.
Это типично для SEO-индустрии.
Новый хайп - и все должны быть в теме.
Если внимательно рассмотреть различные методы ранжирования современных поисковых систем, их плюсы и минусы, становится ясно, что лучшее решение - это гибридное использование разных методов ранжирования, а не какой-то один метод.
📍BM25
- это вероятностная функция ранжирования, которая использует частоту термина, обратную частоту документа и длину документа для ранжирования результатов поиска на основе соответствия ключевым словам.BM25
имеет относительно низкие вычислительные затраты, что делает его идеальным для масштабных поисковиков, где скорость критически важна.
📍Векторное ранжирование (Vector Ranking) представляет документы и поисковые запросы как векторы в многомерном пространстве, используя косинусное сходство для определения релевантности.
Векторное ранжирование имеет умеренные вычислительные затраты.
📍Семантическое ранжирование (Semantic Ranking) использует продвинутые языковые модели типа BERT
для понимания контекстуального значения запросов и документов, фокусируясь на семантических связях, а не просто на совпадении ключевых слов.
Семантическое ранжирование имеет самые высокие вычислительные затраты, так как использует сложные модели глубокого обучения вроде BERT
, которым требуется значительная вычислительная мощность для понимания контекста и семантического значения.
Именно поэтому оно часто используется в комбинации с более быстрыми методами типа BM25
.
Гибридные решения для ранжирования комбинируют несколько методов ранжирования чтобы использовать их сильные стороны и обеспечивать более точные результаты поиска.
Наиболее эффективные гибридные подходы включают:BM25
+ Semantic Ranking
: Использует BM25
для начальной фильтрации по ключевым словам с последующим семантическим анализом с помощью моделей типа BERT
.
Это обеспечивает как скорость, так и контекстуальную точность.
Реальный пример: Google Search комбинирует матчинг ключевых слов с BERT
для лучшего понимания поисковых запросов.Vector
+ BM25
Ranking: Применяет начальное ранжирование BM25
с последующим анализом векторного сходства.
Пример: Поиск товаров на Amazon
использует этот гибридный подход для поиска похожих товаров на основе как совпадений ключевых слов, так и векторов характеристик товаров.
Гибриды на основе машинного обучения: Используют ML
-модели для динамического комбинирования различных методов ранжирования в зависимости от типа запроса и поведения пользователей.
Ключевые стратегии реализации включают агрегацию скоров (взвешенная комбинация скоров разных моделей), каскадирование (последовательное применение моделей) и подходы Learning to Rank
(LTR), которые оптимизируют комбинацию множества сигналов ранжирования.
Вывод: Косинусное сходство подходит не для всех задач в процессе ранжирования.
Если хотите узнать больше, можете покопаться тут:
https://www.kopp-online-marketing.com/ranking-methods-for-modern-search-engines
Удачных исследований
@MikeBlazerX
"Смотрите это видео про „До-AI
SEO против пост-AI
SEO“ каждую неделю в 2025 году, пока у вас не войдет в привычку задаваться вопросом „почему для этого нет системы?“, а затем стройте прототип", — сказал своей команде Уил Рейнольдс
Вот о чем говорилось в видео:
Как автоматизировать SEO-процессы с помощью ИИ и системного мышления
Современное SEO требует переосмысления подхода к типовым задачам через призму автоматизации и построения систем.
Вместо выполнения однотипной ручной работы, сеошники могут использовать ИИ для создания автоматизированных воркфлоу по ключевым процессам, таким как определение канибализации контента, технические SEO-аудиты и создание контента.
Канибализация контента остается серьезной проблемой, поскольку Google не предоставляет четких метрик для её оценки.
Когда несколько страниц таргетируются на один и тот же ключ или пользовательский интент, они могут начать конкурировать друг с другом, что приводит к падению позиций всех страниц.
Есть инструменты, которые предлагают шаблоны, которые могут автоматически анализировать существующий контент на основе списков ключей для выявления потенциальных проблем с канибализацией.
Эта автоматизация помогает определить, стоит ли объединять страницы в комплексные статьи или разделять их с различными фокусными точками.
Техническое SEO-аудирование также можно оптимизировать через автоматизированные системы.
Вместо того чтобы вручную запускать ежемесячные краулы и просматривать списки ошибок, сеошники могут настроить регулярные краулы с ИИ-оценкой результатов.
Система может быть настроена на приоритезацию определенных проблем - например, помечать 404
ошибки как высокоприоритетные, составлять списки затронутых URL
и предлагать альтернативные страницы для редиректа входящих ссылок.
Что касается создания контента, хотя сбор семантики всё еще может требовать человеческого контроля, большую часть процесса можно автоматизировать с помощью таких инструментов как AIR
Ops
для генерации первых драфтов.
Ключевой момент – фокусироваться на улучшении системы, а не на бесконечной доработке отдельных материалов.
Вместо ручного редактирования автоматически созданного контента, сеошникам следует документировать улучшения, абстрагировать их в правила и возвращать обратно в систему в виде промптов - например, гайдлайны против использования вычурного языка или чрезмерных обещаний.
Такой системный подход к улучшениям автоматически создает более качественные результаты в будущем.
Переход к системному мышлению и автоматизации в SEO требует другого образа мышления.
Вместо оптимизации отдельных результатов, успех приходит через создание и улучшение автоматизированных воркфлоу, которые стабильно производят качественные результаты в масштабе.
@MikeBlazerX
Самый важный фактор ранжирования в Pinterest
- сохранения пинов.
Чем больше сохранений получает ваш пин, тем активнее Pinterest
его продвигает.
Вот эффективная система для увеличения сохранений 👇
1. Почему сохранения важны
💡Сохранения сигнализируют Pinterest
, что ваш пин достоин распространения.
Каждое сохранение улучшает:
✅ Видимость в поисковой выдаче
✅ Размещение в домашней ленте пользователей
✅ Общий охват
Это главный сигнал качества и релевантности контента.
2. Психология сохранений
Сохранение означает, что пользователь настолько заинтересовался, что хочет вернуться к вашему контенту позже.
💡Даже если они никогда не вернутся, важен потенциал будущей ценности пина.
Поэтому создание контента, который хочется сохранить - ключ к успеху на Pinterest
.
3. Шаг 1 – Создавайте визуально привлекательные пины
Пользователи Pinterest
ориентированы на визуал, поэтому ваши пины должны выделяться.
Сфокусируйтесь на:
✔️ Изображениях высокого качества
✔️ Четких, читаемых текстовых оверлеях
✔️ Понятных СТА (например, "Сохранить на потом")
💡Визуально привлекательные пины получают больше внимания и сохранений.
4. Шаг 2 – Таргетируйтесь на правильные ключи
Алгоритм Pinterest
использует ключевики для категоризации и показа пинов.
Убедитесь, что заголовки и описания пинов включают:
✅ Популярные поисковые запросы
✅ Длиннохвостые запросы
✅ Официальные "интересы"
💡Пример: Вместо "Крутые рецепты" используйте "Простые рецепты ужина в одной кастрюле"
5. Шаг 3 – Добавляйте ценность в контент
Люди сохраняют пины, которые полезны или вдохновляют.
Спросите себя:
➡️ Решает ли это проблему?
➡️ Вдохновляет или мотивирует ли это?
➡️ Сезонный ли это контент или в тренде?
💡Пины, отвечающие "да" на эти вопросы, чаще сохраняются.
6. Шаг 4 – Соответствуйте интересам PinterestPinterest
использует базу "интересов" для сопоставления пинов с пользователями.
Для увеличения сохранений:
1️⃣ Используйте конкретные ключи, основанные на интересах
2️⃣ Выбирайте трендовые темы в вашей нише
3️⃣ Оптимизируйте названия досок под интересы
💡Пример: Замените "Мои идеи" на "Бюджетные идеи для декора дома"
7. Шаг 5 – Тайминг имеет значение
Публикуйте пины, когда ваша аудитория наиболее активна.
➡️ Пользователи Pinterest
наиболее активны вечером и по выходным
➡️ Привязывайте контент к сезонам или трендам (например, новогодний декор в декабре)
💡Своевременный контент = Больше сохранений
8. Шаг 6 – Оптимизируйте доски
Ваши доски дают Pinterest
контекст о ваших пинах.
✔️ Используйте названия досок с ключевиками
✔️ Добавляйте детальные описания досок
✔️ Регулярно обновляйте доски новыми пинами
💡Активные, хорошо организованные доски повышают шансы на сохранение пинов
9. Шаг 7 – Стимулируйте вовлечение
Просите аудиторию сохранять ваши пины.
✅ Добавляйте СТА типа "Сохраните на потом!"
✅ Делитесь пинами в групповых досках для дополнительной видимости
✅ Продвигайте пины на других платформах (например, в Инстаграме, рассылках)
💡Больше видимости = Больше возможностей для сохранений
@MikeBlazerX
Ранжирование в поисковиках сводится к шести фундаментальным компонентам, которые работают вместе в сложной системе.
Эти компоненты выходят за рамки простого SEO - они представляют собой общие факторы, влияющие на ранжирование во всех поисковиках.
Шесть ключевых компонентов:
1. Тематичность - включая аспекты оперативности и уникальность информации
2. Популярность - становится все важнее с развитием ИИ
3. Каноникализация - управление дублями и структурой URL
4. Консолидация - объединение и усиление связанных сигналов
5. PageRank
- основная метрика авторитетности, основанная на ссылках.
6. Поведенческие метрики - пользовательские взаимодействия и поведенческие сигналы
Сложность системы заключается в том, как эти компоненты взаимодействуют между собой.
Например, когда Тематичность объединяется с PageRank
, получается тематически чувствительный PageRank
.
Сочетание Тематичности с Популярностью дает так называемый NavBoost
.
Аналогично, Популярностью плюс PageRank
создают RankMerge
.
В перспективе 2025 года Популярностью будет играть все более важную роль благодаря развитию ИИ.
Однако речь идет не просто о "сырой" Популярности - она должна сочетаться с другими компонентами, такими как PageRank
или Тематичность, чтобы быть эффективной.
Гугл работает как сложная адаптивная система, которая подстраивается под поведение юзеров, а значит успешное SEO требует понимания того, как сочетать естественные и стратегические поведенческие сигналы.
Утечки из API
Гугла показали, что они хранят данные о кликах в течение 13 месяцев, что объясняет, почему сайтам, попавшим под апдейты вроде HCU
, требуется значительное время на восстановление - им нужно накопить новые положительные поведенческие сигналы.
Для новых или низкотрафиковых страниц Гугл в первую очередь фокусируется на Тематичности при начальном ранжировании, а затем постепенно включает Поведенческие метрики по мере накопления данных о пользовательских взаимодействиях.
С практической точки зрения, эффективное SEO требует манипулирования этими компонентами без ограничений, будь то через техническую оптимизацию, контент-стратегию или поведенческие сигналы.
Ключ к успеху - понимание того, как эти элементы работают вместе, и их грамотное использование для целей ранжирования.
@MikeBlazerX
Дорогой Amazon
, я купила стульчак для унитаза, потому что он мне был нужен.
По необходимости, а не по прихоти.
Я их не коллекционирую.
Я не зависима от стульчаков.
И как бы заманчиво вы ни писали мне на почту, я не стану думать: "Ну, давай, возьму еще один стульчак, побалую себя".
@MikeBlazerX
Seer Interactive
провели комплексное исследование по изучению факторов, влияющих на упоминание брендов в ответах языковых моделей ИИ, с особым фокусом на корреляцию между поисковой видимостью и упоминаниями в ИИ.
Методология включала несколько ключевых этапов:
— Сбор более 300 000 ключевиков в финансовом и SaaS
-секторах из платных и органических источников
— Анализ позиций в выдаче Гугла и Бинга по этим запросам
— Особый фокус на вопросах, которые естественным образом могли триггерить упоминания брендов (например, "Какая CRM лучше для малого бизнеса?" вместо общих how-to
запросов)
— Извлечение почти 600 000 вопросов из блока "Люди также спрашивают" (PAA
), суженных до 10 000 релевантных кверей
— Прогон этих вопросов через API GPT4
от OpenAI
для отслеживания упоминаний брендов
— Создание специального ключа для связывания упоминаний брендов с соответствующими доменами
— Интеграция данных LLM
с данными СЕРПов и связями бренд-домен
Ключевые находки выявили несколько неожиданных корреляций:
— Сильная корреляция (примерно 0.65) между топ-10 Гугла и упоминаниями брендов в LLM
— Средняя корреляция (0.5-0.6) для позиций в Бинге
— Неожиданно слабая или нейтральная корреляция с бэклинками
— Ограниченное влияние разнообразия мультимедийного контента
Исследовательская команда внедрила важное уточнение, отфильтровав "шумовые" сайты (форумы, соцсети, агрегаторы) для фокуса на контенте, ориентированном на решения.
Эта фильтрация усилила корреляцию между позициями и упоминаниями в LLM
для легитимных провайдеров решений.
Исследование показало, что хотя поисковые позиции существенно влияют на упоминания брендов в LLM
, они не являются единственным определяющим фактором.
Команда отметила, что дополнительные факторы, такие как PR
, партнерства и он-пейдж факторы требуют дальнейшего изучения в последующих фазах исследования.
https://www.seerinteractive.com/insights/what-drives-brand-mentions-in-ai-answers
@MikeBlazerX
Новое исследование использования GPT-4
в качестве репетитора среди учащихся в Нигерии.
6 недель дополнительных занятий с AI
-репетитором = прогресс в обучении, эквивалентный 2 годам обычного образования, превзойдя эффективность 80% других образовательных методик.
Что особенно важно - положительный эффект наблюдался у всех учащихся, но особенно заметные результаты показали девочки, которые изначально отставали в учебе.
https://blogs.worldbank.org/en/education/From-chalkboards-to-chatbots-Transforming-learning-in-Nigeria
-
А что вам мешает научится чему-то новому?
@MikeBlazerX
SEO на Amazon скоро серьезно пошатнется:
Amazon вводит новые правила для заголовков товаров, чтобы сократить спам и улучшить качество поиска.
Основные изменения:
1. Заголовки ограничены 200 символами (включая пробелы).
2. Запрещены специальные символы.
3. Повторение одного термина более двух раз запрещено.
Цель — снизить переоптимизацию, когда продавцы добавляют в заголовки множество ключевых слов для ранжирования.
Это может привести к масштабным изменениям в SEO на платформе.
С одной стороны, это может улучшить пользовательский опыт, с другой — возможно негативное влияние на ранжирование товаров.
Это также может помочь прорваться в топ другим сайтам...
Ситуацию стоит отслеживать, особенно тем, кто работает с коммерческим поиском.
https://sellercentral.amazon.com/seller-forums/discussions/t/b2b15728-0d43-453e-974f-59eb63f73059
@MikeBlazerX