Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Мальте Ландвер спросил у нескольких LLM
про топ-5 брендов беговых кроссовок.
1️⃣ Предвзятость к брендам:Gemini-2.0-Flash
не любит Nike
и Adidas
, но фанатеет от Hoka
.Claude-3-Opus
тоже не рекомендует Adidas
.
Обе эти модели рекомендуют Saucony
гораздо чаще, чем любые другие модели!Mistral-Large
меньше всего рекомендовал New Balance
среди всех моделей. И только он рекомендовал Under Armor
и Merrell
.
2️⃣ Консистентность и вариацииGemini-2.0-Flash
была единственной моделью, которая отвечала одинаково каждый раз.Mistral-Large
был единственной моделью, которая не была консистентной в своей рекомендации №1. Все остальные модели всегда отвечали одними и теми же брендами на позициях 1 и 2.Mistral-Large
также был единственной моделью, которая рекомендовала в общей сложности 8 разных брендов.Gemini-2.0-Flash
и GPT-4.5-Preview
всегда рекомендовали одни и те же 5 брендов.
Другие модели рекомендовали в общей сложности 6 или 7 брендов.
3️⃣ Интерпретация
Хотя точный результат будет варьироваться в зависимости от ваших промптов и, возможно, истории вашего аккаунта, интересно видеть, насколько модели не согласны друг с другом.
Разница в результатах означает, что вам, вероятно, стоит начать отслеживать видимость вашего бренда в LLM
.
4️⃣ Методология
Промпты были запущены через API
. Локация - США. Каждый промпт был запущен 10 раз.
Без граундинга или веб-поиска. Так что ответы приходят от базовой модели. Во многих реальных сценариях такие промпты получили бы ответ с использованием RAG
.
-
Затем Мальте запустил еще и детальный промпт (10 раз для каждой модели).
На этот раз он смотрел только на "упоминается ли бренд" и игнорировал сортировку.
Наблюдения:
— Модели согласны только по двум брендам (Asics
и Brooks
)
— Только Mistral-Large
рекомендовал Adidas
. И делал это в 9 из 10 ответов!
— Есть 3 бренда (Saucony, Hoka, Nike
), которые имеют 100% видимость в некоторых моделях и 0% видимость в других.
Скриншот
@MikeBlazerX
Я постоянно замечаю сайты, которые проставляют hreflang
теги вот так, как в скриншоте, пишет Ян Каерелс.
Я абсолютно уверен, что абсолютный URL
— это то, что нужно/рекомендуется.
Но может ли Google справиться с обработкой такого значения href
?
Пытаюсь понять, стоит ли тратить время на создание дев-таски.
-
Мартин Шплитт:
А, протокольно относительные урлы.
Они норм, но если есть возможность, указывайте протокол.
Я бы не стал открывать тикет из-за этого, но, может быть, в будущем постарайтесь делать ссылки с протоколом.
@MikeBlazerX
Google не просто читает ваш контент — он создает векторные эмбеддинги как для вашего текста, так и для ваших изображений.
Эмбеддинги помогают Google понимать язык на странице, но мало кто осознает, что он делает то же самое с визуальным контентом — и сравнивает его с вашим текстом и ключевыми словами.
У Google есть бесплатный публичный инструмент, который позволяет загружать два изображения и видеть, насколько они визуально или семантически похожи, используя косинусную близость.
На скриншоте ниже мы сравнили два AI
-генерированных изображения, которые имеют схожие темы (зеленые гоблины, хаос и деньги) — но модель Google все равно оценивает их сходство только на 0.34 по косинусной близости, пишет Дан Хинкли.
Так что это значит для сеошников?
— Если ваши изображения не соответствуют теме или не усиливают интент ключевых слов, Google может это обнаружить.
— Если вы используете декоративные, стоковые или не по теме визуалы, есть вероятность, что они вредят больше, чем помогают.
— Это еще одна причина думать о релевантности изображений, а не только об альт-текстах или именах файлов.
Это добавляет новый слой оптимизации контента: действительно ли ваш визуальный контент поддерживает ваш тематический авторитет?
Вы уже изучали, как Google обрабатывает эмбеддинги изображений?
Попробуйте сами: https://mediapipe-studio.webapps.google.com/studio/demo/image_embedder
Гайд: https://ai.google.dev/edge/mediapipe/solutions/guide
@MikeBlazerX
Regex Manager - расширение для Chrome
- ваша персональная библиотека регулярных выражений прямо в браузере.
Идеально подходит для GSC, GA4
, веб-разработки, тестирования и многого другого!
Что оно делает:
* Сохраняет ваши регулярные выражения с заголовками, описаниями и категориями
* Кликните в любое поле ввода или текстовую область на веб-странице, откройте расширение и вставьте сохраненный паттерн одним кликом.
* Создавайте, редактируйте, удаляйте паттерны. Копируйте паттерны в буфер обмена.
* Импортируйте/экспортируйте вашу библиотеку через CSV
.
Почему?
* Экономия времени - больше не нужно искать в заметках или перепечатывать сложные паттерны.
* Снижение ошибок - используйте ваши протестированные и валидированные регекспы каждый раз.
https://chromewebstore.google.com/detail/regex-manager/mdcmehmegkigaonhnjhpcigplhjeohim
@MikeBlazerX
Похоже, что инструмент проверки URL
в GSC
устанавливает дневную квоту отправок "на аккаунт Google", а не "на домен".
Я отправил 10 URL
(новых страниц) на одном домене и достиг лимита квоты, пишет Билл Хартзер.
Но затем перешёл к домену другого клиента, в том же аккаунте Google, и не смог отправить - потому что уже исчерпал квоту.
Я не отправлял никаких URL
на том домене больше месяца.
Сталкиваетесь ли вы с той же проблемой достижения квоты "на аккаунт", а не "на домен"?
-
То, что Google вводит лимит на проверку страниц, сделает SEO намного, намного сложнее...
@MikeBlazerX
Бринна была озадачена, потому что заметила расхождение между данными GSC
и своими серверными логами.
Консоль показывала, что Google обращался к определенной странице в конкретную дату и время, но она не смогла найти соответствующую запись в своих лог-файлах, даже с учетом разницы часовых поясов и проверки соседних дней.
Она исследовала эту проблему в контексте падения краулингового бюджета от Google после запуска теста на нескольких страницах и пыталась определить дальнейшие шаги.
Джон Мюллер предложил кликнуть на "view crawled page
" / "more info
" / "http response
", чтобы увидеть, что сервер ответил в тот момент.
Он объяснил, что иногда GSC
показывает более старую дату, что может указывать на то, что Google просто проверил кэш или сделал HEAD
или if-modified-since
запрос, чтобы увидеть, изменилась ли страница, вместо того, чтобы делать полный краулинг.
Он предоставил скриншот-пример с одного из своих собственных URL
-ов сайта, показывающий ту же проблему, с которой столкнулась Бринна.
Джон упомянул, что такая ситуация иногда случается, и пояснил, что обычно никаких действий не требуется, если не были внесены изменения на странице (в этом случае отправка её на индексацию могла бы помочь).
Райан Сиддл спросил, смотрит ли Бринна логи, ближайшие к её точке входа.
Он указал, что у клиентов часто бывает несколько уровней логирования, и если используются сервисы типа Akamai
в качестве WAF
, то извлечение логов из внутренних Apache/Nginx/Vercel может не показывать доступ Google, если запросы кэшируются или не проходят через эти системы.
Бринна сказала, что она смотрела логи Cloudflare
, которые, как она полагала, были их первой линией логирования, но признала, что было бы хорошо перепроверить это.
@MikeBlazerX
Хотели ли вы знать, какие запросы Google от вас скрывает в GSC?
Те, которые они называют "анонимными запросами".Ahrefs
сопоставили свои данные с данными GSC
, и теперь вы можете видеть эту информацию в отчете "Анонимизированные запросы" в разделе GSC
.
Они планируют сделать то же самое с отчетом поисковых запросов Google Ads
.
Правила анонимных запросов Google излишне широкие.
По их определению, это запросы, которые не искались более 30 раз за последние 13 месяцев 30 отдельными авторизованными пользователями.
Руководитель DuckDuckGo
однажды сказал, что это исключает ~99% хвостовых запросов.
Это поможет вам заполнить некоторые из этих пробелов.
@MikeBlazerX
🚀 Влияет ли скорость загрузки страницы на ранжирование? 🚨
Я провел эксперимент с ноября прошлого года, говорит Джошуа Клэр-Флэгг.
Я создал 2 лендинга; оба с абсолютно одинаковым контентом.
Один был медленный, другой быстрый - с доменами, к которым добавлены суффиксы -s и -f соответственно.
Что показывает Google Search Console
для этих страниц?
Быстрая страница получает на +1650% больше кликов и на +1033% больше показов, а также лучшую кликабельность и более высокую среднюю позицию.
Да, я понимаю, что цифры здесь скромные - но это действительно показывает, что Гугл приоритезирует более быстрые страницы, даже в небольшом масштабе!
@MikeBlazerX
Изощренная фишинговая атака в Google с эксплуатацией уязвимостей инфраструктуры
Недавно я стал целью крайне изощренной фишинговой атаки, и хочу обратить на это внимание, пишет Ник.
Она эксплуатирует уязвимость в инфраструктуре Google, и, учитывая их отказ исправить её, мы, вероятно, будем видеть это всё чаще.
Первое, что стоит отметить — это валидное, подписанное письмо — оно действительно было отправлено с no-reply@google.com
.
Оно проходит проверку DKIM
-подписи, и Gmail
отображает его без каких-либо предупреждений — он даже помещает его в одну переписку с другими легитимными оповещениями безопасности.
Ссылка Sites
ведет на очень убедительную страницу "портала поддержки".
Они умно использовали sites.google.com
, потому что знали, что люди увидят домен google.com
и посчитают его легитимным.
Клик по "Загрузить дополнительные документы" или "Просмотреть обращение" ведет на страницу входа — точную копию настоящей; единственный намек на фишинг в том, что она размещена на sites.google.com
вместо accounts.google.com
.
Оттуда они собирают ваши учетные данные для компрометации аккаунта.
Так как же им это удалось — особенно валидное письмо?
Это связано с двумя уязвимостями в инфраструктуре Google, которые они отказались исправить.
Поддельный портал сделан довольно просто.sites.google.com
— это устаревший продукт из времен, когда Google еще не так серьезно относился к безопасности; он позволяет пользователям размещать контент на поддомене google.com
и поддерживает произвольные скрипты и встраивания.
Это делает создание сайта для сбора учетных данных тривиальным; атакующие просто загружают новые версии по мере блокировки старых.
В интерфейсе Sites
нет возможности сообщить о злоупотреблении.
Google осознал, что размещение публичного, заданного пользователями контента на google.com
проблематично, но Google Sites
по-прежнему существует.
Им необходимо отключить скрипты и произвольные встраивания в Sites
, так как это слишком мощный вектор фишинга.
Техника с письмами более изощренная и явно является проблемой безопасности.
Ключевые подсказки в заголовке: хотя письмо подписано accounts.google.com
, оно было отправлено через privateemail.com
и послано на 'me@blah
'.
Ещё одна подсказка: под фишинговым сообщением есть пробелы, за которыми следует "Google Legal Support
получил доступ к вашему аккаунту Google" и опять же странный email-адрес me@...
Атакующие:
1. Регистрируют домен и создают аккаунт Google для 'me@domain
'
2. Создают OAuth
-приложение Google с полным фишинговым сообщением в качестве названия, за которым следуют пробелы и "Google Legal Support
"
3. Предоставляют своему OAuth
-приложению доступ к их аккаунту Google 'me@...
', генерируя легитимное сообщение 'Оповещение безопасности'
4. Пересылают это сообщение жертвам
Поскольку DKIM
проверяет только сообщение и заголовки (но не конверт), оно проходит валидацию подписи и выглядит легитимным — даже в одной переписке с реальными оповещениями безопасности.
Имя пользователя 'me@
' заставляет Gmail
отображать, что сообщение было отправлено на 'me
', что является сокращением для вашего собственного email
-адреса, избегая еще одного красного флага.
Google отклонил отчет об ошибке как "Работающий как задумано" и не считает это проблемой безопасности.
Пока они не изменят своего мнения, будьте бдительны к обманчивым оповещениям безопасности от Google.
@MikeBlazerX
SEO-эффект от обогащения содержимого страниц
Ритейлер электронной коммерции рассматривал возможность удаления своих страниц с устаревшей информацией о питательной ценности продуктов и редиректа их на страницы с подробным описанием товаров (PDP
).
Что они сделали:
Вместо удаления этих страниц SearchPilot
протестировал их улучшение путем:
- Добавления таблиц спецификаций, аналогичных тем, что есть на PDP
- Включения информации о связанных продуктах
- Внедрения существующего контента с PDP
и дополнительных структурированных данных
Результаты:
- 20% увеличение органического трафика на улучшенные страницы с информацией о питательной ценности
- 24.5% рост кликабельности для улучшенных страниц
- Контрольная группа (неизмененные страницы) показала снижение CTR
на 28% за тот же период
Этот тест изменил стратегию клиента с планирования вывода этих страниц из эксплуатации на реинвестирование в них, демонстрируя, что улучшение тонкого контента может быть более ценным, чем его удаление.
https://www.searchpilot.com/resources/case-studies/the-seo-impact-of-enriching-page-content
@MikeBlazerX
Ключевые отличия между оригинальными рекомендациями Google HCU
2022 года и текущими рекомендациями 2025 года включают:
— Добавление пользовательского опыта как фактора ранжирования
— Эволюция от E-A-T
к E-E-A-T
(добавление "Опыта")
— Новый фреймворк "Кто, Как и Почему" для оценки контента
— Более строгие правила касательно манипулятивных практик, таких как изменение дат
— Расширенное определение экспертности, включающее "написано или проверено" экспертами
— Явные рекомендации по контенту, сгенерированному с помощью ИИ
— Структурные изменения в самих рекомендациях
К 2025 году Google делает акцент на целостном пользовательском опыте помимо просто качественного контента, практических знаниях из первых рук наряду с экспертностью, прозрачности через фреймворк "Кто, Как и Почему", реальной ценности вместо манипулятивных тактик и гибкости в моделях экспертности.
Поскольку Доверие является самым важным фактором EEAT
, именно отсутствие доверия выступает главным рычагом, который уничтожает позиции сайтов в выдаче.
Эти сайты были систематически уничтожены СПАМ-апдейтами.
Google явно определяет доверие как основу E-E-A-T
: "Из всех этих аспектов доверие является наиболее важным"
Дэнни Салливан подтверждает: "Сигналы качества — такие как полезность — имеют большее значение, и асессоры помогают нам измерять это"
Google подчеркивает важность прозрачности авторства: "То, что помогает людям интуитивно понимать E-E-A-T контента — это когда ясно, кто его создал... Мы настоятельно рекомендуем добавлять точную информацию об авторстве."
Отсутствие прозрачного указания авторства, владельца или редакционного надзора фундаментально влияет на доверие и полезность, негативно сказываясь на позициях
Сайты, которым не хватает доверия, по своей сути лишены E-E-A-T
и классифицируются как СПАМ
У вас не может быть "полезного контента", если вы не проходите проверку по сигналу качества "Полезность".
Согласно рекомендациям Google, полезность требует:
— Цель ("Почему был создан этот контент?"): Контент должен в первую очередь помогать людям, а не манипулировать позициями в поиске
— Ясность ("Кто создал контент?"): Авторство должно быть очевидным с указанием имени автора и информации о нем
— Прозрачность ("Как был создан этот контент?"): Процесс создания контента должен быть открыто описан, особенно при использовании автоматизации или ИИ
— Качество и оригинальность: Контент должен быть оригинальным, существенным, содержательным и полным
— Удовлетворительный пользовательский опыт: Включая читабельность, дизайн, производительность и компоновку
— Более высокие стандарты для YMYL
-тем
— Целостная оценка по нескольким факторам
Разница между HCU
и октябрьским Спам-апдейтом:
— HCU
: Корректировки для доменов, злоупотребляющих тематическим авторитетом или публикующих неоригинальный контент
— Спам-апдейты: Нацелены на понижение целых сайтов на основе доверия, идентичности или предполагаемых манипуляций
Восстановление требует определения, обеспечения прозрачности и верификации вашей сущности
Улучшения только контента недостаточно; вы должны исправить свою сущность, четко установив, кто стоит за вашим сайтом, подтвердив свою цель и право собственности, и соответствуя логике асессоров.
Раздел 2.5.2 Руководства по оценке качества поиска Google требует ясности в отношении сущности/владельца, стоящего за сайтом, автора каждого материала и проверяемых контактных данных
Несоблюдение этого вызывает негативные оценки, даже если ваш контент хорош.
Чтобы эффективно ранжироваться, вы должны явно публиковать свое юридическое лицо или личность, предоставлять четкие контактные данные, заявлять о редакционной ответственности и использовать структурированные данные для последовательного подтверждения деталей сущности
Это обеспечивает соответствие юридическим требованиям и снижает воспринимаемый риск для Google.
https://www.hobo-web.co.uk/the-google-hcu-helpful-content-update-helpfulness/
@MikeBlazerX
Вы можете использовать ИИ от Google для получения информации из контента, скрытого за пейволами.
Просто поместите название в кавычки и вежливо попросите.
Это ещё один пример того, как Google не проявляет никакого уважения к интеллектуальной собственности издателей.
@MikeBlazerX
Прямо сейчас тысячи спамеров "деанонят" себя.
Их аккаунты в ChatGPT
были заблокированы.
Но их скрипты всё ещё работают.
Поэтому каждый пост в блоге, каждый пост на реддите, каждый ответ в X - одинаковые.
Сообщение об ошибке, говорящее, что их аккаунт деактивирован.
Ошибка: OpenAI аккаунт, связанный с этим API ключом, был деактивирован. Если вы разработчик этого приложения OpenAI, пожалуйста, проверьте вашу почту для получения дополнительной информации. Если вы видите эту ошибку при использовании другого приложения или сайта, пожалуйста, обратитесь к ним за помощью.
"Google подтверждает, что вы не можете добавить EEAT
на свои веб-страницы"
2 дня спустя:
"Как применить E-E-A-T
к вашему сайту и улучшить он-пейдж SEO"
@MikeBlazerX
AI Title Analyzer
анализирует топ-100 результатов поиска, извлекает ключевые слова и использует ChatGPT/Claude для генерации оптимизированных вариантов мета-тайтлов.
https://github.com/jefflouella/ai-title-analyzer
@MikeBlazerX
Самое базовое объяснение подсчета запросов для SEO
Вот почему это так эффективно:
1. В SEO БОЛЬШИНСТВО ЛЮДЕЙ, которые имплементируют изменения на странице, меняют контент, строят ссылки, обычно отслеживают позиции для ИЗМЕРЕНИЯ эффекта.
НО, если вы отслеживаете 10, 20, 30, 50, 100 ключевых слов — это в целом неэффективно, потому что если страница показывается по сотням или даже ТЫСЯЧАМ ключевиков, вы не видите полной картины.
2. Подсчет запросов — это ВИЗУАЛЬНЫЙ способ определить "ВЕС СТРАНИЦЫ".
Вы буквально можете видеть вес страницы с течением времени.
Обычно если контент НАБИРАЕТ ОБОРОТЫ, количество запросов может увеличиваться, и точно так же вы можете идентифицировать стагнацию или снижение.
3. Вы можете ВИЗУАЛИЗИРОВАТЬ траекторию страницы задолго до того, как она начнет генерировать клики.
Если вы пытаетесь продвинуть страницу по конкурентным запросам, у которых более высокий порог входа, т.е. ТРАСТ, ВРЕМЯ + АВТОРИТЕТ — вы можете визуализировать вес вашей страницы со временем и структуру линии подсчета запросов, т.е. позиции 1-3, 4-10.
Если вы:
СТРОИТЕ ССЫЛКИ
ОПТИМИЗИРУЕТЕ КОНТЕНТ
ДЕЛАЕТЕ УЛУЧШЕНИЯ СТРАНИЦЫ
Вы можете визуализировать влияние вашей работы и уменьшить догадки.
Конечно, есть и нюансы, такие как:
1. Избыток запросов МОЖЕТ также возникать в результате переоптимизации или переусердствования с контентом, создавая размытие
2. Обновления Google могут естественным образом оказывать значительное влияние на воспринимаемый вес страницы, даже если вы ничего не делали — т.е. допустим, ваша страница/страницы ранжировались, получали трафик, демонстрировали ценность (через поведенческие факторы), вы можете увидеть, как они улучшают/получают запросы во время корных апдейтов
В любом случае — ПОДСЧЕТ ЗАПРОСОВ — это то, что вам стоит рассмотреть, вы можете делать это экспортируя запросы страницы месяц за месяцем из GSC
, а затем подсчитывая числа за каждый месяц и создавая график.
Даниэль Фоли Картер объясняет это немного подробнее в этой презентации: https://docs.google.com/presentation/d/1CQg1oNf0ZvRLIiVVSTUwEX6X5mlAw00I/edit#slide=id.p1
@MikeBlazerX
Колин Ричардсон:
У меня постоянно возникает проблема с сайтом, который показывает неправильную тумбу (миниатюру) товара в СЕРПах.
— На странице отображается правильное изображение (там только одно основное изображение товара)
— В товарном фиде правильное изображение
— og:image
корректный
— Twitter
-изображение корректное
— Самый большой размер файла 48кб, размеры изображения 1024x1024 (webp
)
И самое интересное, изображения, которое показывается в СЕРП, вообще нет на странице!
Возможно, оно было там раньше, так как есть динамический раздел "похожие товары", но этот товар запущен всего неделю назад.
Кайл:
Сталкивался с этим и успешно решил проблему.
Не случай с e-commerce
, но тоже маркетплейс.
Контекст: страница одного товара - установлено основное изображение (html
, schema
, OG
и т.д.), также отображались похожие товары через CSR
.
Проблема: изображение одного из похожих товаров отображалось в СЕРПах вместо основного изображения товара.
Решение (единственное, что сработало): добавил параметр "?noindex=1
" к изображениям похожих товаров.
Поскольку эти изображения были через CDN
, а не корневой домен, мы не могли блокировать их в robots.txt
на основе параметра.
Использовал CDN
-воркер для добавления HTTP noindex
к похожим изображениям, когда применялся параметр "?noindex=1
".
@MikeBlazerX
Ты, когда осознаешь, что можешь показывать одно для людей, и другое для Гугла
@MikeBlazerX
Классификатор QDF
Новый классификатор запросов определяет, требует ли запрос свежести (query deserves freshness - QDF
):
https://dejan.ai/tools/qdf/Query Deserves Freshness
(QDF) — это алгоритм Google, который отдает приоритет свежему контенту для поисковых запросов, чувствительных ко времени.
Он выявляет тренды или срочные новости и корректирует результаты поиска, чтобы отображать самую актуальную информацию, улучшая релевантность для пользователей.
@MikeBlazerX
В Google Sheets
появилась формула "=AI"
Вы можете обрабатывать в электронных таблицах данные таким образом, который раньше был невозможен.Gemini
понимает, что находится в ячейках, и возвращает специально адаптированный ответ в соответствии с вашими инструкциями.
Примеры и формулы ниже:
1. Категоризация
"=AI" может категоризировать ваши данные на основе ваших инструкций и ссылаясь на другие ячейки.
Формула:
=AI("Is this a basketball or baseball team?",A2)
=AI("Classify this sentence, as either positive or negative.", A2)
=AI("Summarize this info in 1 very short sentence",A2)
За последние 90 дней мы увеличили наш трафик в 15 раз на Nilos
без единого маркетолога или сейлза; только с помощью ИИ-агентов, пишет Эйтан Мессика.
Вот что мы сделали:
1. Нашли правильные SEO ключевики для нашего ICP
, попросив ИИ промптить самого себя, пока он не стал экспертом по длиннохвостым запросам
2. Сгенерировали контент/заголовки для LinkedIn
на основе волшебной формулы Quicksprout
с помощью Chat GPT o4
3. Загрузили результат в другого ИИ-агента и попросили оценить заголовки по вероятности вирального успеха (на основе предыдущих постов, которые сработали)
4. Загрузили заголовки в Perplexity
для получения глубокого отчета с точной статистикой
5. Выбрали лучшие заголовки и написали 2 разных блог-поста с помощью другого ИИ-агента
6. Загрузили результат и попросили агента рекурсивно "судить самого себя" чтобы "улучшить себя", выступая в роли адвоката дьявола против себя 3 раза подряд (Эта фишка просто убойная)
7. Загрузили результат в "Агента-корректора в стиле Эрнеста Хемингуэя", который берет посты и оптимизирует их для простоты чтения
8. Связали всё через Zapier
для автоматизации процесса (это требует времени на освоение)
--
Это приносит около 20+ демо в неделю с финтех-компаниями, импортерами и бизнесами по денежным переводам только из нашего SEO-направления.
Топ юзкейсы, по которым мы ранжируемся в SEO:
— Быстрые выплаты поставщикам в Китае, Гонконге, США и Европе из Африки, Мексики, Бразилии, Колумбии или стран MENA
— Улучшение курсов USD/EUR для бизнесов по денежным переводам в Нигерии, Камеруне, Кот-д'Ивуаре
— Разблокировка новых коридоров для выплат в "Развивающихся странах"
@MikeBlazerX
У Мелиссы Вайли возникла проблема, когда одна страница на её сайте внезапно исчезла из результатов поиска Google, несмотря на отсутствие видимых проблем с индексацией в GSC
.
Она была озадачена, потому что:
— Все остальные страницы на сайте работали нормально
— Проблемная страница случайно выпала из поисковой выдачи в этот день
— Google по-прежнему краулил страницу
— GSC
показывал, что страница проиндексирована
— Страница не отображалась в поиске по "site:
"
— Тест в реальном времени GSC
показывал, что страница индексируемая и доступна для Google
Через два дня Мелисса сообщила о решении:
— Проблема была вызвана устаревшим запросом на удаление страницы в GSC
— Как только они отменили запрос, страница вернулась в выдачу
Она выразила недоумение по поводу того, как это произошло, поскольку:
— Страница не была устаревшей
— Она не знала, кто мог отправить такой запрос
Каждый (даже ваши конкуренты) может запросить удаление вашего "устаревшего" контента:
https://search.google.com/search-console/remove-outdated-content
@MikeBlazerX
Кто-то создал "прокси-сайт", который маскирует мой домен, внедряет свою рекламу и подменяет все ссылки на свой домен, сообщает Олли Райман.
Google полностью заменил мой сайт на него в поисковой выдаче, где раньше я был в топе, и деиндексировал мой основной домен.
@MikeBlazerX
Google только что выпустил новый патент (18 марта 2025), который подтверждает то, что многие из нас уже наблюдали в SEO-окопах.
Патент US 12,254,007 B2
раскрывает систему, которая выходит за рамки простого сопоставления ключевых слов и создает "токен-ориентированный" поисковый индекс, включающий:
1/ Прогнозируемые пользовательские результаты:
Система не просто сопоставляет контент с запросами, а прогнозирует конкретные действия пользователей, такие как выбор контента, длительность просмотра и вероятность конверсии.
Это объясняет, почему определенные категории товаров теперь показывают различные макеты СЕРПов на основе моделей покупательских намерений.
Помните navboost?
Спасибо.
2/ Персонализированные вероятностные оценки:
Каждый результат содержит вероятностные веса, показывающие, насколько вероятно он удовлетворит ваши конкретные потребности на основе поведенческих паттернов.
Патент детализирует, как эти оценки рассчитываются с использованием взвешенных атрибутов (например, локация: 0.5, история браузера: 0.9).
3/ Контекстные пользовательские сигналы:
Токен-ориентированный индекс включает такие сигналы, как время суток, возможности устройства, языковые предпочтения и предыдущие взаимодействия — не как отдельные факторы ранжирования, а как основные элементы самой структуры индекса.
Удивительно не то, что Google может персонализировать результаты (мы знали это годами), а то, что теперь они встраивают персонализацию напрямую в структуру поискового индекса — а не просто применяют ее как фактор ранжирования постфактум.
Что это значит?
На самом деле, всё просто и по-прежнему то же самое:
Самые успешные сайты будут не просто соответствовать тому, что ищут пользователи, а тому, чего они на самом деле пытаются достичь.
Будущее принадлежит тем, кто понимает не только то, что говорят пользователи, но и что они имеют в виду.
https://patents.justia.com/patent/12254007
@MikeBlazerX
🚫 Больше никаких платных рекламных акций на пиццу 👀
В Великобритании с октября 2025 года вступает в силу запрет на цифровую рекламу "нездоровой" пищи.
С 1 октября будет запрещено размещать платные онлайн-рекламы продуктов с высоким содержанием жиров, соли и сахара (HFSS
).
Это означает, что больше не будет PPC
-рекламы на пиццу, торты, сладкие напитки и шоколадные батончики.
Согласно GOV.UK
, если ваш продукт получил 4+ по модели оценки питательной ценности, он попадает в красную зону.
Еще один удар по индустрии гостеприимства...
И еще одна возможность для сеошников - заработать!
@MikeBlazerX
Pinterest теперь стал показывать объем поиска на своих "Страницах идей".
https://www.pinterest.com/ideas/bronco-truck-aesthetic/924330387698/
Начинайте парсить...
@MikeBlazerX
Как правильно вносить косметические правки
@MikeBlazerX
Я редизайню мой личный сайт на "local WP
", - пишет Ник ЛеРой.
Признаюсь, использовал супер устаревшую версию.
После завершения 70% проекта, я решил "может быть хорошей идеей обновиться"...
Похоже, это повредило все мои файлы, и теперь я вернулся к последней точке восстановления, которая была примерно на отметке 10% готовности 💩
@MikeBlazerX