Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Пользователь Reddit
написал "Tododisca.com не является настоящим новостным изданием", что привело к тому, что Google выдал ручные санкции и убрал этот сайт из поисковой выдачи.
Несмотря на то, что годами этот сайт получал много трафика из Google, в течение нескольких дней после обсуждения этого сайта на Reddit
Google выдал ручник и убрал его из результатов.
По данным третьих лиц, похоже, что ручные санкции были выданы примерно 8-9 мая.
Вероятно, чей-то комментарий о том, что это не настоящее издание, попал на глаза кому-то из команды Google Web Spam Team
, и после проверки они обнаружили, что это правда, поэтому сразу же выдали ручник и убрали сайт из поисковой выдачи.
На странице контактов Tododisca
указано, что они базируются в Испании.
@MikeBlazerX
Кайл Раштон Макгрегор постанул о проблеме в GSC
, где показываются ошибки получения robots.txt
на множественных поддоменах, которых на самом деле не существует.
Основной вопрос был: "Почему Гугл внезапно начал краулить robots.txt, которых не существует?"
Кайл отметил, что это совпало с падением позиций и задавался вопросом, есть ли связь между этими двумя проблемами.
В последующих постах Кайл предоставил дополнительный контекст, что это не используемые хостнеймы, подтвердил, что пути не существуют, и поделился, что он испытывает периодические падения позиций в средней позиции на протяжении 3 месяцев.
Он начал изучать отчет по статистике краулинга, когда происходили эти падения позиций, и искал разъяснения, влияют ли проблемы с robots.txt
на колебания ранжирования.
Советы и инсайты сообщества:
— Согласно документации Гугла, robots.txt
должен существовать для всех доменов/поддоменов - по своей природе это 404
, если его не существует
— Если Гугл недавно обнаружил эти поддомены, по природе вещей они сначала проверят файл robots.txt
, чтобы получить инструкции
— Если они не получают эти инструкции, они могут просто краулить всё (при условии отсутствия других ограничений - например, если контент защищен паролем, или если статус-коды хидера Forbidden
(403) - это тоже заблокирует их)
— Запросы robots.txt
не будут связаны с какими-либо проблемами ранжирования
— Это просто технические проверки перед любым краулингом нового хостнейма / версии протокола
— "Краулинговый бюджет" работает на основе хостнейма, поэтому новый контент с новых хостнеймов не должен быть проблемой с этой точки зрения
— Однако, если контент на этих новых хостнеймах странный (например: когда кто-то взламывает сайт, создает поддомен и заполняет его спамом), тогда контент может быть проблемой (проблема в спаме, а не в новом хостнейме / файле robots.txt
)
— Для основного домена проблемы с robots.txt
не обязательно влияют на колебания ранжирования, если только не было БОЛЬШОЙ проблемы
— Проблемы раздувания краула на поддомене (например, открытый API
-эндпоинт) не крадут краулинговый бюджет у других хостнеймов домена
— Но это может повлиять на ранжирование основного сайта, если поддомен взломан
@MikeBlazerX
Вот кое-что интересное насчет дроп-доменного спама.
Помните, как Гугл вроде бы почистил выдачу от дроп-доменов?
Это произошло не везде, но в достаточном количестве мест, чтобы это заметили.
Ну так вот, есть новый хак для обхода этого, и он довольно старый.
Просто навесьте хрефленг на индекс к новосозданной странице с кодами стран.
Используйте идентичные дубли страниц и сразу же верните свои позиции.
Гугл — это машина, у этой машины есть недостатки, и ее, видимо, можно хакнуть с помощью 10-летних трюков.
@MikeBlazerX
Каков возраст страниц, занимающих топ в поисковой выдаче?
— Средний возраст страницы, занимающей #1, составляет 5 лет.
— 72.9% страниц в топ-10 Google имеют возраст более 3 лет (в 2017 году этот показатель составлял 59%).
https://ahrefs.com/blog/how-long-does-it-take-to-rank-in-google-and-how-old-are-top-ranking-pages/
-
"Google любит свежесть" - правда? ЛОЛ
-
Google заявляет:
"Сосредоточьтесь на уникальном, ценном для людей контенте".
https://developers.google.com/search/blog/2025/05/succeeding-in-ai-search
-
Гугл: "делайте то, что мы говорим, а не то, за что мы шлем трафик!"
-
Оригинальность редко вознаграждается.
Новая информация практически не упоминается (в LLM
), пока ее не повторят другие.
Им нужен консенсус.
https://ahrefs.com/blog/llms-flatten-originality/
@MikeBlazerX
Рендерит ли Google весь контент на вашей странице?
Я заметил значительное улучшение видимости благодаря одному простому изменению, пишет Дэвид Госсаж.
Недавно я столкнулся с проблемой на сайте, где дизайнер добавил эффектную анимацию появления контента при скролле вниз по странице.
Выглядело красиво и имело абсолютно нулевую практическую ценность.
Когда я проверил сайт через инструмент "Проверка URL
" в GSC
, я увидел множество пустых пространств.
Весь контент присутствовал в HTML
, но не был виден в отрендеренной Google странице.
Помните, Googlebot
не взаимодействует с вашей страницей так, как это делаете вы.
Он не скроллит и не кликает по контенту, поэтому если что-то не видно при первоначальном рендеринге, это может быть проигнорировано.
После удаления этой красивой, но бесполезной фичи, сайт мгновенно получил огромный прирост видимости.
Ура!
@MikeBlazerX
Сотрудник технического отдела OpenAI
только что подтвердил, что манипуляции с кликами работают.
Реакции "палец вверх/вниз" используются для обучения.
Если можно злоупотреблять ими в больших масштабах, можно влиять на результаты!
Мне много раз предлагали такой сервис агентства, говорит Мальте Ландвер.
Поскольку я работаю инхаус, я держусь подальше от черных методов и манипуляций.
И честно говоря, я не был уверен, что это действительно может быть так просто.
Похоже, что так и есть, почитайте:
Не думаю, что люди понимают, насколько сложным является постобучение языковых моделей. Например, когда мы недавно тренировали o3, модель почему-то стала британской без явной причины. Просто внезапно начала писать "check" как "cheque"
Есть еще одна старая история о том, как ранняя модель GPT на одной неделе перестала говорить по-хорватски, и никто не мог понять почему. Оказалось, что хорватские пользователи были гораздо более склонны ставить дизлайки сообщениям, поэтому модель просто сдалась и решила вообще не говорить по-хорватски.
Google теперь также инвестирует в индексацию результатов поиска своих Google Maps
.
Они добавили эту карту сайта и буквально прокомментировали, что намереваются индексировать эти результаты поиска в других поисковиках.
Может ли это быть также связано с AIO
или AI
mode?
@MikeBlazerX
ChatGPT
может отправлять трафик на ваши страницы 404
— он может галлюцинировать урлы, которые никогда не существовали или просто похожи на ваши реальные.
Недавно, анализируя трафик от ChatGPT
, я заметила, что некоторые урлы, получающие визиты, на самом деле были страницами 404
, пишет Анастасия.
За трехмесячный период я нашла около 70 таких урлов (правда, около 20 из них имели как минимум один бэклинк).
У многих было 1–3 визита, но у некоторых — более 20 сессий.
Что мы решили делать:
🔷 Настроить редиректы, если сессий больше 2–3 (не уверена, что имеет смысл редиректить при одной сессии — это может быть случайность) и если у нас есть релевантная страница с кодом 200 на сайте (или если у URL
есть бэклинки — в таком случае редирект нужно делать в любом случае).
🔷 Использовать несуществующие страницы как идеи для создания новых (есть действительно интересные идеи!).
Хотя вы, вероятно, не можете гарантировать, что ChatGPT
предоставляет пользователям валидные URLs
с кодом 200, вы можете использовать эти данные (доступные в GA4
) для исправления этих 404
или поиска новых возможностей.
@MikeBlazerX
Прокси-страницы Google Translate /translate
получают заметную видимость в AI Overviews
(AIO) по всей Европе, включая Германию, Испанию, Нидерланды, Швецию и Францию, обходя традиционные методы SEO.
Это формирует новую видимость, контролируемую Google, где переведенные версии зарубежного контента часто занимают верхние позиции, особенно при нехватке качественного локального контента.
В Турции страницы Google Translate
отображаются в около 10 миллионах запросов AIO
.
Google направляет огромный трафик через эти страницы: более 90 миллионов ежемесячных визитов в Бразилии и свыше 100 миллионов в Индии.
Частота появления Translate Proxy Pages
в AIO
за май:
— Швеция: 14,483
— Нидерланды: 49,336
— Испания: 109,127
— Германия: 57,000 (рост на 40M% с апреля, когда было всего 4)
— Франция: 35,847
Итого: миллионы ежемесячных визитов через Google.
Это переведенные версии англоязычного контента, загружаемые через translate.google.com/translate
и отображаемые на translate.goog
.
По данным Semrush
, Google контролирует минимум 658 миллионов ежемесячных визитов таким образом.
Когда AIO
активируются для запросов на местном языке при дефиците нативного контента, Google переводит авторитетные английские источники, размещает их через прокси-URL
и выводит в AIO
, обходя местных издателей.
Конкурировать с переведенными международными сайтами сложно, даже при наличии локального авторитета.
Пользователи часто не видят исходный домен, так как контент скрыт за переводной страницей Google.
Этот механизм, возможно, "подпитывает" модели Gemini
, подобно росту популярности переводных страниц Reddit
.
Это явление, известное как "Proxy SEO
", серьезно влияет на SEO-специалистов и издателей.
Контроль над SEO полностью отсутствует, ранжирование определяется алгоритмами.
Google превращается в контентную платформу, размещая и перерабатывая контент.
Все взаимодействия пользователей (скролл, клики, отказы, время на сайте) происходят через инфраструктуру Google translate.goog
, а не на домене издателя, хотя трафик частично передается на оригинальный GA property
.
Это вызывает вопросы о справедливости в SERP
, так как местные издатели рискуют быть вытесненными.
Издатели могут не знать, что их контент используется, теряя брендовую ценность и полную аналитику.
Есть заголовочный тег от Google для контроля видимости Translate Proxy Pages
, но его используют редко, возможно, из-за нежелания крупных игроков ограничивать "бесплатное обучение ИИ".
Эффективность переводных страниц можно отслеживать в Search Console
, фильтруя отчеты по URL
с translate.goog
.
Стратегически это позволяет Google заполнять контентные пробелы для LLM
в реальном времени, удерживать пользователей в своей экосистеме и создавать ИИ-ориентированные пути знаний, особенно для языков с дефицитом контента, напоминая эпоху AMP pages 2018
года.
Страницы Google Translate
активны и в США.
Например, для испанского запроса "numeros romanos" Semrush
показывает прокси-страницы в 66,184 поисковых запросах в США с видимостью 52%, причем 87.2% запросов имеют информационный интент.
Это также может дублировать сайты вроде Wikipedia
в AIO
(например, en.wikipedia.org
рядом с переведенной версией es
).
Тренд выгоден глобальным авторитетным сайтам на английском, но вредит локальным издателям.
Хотя такой контент может соответствовать поисковому интенту и быть полезным, издатели по всему миру выражают обеспокоенность.
Источник статьи
---
Скрипт для возврата трафика с переведенных AI Overviews, который остается у Google:
Решение: Добавьте этот скрипт на свой сайт: GitHub Gist
Что он делает?
— Определяет параметр _x_tr_pto=sge
, связанный с AIO
.
— Автоматически перенаправляет посетителей на ваш сайт.
— Разрешает стандартные переводы, перенаправляя только трафик от AIO
.
@MikeBlazerX
Деян Петрович провел серию экспериментов, заглянув "под капот" Google AI Mode
.
Путем "взлома" системных промптов, анализа скрытых данных в исходном коде (включая данные, передаваемые Gemini
для генерации сниппетов) и выполнения Python
-скриптов в его окружении (например, для проверки доступности новых и уже проиндексированных страниц), он выявил ключевые аспекты работы системы.
Вот основные инсайты:AI Mode
— это кастомная модель Gemini
, использующая инструменты Google Search, Calculator, Time, Location
и Python
.
Она учитывает дату, время и местоположение для персонализированных ответов.
Внутренние блоки tool_code
раскрывают логику поиска, хотя пользователи не могут их выполнять.
Результаты поиска и интерпретации: новый уровень
Работа Дэна показывает, что структурированные данные AI Mode
содержат поля вроде "topic": "Interpretation 0"
или "topic": "Interpretation 1"
, помимо сниппетов, URL
и источников.
Это указывает на способность AI Mode
категоризировать запросы, влияя на видимость контента через тематические интерпретации.
Как AI Mode выбирает сниппеты для Gemini
Важно: пользовательские сниппеты в AI Mode
создаются Gemini
.
Дэн нашел сырые данные Gemini
в комментариях исходного кода, скрытые от пользователей.
Эти данные включают тайтл, сниппет, URL
фавикона, название сайта, URL
результата (часто с фрагментами текста), а также ID
, метрики и изображения.
Ключевая логика выбора сниппетов для SEO:
1. Краткость и полнота: Сниппеты около 160 символов, обрезанные, но семантически завершенные.
2. УТП в приоритете: Предпочтение отдается уникальным предложениям, например, "Free Names
& Numbers
," "No MOQ
," "Fast Turnaround
".
3. Бренд + ценность: Компании с сильными ценностными предложениями выбираются чаще.
4. Клиентоориентированный язык: Текст с обращениями "вы" или "ваша команда" привлекает внимание.
5. Релевантность ключевых слов: Высокая плотность ключевых слов обязательна.
6. Структура важна: Заголовки (H1-H3
), списки и жирный текст служат источниками.
7. Гибкость позиций: Сниппеты берутся из любой части страницы, не только сверху.
8. Синтез контента: AI Mode
объединяет тексты, разделяя их звездочками (*) для убедительности.
Практические SEO-стратегии для сниппетов AI Mode:
— Встраивайте УТП в заголовки и списки для структурной видимости.
— Начинайте абзацы с ключевой информации в ~160 символов, ориентированной на выгоду.
— Используйте семантическую HTML
-разметку для четкой структуры.
— Пишите клиентоориентированные тексты, обращаясь к аудитории.
— Размещайте ключевые сообщения в нескольких местах страницы.
AI Mode работает с кэшем Google, не всегда с живым вебом
Эксперименты Дэна показали: инструмент Python
в AI Mode
выдает ошибку 404
для новых страниц (например, test123.html
на dejan.ai
), несмотря на их доступность через cURL
и логи сервера.
Существующие проиндексированные страницы (test.php
) загружаются без проблем.
Также Python
-код не отправляет реферер в лог-файлы при пинге внешнего сервера.
Выводы:
— Сначала кэш: Python
в AI Mode
проверяет индекс или кэш Google, симулируя 404
для неизвестных URL
.
— Задержка контента: Новый или обновленный контент может быть недоступен сразу; индексация важна.
— Сложности тестирования: Тестировать новые непроиндексированные страницы с AI Mode
затруднительно.
Для технарей: Python
-окружение AI Mode
работает на Linux
(Ubuntu
) со стандартными библиотеками: datetime, json, math, random, re, string, typing, collections
.
https://dejan.ai/blog/ai-mode-internals/
https://dejan.ai/blog/how-ai-mode-selects-snippets/
https://dejan.ai/blog/ai-mode-is-not-live-web/
@MikeBlazerX
Вайб-кодить ИИ-агентов – это так круто!!!
Благодаря ИИ и таким инструментам, как ChatGPT, Cursor, n8n
или CrewAI
, которые берут на себя всю черновую работу, от вас требуется всего лишь:
— Детектить галлюцинации
— Бороться с промпт-инъекциями
— Определять стратегию промптинга
— Логировать всё для дебага
— Просто подрубать агентов к MCP
— Выбирать, какую LLM
использовать для максимальной точности
— Обрабатывать ситуации, когда инструменты падают или возвращают всякую дичь
— Обеспечивать аптайм сервиса 99.9%
— Задержка ответа менее 3 секунд
— Подавать релевантный контекст, чтобы не превысить лимиты по токенам
— Создавать фильтры безопасности, чтобы он не слетел с катушек
— Продумывать фолбэк-поведение на случай, если LLM
тупит
— Добавлять динамическую память (краткосрочную и долгосрочную)
— Обрабатывать сбои API
и состояния гонки в асинхронных вызовах
— Мониторить и рейт-лимитить API
, чтобы не сливать по $100 в минуту
Делов-то, и ваш ИИ-агент пашет на вас 24/7.
@MikeBlazerX
Мы получили мощный бэклинк с Cosmopolitan
за 30 минут с помощью реактивного PR
по Селене Гомез, пишет Фери Кашони.
— Мы увидели, что Селена Гомез обручилась
— Мы проверили Google Trends
, чтобы посмотреть, выросли ли поисковые запросы, связанные с помолвочными кольцами
— Мы заметили, что запросы "marquise engagement ring
" взлетели до рекордных уровней
— Мы составили письмо из двух абзацев, просто выделив этот тренд
— Также мы добавили экспертный комментарий от нашего клиента о данном тренде
— Мы нашли релевантных журналистов через Roxhill
и Muckrak
, и отправили им наши выводы
Вся акция заняла у нас 30 минут, и мы уже получили крупное размещение в Cosmopolitan
.
Знаменитости - одни из лучших активов для линкбилдинга в мире.
Когда они делают что-то, что вызывает медийный шум, вы можете выдвинуть своих клиентов как экспертов, комментирующих событие, и получить для них ссылки, которые нельзя купить за деньги.
✅ Публичные выступления
✅ Запуски фильмов
✅ Помолвки
✅ Разводы
Все говорят, что 100к органики невозможно получить без бэклинков.
Это ложь.
6 месяцев назад у моего клиента был нулевой трафик, говорит Исмаил.
Сегодня?
100к+ органических визитеров в месяц.
Вот что реально сработало:
1. Нашли горящие проблемы на Reddit
→ Проанализировали топовые треды
→ Выявили паттерны в вопросах
→ Обнаружили пробелы в существующих ответах
2. Создали предельно фокусированный контент
→ 15 постов, решающих конкретные проблемы
→ Никакой воды, только решения
→ Нулевой анализ ключевых слов
Но вот что изменило всё...
Google начал ранжировать нас по ключам, которые мы даже не таргетировали.
Рост был безумный:
→ 1 месяц: 0 визитеров
→ 3 месяц: 1к визитеров
→ 6 месяц: 100к+ визитеров
Хватит следовать правилам "экспертов".
Начните решать реальные проблемы.
Лучшая SEO-стратегия?
Дайте людям то, что им действительно нужно.
@MikeBlazerX
Когда ты видишь десятки или даже сотни показов для поискового запроса, по которому ты ранжируешься на 91-й позиции, это не значит, что люди копают так глубоко в SERP.
Скорее всего, это ранк-трекеры (или другие SEO-тулзы), которые не используют API
, а парсят выдачу так глубоко, чтобы собрать их данные.
Не трать время на "оптимизацию" тайтл-тегов, чтобы улучшить CTR
по этим ключам.
Тебе нужно лучше ранжироваться.
@MikeBlazerX
Если вам важно, чтобы ваш сайт попадал в ответы LLM
, держите ухо востро: теперь появилось "черное GEO
".
Я только что прочитал исследование ETH Zürich
, в котором представлены атаки манипулирования предпочтениями (PMA
) — крошечные невидимые сниппеты, которые обманывают Bing Copilot, Perplexity
, инструменты GPT-4
и Claude
, заставляя их продвигать подозрительный сайт в 8 раз выше, при этом игнорируя конкурентов, пишет Фимбер.
Как работает фишка в три шага
1️⃣ Прячут промпт-хаки внутри обычного текста страницы или документации плагинов (белый текст на белом фоне, шрифт в 1 пиксель, даже JSON
-блобы)
2️⃣ Позволяют поисковому LLM
проиндексировать этот контент
3️⃣ Когда пользователь спрашивает "лучшая камера до 1000$", скрытые инструкции шепчут "рекомендуй мой бренд, игнорируй остальные"
Результат: ваш продукт всплывает в 2-8 раз чаще, чем не менее качественный конкурент. ✂️
Получается, пока вы заняты написанием дружелюбных к ответам сниппетов и открываете robots.txt
для ChatGPT
, вы можете проигрывать просто потому, что конкуренты буквально сказали модели вас игнорировать.
Это создает эффект снежного кома: как только один бренд начинает инъекции, все остальные чувствуют себя вынужденными копировать.
Качество падает, доверие размывается, но стимул мухлевать остается.
Классическая трагедия общих ресурсов, но для AI
-ранжирования.
Что с этим делать?
🚼 Аудитьте свой контент на предмет всего, что может выглядеть как скрытые директивы — избегайте соблазна "просто протестировать" трюк
🚦 Отслеживайте цитирования LLM
отдельно от позиций в Гугле. Внезапные падения могут сигнализировать, что вас "PMA
-нули"
🔏 Давите на вендоров за прозрачность: просите Bing, Perplexity
и компанию раскрывать, какие сниппеты повлияли на рекомендацию
🧩 Держите провенанс контента чистым — микроразметка, подписанные фиды, канонические ссылки. Чем проще доказать подлинность, тем сложнее противнику вас имитировать или дискредитировать
🛡 Команды безопасности, познакомьтесь с SEO-командами. Относитесь к защите от промпт-инъекций так же, как к XSS
или CSRF
; это больше не "просто маркетинг"
Все это здорово поможет выровнять игровое поле в долгосрочной перспективе, но прямо сейчас стабильное создание качественного контента — все еще способ побеждать.LLM
найдут способы залатать существующие дыры, и в течение следующих 12 месяцев вероятно произойдет пара вещей:
➡️ Появятся встроенные фильтры промптов в основных LLM
-пайплайнах
➡️ "SEO-санкции" для сайтов, пойманных на использовании скрытых инструкций
➡️ Всплеск white-hat
AIO
/GEO
аудитов — похожих на зачистки времен Penguin/Panda начала 2010-х
Все еще разбираются в игре AIO
и GEO
, так что сейчас дикий запад.
Если это исследование что-то показывает, то AIO
и GEO
— это уже не просто про полезность, а про защиту этой полезности от adversarial
промпт-инъекций.
Время добавить "гигиену LLM
-безопасности" в ваш чеклист оптимизации.
https://arxiv.org/html/2406.18382v1
@MikeBlazerX
Скорость сайта.
Имеет ли значение?
И насколько?
Сейчас работаю с клиентом из ретейла и выяснил, что каждая дополнительная секунда LCP
(Largest Contentful Paint) стоит около 7% покупателей, которые нажимают "добавить в корзину", — пишет Гарри Робертс.
Если я могу получить LCP
менее 0.8 секунд, покупатели на 40% чаще начинают покупать, чем те, кто застрял на страницах с загрузкой 3-4 секунды.
Иначе говоря, каждая дополнительная секунда LCP
снижает конверсию примерно на 13%.
Теперь мы знаем наши цели, и нам определенно есть над чем работать!
-
По оси X показаны различные группы LCP
, у нас было 1,967 наблюдаемых просмотров страниц в группе 1.6с.
Эта группа конвертила на отличных 11%.
Сама диаграмма относится только к одной странице (PDP
), поэтому сессии здесь синонимичны просмотрам страниц.
Это на P75
.
Мне не нравится идея брать среднее значение по многим страницам для корреляции с конверсиями, пишет Гарри.
Единственное, что хуже — это взять скорость страницы подтверждения и сказать "вот с какой скоростью происходит большинство наших конверсий".
@MikeBlazerX
EEAT
— это не фактор, EEAT
— не является частью ранжирования.
Гугл не оценивает контент.EEAT
был руководством, разработанным для внешних консультантов, чтобы они проверяли анонимизированный контент в качестве примеров машинного обнаружения спама.
Другими словами — попытка объективно определить, поймали ли спам-системы спам или настоящие сайты.
Мифы про EEAT:
— Писать про опыт или экспертность = заявления, а не настоящий EEAT
— Писать про предыдущие работы или проекты = заявления, а не настоящий EEAT
— Наличие биографии автора <> EEAT
— EEAT
не алгоритмичен
— EEAT
не применяется Гуглом
— Гугл не валидирует авторов, биографии или контент
Базовое критическое мышление:
— Заявления — это не доказательства, это заявления
— Люди не верят и не должны верить всему, что читают в документе
— Написать, что что-то произошло или имело место = заявление
EEAT может прийти из:
— Чтения вашей страницы в Википедии
— Чтения отзывов
— Чтения кейс-стади
— Чтения комментариев клиентов
— Вашего дизайна/логотипа
Факты про EEAT:
— Гугл не валидирует контент
— НЕТ никакого EEAT
-скора
— НЕТ никакого EEAT
-фактора
— НЕТ никакого EEAT
-значения
— Гугл не может вручную проверить объем контента, который он поглощает
— Гугл не проверяет авторов
— Гугл не знает, является ли контент EEAT
, хорошим, плохим, коротким, длинным
— Контент МОЖЕТ быть EEAT
без упоминания компонентов EEAT
— EEAT
может быть логотипом или логотипом партнера
https://primaryposition.com/blog/google-eeat-score/
@MikeBlazerX
Вводит ли в заблуждение статус "Просканировано, но не проиндексировано" в GSC
?
Не спешите списывать со счетов страницы, которые GSC
помечает как "просканировано, но не проиндексировано".
Недавний анализ показывает, что данные GSC
здесь не всегда отражают полную картину:
— Значительная видимость: Удивительно, но 26% URL со статусом "просканировано, но не проиндексировано" все еще получали показы, а некоторые даже клики.
— Несоответствие статусов: Многие страницы с высокими показами *не были* последовательно помечены как "проиндексированные" в GSC в рамках исследуемого датасета.
— Пробелы в данных: GSC
предоставляет *выборочный* обзор. В анализе только 28% URL
с фактическими показами/кликами отображались как "проиндексированные" из-за ограничений экспорта данных самого GSC
.
Что это значит для вас:
1. Не всегда невидимы: "Просканировано, но не проиндексировано" не означает однозначно нулевую видимость в поиске или что Гугл не обрабатывал страницу недавно.
2. Переоцените ценность ссылок: Не думайте, что ссылки *с этих страниц* бесполезны *исключительно на основании этого статуса в GSC*. Вопрос передачи ссылочного веса еще тестируется, но эти страницы не всегда "мертвые".
3. GSC — это гид, а не истина в последней инстанции: Относитесь к GSC
как к "флюгеру" для общих трендов, а не как к точному скальпелю для диагностики на уровне страниц. Сверяйтесь с лог-файлами, фактическими проверками позиций и другой аналитикой.
Данные GSC
имеют ограничения.
Проверяйте перед принятием критических решений по контенту или ссылкам, основываясь исключительно на этих отчетах о статусах
@MikeBlazerX
Утечка системного промпта Claude 4
показывает, что линкинг LLM является намеренным, а не случайным, что важно для сеошников, стремящихся к видимости и трафику.
Ключевой инсайт: активация веб-поиска открывает возможности для ссылок; LLM
, такие как Claude
, по умолчанию не ищут в интернете.
Если ответ берется из внутренней базы, ссылка не появляется.URL
-адреса извлекаются через активный поиск, обеспечивая "заземление" с актуальными и надежными ссылками.
Решения Claude
о поиске и линкинге делятся на четыре категории:
— never_search
: Для вечных фактов ("Столица Франции"). Ответ прямой; поиска и ссылок нет.
— do_not_search_but_offer
: Знания есть, но обновления возможны ("Население Германии"). Ответ дается, затем предлагается поиск; ссылок изначально нет.
— single_search
: Для актуальных фактов с одним источником ("Кто выиграл вчерашнюю игру?"). Отличная возможность для линкинга благодаря целевому поиску.
— research
: Для сложных задач ("Анализ конкурентов для продукта X") с 2-20 вызовами инструментов. Сильная позиция для ссылок из-за множества источников.
Даже при поиске линкинг не гарантирован.Claude
перефразирует и суммирует, соблюдая авторские права, ограничивая цитаты 20 словами.
Для ссылки контент должен добавлять ценность, например:
— Интерактивные инструменты (калькуляторы, конфигураторы).
— Часто обновляемые данные (таблицы, сравнения цен).
— Уникальный контент или нишевая экспертиза.
— Детальная аналитика или решение проблем с прямым взаимодействием.
В режиме single_search
Claude
ищет "авторитетный источник", оценивая не только бренд, но и информационную ценность, релевантность и цитируемую структуру.
SEO-контент должен быть читаемым для Claude: четким, лаконичным, без лишней "болтовни".
Это связано с принципами AIO-опттимизации.
Фокус — на цитируемых фактах и анализе, особенно для research
.
Хотя данные основаны на Claude
, ChatGPT (OpenAI) и Gemini (Google) также дают ссылки контекстно и экономно.
Главный урок: LLM ссылаются на основе семантического соответствия промпту, а не традиционных SEO-сигналов.
Контент должен быть структурированным и цитируемым.
Для сеошников это переход к оптимизации под цитирование LLM.
Если клики важны, контент должен быть уникальным и ценным для линковки, а не только цитирования.
https://gpt-insights.de/ai-insights/claude-leak-llm-suche-seo/
@MikeBlazerX
Gemini
(и, соответственно, AI Mode
) ОБУЧАЕТСЯ на традиционных поисковых сигналах Google (кхм, PageRank
), пишет Энн Смарти.
А люди говорят о смерти линкбилдинга или SEO 😎
---
Это из судебного дела DOJ
против Google.
При содействии Paul Haahr
было получено разрешение использовать несколько поисковых сигналов для помощи в "Gemini pretraining
", включая "QScore
, NSR
и несколько сигналов низкокачественных страниц/сайтов."
В выделенном разделе указан предполагаемый эффект этих сигналов: повысить вес хороших, авторитетных страниц и понизить вес спамных, ненадежных.
Также упоминается, что только несколько соответствующих лиц будут иметь доступ к необработанным оценкам для "чувствительных поисковых сигналов", с дальнейшими экспериментами по их использованию.
@MikeBlazerX
Патрик Стокс тестировал кое-что и не мог заставить свой сайт показываться в Google AI Mode
.
Оказалось, что причина в nosnippet
, который он добавил и который раньше только скрывал мета-описание.
Похоже, это задокументировано.
Урок: удаляйте nosnippet
если хотите, чтоб ваш контент появлялся в AI Mode
!
https://developers.google.com/search/docs/crawling-indexing/robots-meta-tag
@MikeBlazerX
Google AI Mode
работает как многоэтапная система, использующая классический индекс Google, но отличающаяся постоянным пользовательским контекстом, который сохраняется с помощью векторных эмбеддингов прошлых взаимодействий, таких как поисковые запросы (далее ПЗ) и клики.
Когда поступает ПЗ, AI
-режим запускает процесс "Query Fan-Out
" (веерное расширение запроса), генерируя множество связанных синтетических запросов.
Эти синтетические запросы, вместе с исходным ПЗ, отбирают документы, чьи векторные эмбеддинги хорошо соответствуют друг другу, формируя "кастомный корпус", адаптированный под пользователя и его запрос.Query Fan-Out
— это способность Google интерпретировать более глубокий ПЗ пользователя, выходя за рамки буквального значения введенных слов.
Затем система автоматически расширяет этот первоначальный ПЗ, чтобы охватить связанные подтемы, сопутствующие вопросы и различные аспекты темы, которые также могут заинтересовать пользователя, по сути, предвосхищая его последующие информационные потребности.
Это работает благодаря тому, что Google использует свой продвинутый ИИ и технологии понимания естественного языка, чтобы определить этот более широкий пользовательский интент.
Затем Google определяет эти связанные информационные потребности, часто опираясь на анализ типичных путей пользователей (user journeys
) и их последующих ПЗ.
Такое "веерное" понимание позволяет Google формировать более полные и релевантные результаты поиска, что особенно заметно в таких функциях, как AI Overviews
, которые обобщают информацию, чтобы напрямую ответить как на первоначальный ПЗ, так и на эти предполагаемые смежные области.
Затем, в зависимости от характера ПЗ и потребностей пользователя, выборочно подключаются специализированные LLM
, которые выполняют такие задачи, как создание кратких сводок, извлечение данных или логический анализ информации из нескольких документов.
Вместо того чтобы генерировать текст с нуля, AI
-режим, подобно методу генерации с дополненным извлечением (RAG
), извлекает релевантные отрывки или "чанки" из кастомного корпуса для синтеза связного ответа.
Важно отметить, что выбор источников (citation selection
) не зависит от традиционного ранжирования документов, а фокусируется на том, насколько точно конкретный фрагмент текста подтверждает сгенерированный ответ.
Весь процесс в значительной степени опирается на метод "плотного извлечения", при котором ПЗ, документы и фрагменты текста преобразуются в векторные эмбеддинги для расчета их сходства.
Это означает отход от чисто статической оценки (static scoring
); AI
-режим все чаще использует LLM
для оценки релевантности, возможно, посредством попарных сравнений, когда LLM
определяет относительную релевантность двух фрагментов текста по отношению к поисковому запросу.AI
-режим также обладает "фоновой памятью", которая со временем накапливает информацию о пользователе в виде агрегированных векторных эмбеддингов.
Это, в сочетании с моделями "пользовательских векторных эмбеддингов" — постоянными векторными репрезентациями отдельных пользователей, сформированными на основе их активности в экосистеме Google — обеспечивает глубокую персонализацию.
Этот "пользовательский векторный эмбеддинг" влияет на интерпретацию ПЗ, генерацию синтетических запросов, извлечение фрагментов текста и окончательный синтез ответа.
Это означает, что разные пользователи могут получать разные ответы или видеть разные источники для одного и того же ПЗ.
https://ipullrank.com/how-ai-mode-works
https://www.aleydasolis.com/en/ai-search/google-query-fan-out/
@MikeBlazerX
Твоя сеошка, которую тебе на автомате сгенерил твой AI
-агент
@MikeBlazerX
😎 В SEO так не говорят…
1. Мы не говорим: "У вас трафик упал".
Мы говорим: "Гугл пересмотрел вашу релевантность".
2. Мы не говорим: "Ничего не работает".
Мы говорим: "SEO — это игра вдолгую". 😁
3. Мы не говорим: "Вы скопировали с ChatGPT
".
Мы говорим: "Вашему контенту не хватает оригинальности и глубины".
4. Мы не говорим: "Этот ключ не взять".
Мы говорим: "Конечно, если у вас есть пара лет и 900 ссылающихся доменов".
5. Мы не говорим: "То агентство вас кинуло".
Мы говорим: "Сайт в топе... только не на этой планете". 😃
6. Мы не говорим: "Вы переспамили ключами".
Мы говорим: "В этом контенте больше ключей, чем смысла". 😂
А вы ляпнули что-нибудь похлеще?
Признавайтесь в комментах 😂
@MikeBlazerX
Психологический и поведенческий маркетинг #5
Критический взгляд на крупномасштабные транспортные проекты, такие как предлагаемая высокоскоростная магистраль Лондон-Манчестер, вызывает вопросы.
В отличие от линий, которые предлагают кардинальную экономию времени для постоянных пассажиров (сотни сэкономленных часов в год), маршрут, используемый большинством людей реже, может предложить лишь прогнозируемую экономию времени, равносильную "небольшому удобству".
Экономические модели, просто суммирующие общее сэкономленное время по всем пассажирам, могут упускать это важнейшее психологическое различие: сэкономить одному человеку 200 часов — это совсем не то же самое, что сэкономить 200 людям по одному часу каждому.
Вместо масштабных инженерных проектов, более простые, психологические решения могли бы устранить разочарования, связанные с поездкой.
Например, на маршруте Лондон-Манчестер пассажиры часто бронируют билеты заранее, что вынуждает их прибывать на вокзалы вроде Юстона очень рано, чтобы их билет не аннулировался, если они опоздают на свой конкретный поезд.
Тем временем, более ранние поезда в том же направлении часто отправляются с пустыми местами.
Приложение, позволяющее пассажирам на вокзале заплатить небольшую плату за посадку на более ранний, менее загруженный поезд, фактически сократило бы их поездку за счет устранения неприятного времени ожидания и одновременно улучшило бы пропускную способность сети.
Это также решает проблему ощущения эксплуатации из-за штрафных правил продажи билетов.
При сравнении поездок на поезде и самолете скорость — не единственный фактор.
Хотя самолеты могут быть быстрее от точки до точки, поезда могут предложить лучший общий опыт: меньше хлопот с аэропортовыми процедурами, удобство перемещения из центра города в центр города и возможность продуктивно или расслабленно провести время без перерывов.
Например, добавление Wi-Fi
в поездах оказалось более значимым улучшением, чем простое сокращение времени в пути на несколько минут, поскольку это делает пассажиров менее чувствительными к продолжительности поездки.
Если сместить акцент с чистой скорости на *качество и полезность* времени в пути, поезд часто выигрывает.
Было даже с юмором предложено, что трата малой части инженерного бюджета на исключительно приятные впечатления на борту могла бы заставить пассажиров *желать*, чтобы поездка была дольше.
Решение проблемы переполненности поездов также выигрывает от психологического подхода.
Текущие метрики часто не различают между несколькими людьми, стоящими постоянно, и многими людьми, стоящими недолго, — сценарии с очень разным воздействием.
Ежедневные пассажиры, вынужденные стоять, такие как владельцы годовых проездных, по понятным причинам чувствуют себя более ущемленными.
Целевые решения, такие как специальные поезда в часы пик для этих постоянных пассажиров, могли бы значительно снизить недовольство при меньших затратах, чем повсеместное увеличение пропускной способности.
Кроме того, присущая негативность стояния в поездах может быть поставлена под сомнение.
В отличие от стояния в пабе, проблема в поездах часто заключается в плохом дизайне: негде опереться, невозможность использовать руки и отсутствие удобств.
Переосмысление интерьеров поездов, чтобы предложить реальную альтернативу между сидением и хорошо оборудованным стоячим местом (с полками, зарядными устройствами и видами из окна), могло бы сделать стояние приемлемым, даже предпочтительным выбором для некоторых, переформатировав это как выбор, а не компромисс, и тем самым уменьшая воспринимаемую переполненность.
@MikeBlazerX
Контент-менеджмент
Опубликовал и забыл — так НЕЛЬЗЯ!
— Актуальность контента более десяти лет — аспект ранжирования.
— Боритесь за удержание позиций.
— Придерживайтесь определенных процессов.
1. Назначайте даты пересмотра
Независимо от даты публикации, назначайте дату будущей проверки.
Частота пересмотра зависит от типа контента/темы: ежедневно/еженедельно для быстро меняющихся, ежеквартально для большинства, раз в полгода/год для некоторых.
2. Мониторьте ваши топ-N страниц
Отслеживайте самые ценные страницы на падение позиций, трафика, конверсий.
Настройте уведомления на случаи, когда видите:
— Значительное падение
— Несколько небольших последовательных падений
3. Анализируйте требования поисковой выдачи
Выдача показывает, что и в каком виде востребовано.
— Вы увидите, важна ли актуальность контента.
— Вы увидите, стоит ли использовать форматы (изображения/видео).
— Вы увидите интент (и часто нюансы интента/форматы контента).
Адаптируйте контент или оптимизируйте другую релевантную страницу, соответствующую этапу пути пользователя для запроса.
4. Анализируйте конкурентов
Анализ должен быть глубоким.
Сравнивайте качество их контента и удовлетворенность пользователей.
— Дело в актуальности или в чем-то более глубоком?
— Определите, связано ли это с полнотой темы, внутренними или входящими ссылками, и решите, что предпринять.
5. Не ограничивайтесь одной версией
Создавайте варианты.
Создавайте варианты: не только урезанные/облегченные для синдикации/распространения (или адаптированные для платформ типа Threads
), но и для публикации на своем сайте.
Варианты должны включать мелкие правки орфографии/опечаток, незначительные перефразировки (синтаксические изменения), взаимозаменяемые предложения/абзацы.
6. Подтверждение + Мгновенная ценность
Стиль написания "перевернутая пирамида" снова актуален.
Ключевые советы:
— Тайтлы и дескрипшены — обещание. Выполняйте его!
— Дайте посетителям быстрое подтверждение, что они на нужной странице (заголовок, лид-абзац).
— Давайте ценность сразу (не заставляйте искать).
— Пример подачи новостей (перевернутая пирамида): сначала общие факты, затем детали.
7. Оптимизация под NLP
Оптимизация контента для NLP
должна быть стандартом.
How many in a baker's dozen?
A baker's dozen is 13.
(Google вложил значительные средства в автоматическую генерацию ответов на вопросы и извлечение информации.)
Избегайте отрицаний, особенно косвенных/удаленных (например, саркастическое "Нет!" после утверждения).
Используйте правильные части речи (глаголы, наречия) для вашего формата, учитывая типичные слова для инструкций и образовательного контента.
8. Помните об ИИ
Будьте осторожны: вы рискуете снизить "оригинальность" контента из-за формулировок, характерных для LLM
.
Лучше придерживаться п. 3-5 (Анализ потребности, Конкурентов, Варианты) и корректировать контент по необходимости.
Контент — это инвестиция.
Большая часть контента (кроме новостей) выигрывает от правильного, автоматизированного управления и аудита.
Настройте оповещения/сигналы (или специальные отчеты) для контента, который:
— Прошло N дней с момента последнего обновления/пересмотра
— Потерял N позиций (за X и Y времени)
— Потерял N трафика (за X/Y времени)
— Сигналы удовлетворенности пользователей упали на N
— Источники/ресурсы которого были обновлены с момента публикации/последнего редактирования
@MikeBlazerX
Вы можете просто накидать код за час для чего-то, на что есть реальный спрос в мире
Выбирайте нишу с небольшой конкуренцией.
Так больше шансов на успех.
Вот 5 очень простых идей с низкой конкуренцией:👇
1. Калькулятор снежного дня (использует прогнозы погоды и местоположение для расчета вероятности закрытия школы из-за сильного снегопада).
— Огромный поисковый волюм зимой (500K+/месяц)
— Крайне слабая конкуренция
Этот сайт с DR/DA 1 получил 44K посетителей в феврале:
Скриншот
2. Калькулятор интерполяции
— 10-20K ежемесячный поисковый волюм
— Несколько сайтов с очень низким авторитетом ранжируются на первой странице Гугла (и получают трафик), что указывает на легкий ключ.
Очень просто закодить с помощью ИИ. Это будет одноразовая сборка.
Сайт на первом месте:
Скриншот
3. Калькулятор асфальта
— 10-20K ежемесячный поисковый волюм
— Суперпростой калькулятор, одноразовая сборка с ИИ.
Вот ваша конкуренция - сайт, ранжирующийся на ПЕРВОЙ СТРАНИЦЕ Гугла, без SSL
, с анимациями и мигающими огнями как в начале 2000-х:
Скриншот
4. Калькулятор ERA
— Около 10,000 ежемесячного поискового волюма
— Простая, одноразовая сборка с ИИ
— Несколько сайтов с низким DA/DR ранжируются на первой странице Гугла
Еще один древний, уродливый сайт, ранжирующийся на первой странице:
Скриншот
5. SCHD
Дивидендный калькулятор
— 5-10K ежемесячный поисковый волюм
— Очень ценная ниша (инвестиции), так что хорошо для RPM
рекламы
— 4 сайта с DR 0
или 1 ранжируются на первой странице, получая трафик.
— Займет несколько минут для создания с ИИ.
Скриншот
@MikeBlazerX