Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
ИИ-агенты ошибаются в офисных задачах примерно в 70% случаев, и многие из них вовсе не являются настоящим ИИ
По прогнозам Gartner
, к концу 2027 года свыше 40% проектов в сфере агентного ИИ будут отменены из-за высокой стоимости, неясной бизнес-ценности и недостаточного контроля рисков.
Несмотря на это, около 60% проектов, вероятно, продолжатся, хотя исследования Университета Карнеги-Меллона (CMU) и Salesforce
показывают, что ИИ-агенты успешно справляются с многоэтапными задачами лишь в 30–35% случаев.
Агентный ИИ — это модели машинного обучения, интегрированные с сервисами и приложениями для автоматизации задач или бизнес-процессов через итеративные циклы.
Например, ИИ-агент теоретически мог бы анализировать электронные письма на предмет преувеличенных заявлений об ИИ и проверять связи отправителей с криптовалютными фирмами, интерпретируя инструкции на естественном языке и обрабатывая данные быстрее традиционных скриптов или людей, хотя не всегда точнее.Gartner
отмечает, что многие вендоры занимаются "агент-вошингом", выдавая за агентный ИИ переименованные продукты, такие как ИИ-ассистенты, RPA
и чат-боты, без реальных возможностей.
По оценке Gartner
, из тысяч вендоров, заявляющих о разработке агентного ИИ, лишь около 130 действительно создают такие решения.
— TheAgentCompany от CMU: Этот бенчмарк моделирует компанию-разработчика ПО для тестирования ИИ-агентов на задачах интеллектуального труда, таких как веб-браузинг, написание кода и коммуникация.
Результаты показали, что лидирует Gemini-2.5-Pro
с выполнением задач на 30.3%, за ним идут Claude-3.7-Sonnet
(26.3%) и Claude-3.5-Sonnet
(24%).
Менее успешны GPT-4o
(8.6%) и Amazon-Nova-Pro-v1
(1.7%).
Среди ошибок — игнорирование инструкций, неверная обработка интерфейсов и обманное поведение, например, переименование пользователей для обхода задач.
— CRMArena-Pro от Salesforce: Этот бенчмарк тестирует процессы продаж, обслуживания и ценообразования в сфере CRM
.
Лучшие модели достигли успеха в 58% случаев в одноэтапных взаимодействиях, но показатель упал до 35% в многоэтапных сценариях.
Сильной стороной стало выполнение рабочих процессов: Gemini-2.5-Pro
показал успех в 83% случаев, хотя все модели почти не учитывали конфиденциальность, создавая риски для безопасности.
Безопасность и конфиденциальность остаются серьезными проблемами, так как агентам нужен доступ к чувствительным данным, что угрожает личной и корпоративной информации.
Мередит Уиттакер из Signal Foundation
подчеркнула эти риски на SXSW
.
Анушри Верма из Gartner
отметила, что современный агентный ИИ не обладает достаточной зрелостью для сложных бизнес-целей или детализированных инструкций, а многие сценарии не оправдывают его внедрение.Gartner
прогнозирует, что к 2028 году 15% ежедневных рабочих решений будут приниматься автономно ИИ-агентами (против 0% в прошлом году), а 33% корпоративных приложений включат агентный ИИ, несмотря на текущие ограничения.
Примечание: Текст сокращен примерно на 10–15% за счет устранения избыточных формулировок и упрощения отдельных фраз.
Сохранены структура, тон, все ключевые данные, статистика и именованные сущности.
https://www.theregister.com/2025/06/29/ai_agents_fail_a_lot/
@MikeBlazerX
Статистика по AI
-поиску за 2025 год: все, что вам нужно знать, (часть 2 из 2)
Статистика и факты о генеративном AI
— 71.63% американских потребителей определяют контент, созданный GenAI
— 37.5% запросов в ChatGPT
имеют генеративный интент (создание контента)
— Издатели, чей контент переписывается автоматически, больше всего страдают от GenAI
— Поставщики стоковых и кастомных изображений, фото и видео также сильно страдают от GenAI
— SEO-копирайтеры, журналисты и другие авторы могут столкнуться с сокращением возможностей из-за GenAI
Факты о соблюдении `AI` файла Robots.txt
— Anthropic (Claude
) соблюдает запрет в Robots.txt для всех видов использования LLM
, включая обучение и дублирование контента
— OpenAI
(ChatGPT
) следует запрету в Robots.txt
только для предобучения моделей, игнорируя его для действий пользователя
— Meta
(Meta AI, Llama) соблюдает запрет только для предобучения, но может игнорировать его для пользовательских действий
— Perplexity
не уточняет, как краулит данные для предобучения, и не предоставляет механизма отказа
— PerplexityBot
соблюдает запрет для индексации в поиске, но данные не используются для обучения
— Perplexity-user
извлекает контент только по запросу и следует запрету в Robots.txt
— Google (Gemini, AI Mode, AI Overviews) соблюдает запрет для Google-Extended
, исключая контент из обучения, но не для отображения в AI Overviews
— Google, OpenAI, Anthropic, Meta
и Perplexity
могут использовать краулеры для извлечения данных, переписывая их в сниппеты и обходя запреты Robots.txt
— Компании LLM-AI
используют данные Common Crawl
, соблюдающего Robots.txt
, но сотрудничают с фирмами вроде Scale AI
, чьи методы сбора данных непрозрачны
— Большинство компаний LLM-AI
не раскрывают источники данных для обучения, что позволяет обходить запреты Robots.txt
— Некоторые провайдеры, такие как SourceHut
, блокируют все облачные системы (Google Cloud, Azure, AWS)
— 80% компаний блокируют юзер-агенты LLM
при наличии выбора
— Некоторые сайты фиксируют сотни тысяч визитов от LLM
-скраперов, маскирующихся под пользователей
— Парсинг ботами LLM
едва не обошелся одному стартапу в 7000 долларов из-за платы за API
— Парсинг ботами LLM
стоил e-commerce
компании 1000 долларов из-за превышения лимитов хостинга
https://www.joeyoungblood.com/artificial-intelligence/ai-search-statistics-and-facts/
@MikeBlazerX
Полный список популярных поисковых роботов/агентов с ИИ и их функции
https://darkvisitors.com/agents/
@MikeBlazerX
Одна из стратегий, которая реально помогла мне добиться конверсии в 1 интервью на каждые 4 отклика во время поиска работы, заключалась в том, чтобы относиться к своему резюме как к проекту по CRO
, — продолжает Чай Фишер.
КАЖДЫЙ его элемент должен был работать на конверсию — от прохождения через ATS
до одобрения рекрутером.
Вот как я этого добилась:
1. КАЖДЫЙ ПУНКТ СПИСКА СОДЕРЖИТ СТАТИСТИКУ.
Никому не интересно, что вы хорошо работаете в команде, но им интересно, если вы обучили X членов команды.
Неважно, если цифры невелики.
"Обучила двух человек" в любой день уделает "Обучала людей".
Везде нужна статистика.
Не могу не подчеркнуть это еще раз.
Это лучший способ доказать рекрутерам на раннем этапе, что вы не пустослов, объясняя, ПОЧЕМУ вы хороши, а не просто заявляя, что вы ТАКАЯ и есть.
2. Я использовала в резюме ключевые слова, которые видела в вакансиях.
Кросс-командное взаимодействие, исследование ключевых слов, Surfer, Screaming Frog
.
В повседневной жизни я не обязательно использую такие слова, как "кросс-командное взаимодействие", а вот софт — да.
3. Мое резюме было до одури простым.
Раньше я использовала кастомный шаблон из InDesign
, он был шикарен.
Ни одного собеседования.
Перешла на самый скучный и понятный для машин шаблон — сработало отлично.
Я публикую стратегии о том, как мне удалось найти потрясающую работу и дойти до финальных этапов собеседований с крупными IT
-компаниями, конкурируя с другими кандидатами на этом рынке.
Посмотрите другие мои посты, чтобы найти больше работающих фишек.
Я хочу поделиться опытом и надеюсь, это вам поможет.
Резюме прикреплено ниже, можете смело его забирать.
@MikeBlazerX
На каждые 4 вакансии, на которые я откликалась, я получала 1 приглашение на собеседование, — говорит Чай Фишер.
Значительная часть этого успеха была связана с моим подходом к сопроводительным письмам, а именно с тем, как я использовала ChatGPT
и Claude
с системой промптов, которую я разработала.
Я несколько месяцев держала эту схему работы при себе, но теперь, когда мы больше не конкуренты, я наконец-то могу ей поделиться:
Промпт 1: АНАЛИЗ И СОПОСТАВЛЕНИЕ
Вставьте свое резюме
+ описание вакансии
. Попросите ИИ:
— Извлечь: название должности, ключевые цели, обязательные/желательные навыки, ключевые слова, описывающие культуру компании.
— Сопоставить достижения из резюме с каждым пунктом (с указанием метрик).
— Отметить любые пробелы.
— Проанализировать тональность и основные темы компании.
— Сгенерировать 2 цепляющих предложения, которые свяжут вашу историю с миссией компании.
Возвращает структурированный JSON
.
Промпт 2: СОСТАВЛЕНИЕ ПЛАНА
Передайте ему JSON
. Попросите ИИ составить сопроводительное письмо из 4 частей:
— Зацепка (используйте одну из предложенных).
— Доказательства (2–3 релевантных примера из резюме).
— Культура/будущее (свяжите свои ценности с одной из тем компании).
— Завершение (четкий призыв к действию).
Снова возвращает JSON
.
Промпт 3: ЧЕРНОВИК И ШЛИФОВКА
Дайте ему план и скажите ИИ:
— Написать письмо от первого лица объемом ~300 слов
.
— Использовать правильную тональность.
— Адресовать его менеджеру по найму (или "Команде найма").
— Исправить грамматику, сделать текст более сжатым.
Вывод в формате Markdown
.
Я отправляла такие письма КАЖДЫЙ РАЗ, когда была возможность приложить сопроводительное, и увидела ОГРОМНУЮ разницу между тем, что было до, и тем, что стало после того, как я начала это делать.
Ниже — копия ТОЧНОЙ формулировки промпта (в следующем посте).
@MikeBlazerX
Исследование: SearchGPT использует Google, а не Bing в качестве источника для поиска
Анализ JSON
-файлов данных ChatGPT
показывает, что вопреки официальной документации SearchGPT
использует Google как внешний поисковик, а не Bing
.
Доказательства этого перехода основаны на четырех технических наблюдениях.
1. Совпадение URLURL
, извлеченные SearchGPT
по запросу, показывают 30% совпадение с результатами Bing
, но 90% сходство с ТОП-20 результатов Google.
— Уровень совпадения URL
(SearchGPT vs ТОП-20 Google):
- "Rachat de crédit": 84.3%
- "Carte grise": 71.4%
- "Comment nettoyer un four": 86%
Примечание: Этот анализ исключает прямых контент-партнеров OpenAI
(например, Le Monde
, Wikipedia
), которые являются отдельным источником данных.
2. Соответствие сниппетов и метаданных
Текстовые сниппеты и даты публикации (в формате Unix timestamp) в результатах SearchGPT
точно соответствуют Google по тем же запросам и отличаются от Bing
.
3. Доступ к индексу GoogleSearchGPT
не сканирует страницы в реальном времени, а запрашивает индекс Google, часто с оператором site:
.
Это доказывается двумя особенностями поведения:
— Задержка в обновлениях: Изменения контента на странице становятся видимыми для SearchGPT
только после переиндексации Google.
— Чтение JavaScript-контента: SearchGPT
читает контент сайтов на JavaScript
(например, Uniqlo.com), получая доступ к отрендеренной версии в индексе Google.
4. Наличие трекинговых параметров GoogleURL
-параметр ?srsltid
из Google Merchant Center
в исходных ссылках SearchGPT
подтверждает, что результаты приходят из экосистемы Google.
Выводы и SEO-последствия
Этот необъявленный переход, вероятно, связан с прекращением поддержки поискового Bing API
11 августа 2025 года.
— Основной вывод: Результаты в Google определяют видимость в ответах SearchGPT
.
— Технический вывод: Корректная индексация Google для JavaScript
-контента решающа для видимости в SearchGPT
.
— Перспектива: Это партнерство может расшириться до интеграции с сервисами Google, такими как Maps
или бизнес-профиль.
https://newsletter.alekseo.com/p/searchgpt-bing-google
@MikeBlazerX
По поводу оплаты за краул для AI
-краулеров:
Нам нужен аукцион для ИИ по аналогии с header bidding
в рекламе.
Кто больше заплатит, тот и краулит контент, остальные — отсекаются.
@MikeBlazerX
Для увеличения прибыли Google объявляет о планах убрать все оставшиеся результаты поиска из поисковой выдачи
@MikeBlazerX
Помогает ли удаление контента для SEO?
Стратегическое удаление страниц блога может дать ценные результаты для SEO.
Анализ двух кейсов — в сфере SaaS
и туризме — показывает, что удаление неэффективного контента улучшает тематическую ясность, перераспределяет бюджет и усиливает фокус бренда.
В обоих случаях удалялся устаревший или малоценный контент, а пересекающиеся статьи консолидировались без повторной оптимизации.
Кейс 1: SaaS-компания
— Ниша: SaaS
(крупная компания)
— Цель: Улучшить тематическую ясность, органическую видимость и траст.
— Стратегия: Удаление и консолидация неэффективного контента блога.
— Результаты:
- Вырос органический трафик.
- Тематическая принадлежность домена стала четче.
- Увеличилось число упоминаний бренда.
- Возросло количество ИИ-цитирований, что говорит о росте авторитета.
— Вывод: Сокращение контента улучшило ключевые показатели. Стратегия масштабируется на локализованные версии сайта.
Кейс 2: Туристический сервис
— Ниша: Туристические услуги (средняя/крупная компания)
— Цель: Усилить фокус и убрать контент с низким ROI
.
— Стратегия: Удаление и консолидация общего контента блога, созданного ранее другим агентством.
— Результаты:
- Органический трафик остался без значительных изменений.
- Главный итог — финансовая ясность: блог не приносил ROI
, трафика и конверсий.
— Вывод: Бюджет и ресурсы перераспределили на другой SEO-проект с положительными результатами. Блог под наблюдением для возможного полного удаления.
7 ключевых уроков по чистке контента
1. Ценность контента зависит от ниши: Влияние контента варьируется по отраслям. Где-то он эффективен, а где-то создает лишь информационный шум без стратегии.
2. Лишний контент увеличивает затраты: Неэффективный контент тратит бюджет. Его удаление уточняет ROI
и перенаправляет средства на успешные проекты.
3. Технический контроль необходим: Удаление требует знаний в техническом SEO, чтобы избежать проблем на сайте. Нужен опытный специалист для планирования.
4. Модель "контент-хаба" часто устарела: Большие объемы контента без стратегии и уникальности становятся шумом в текущей поисковой среде.
5. SEO нуждается в автономии: Если SEO подчинено отделу контента, эффективность падает. Специалистам нужна свобода для экспериментов и стратегий.
6. Ясность важнее объема для ИИ-поиска: Видимость в LLM
и ИИ-поиске достигается качественным, фокусным контентом, а не количеством нерелевантных материалов.
7. Просчитанный риск приносит результат: Смелые шаги, как удаление контента, могут дать значительный эффект, даже если он отличается от ожиданий. Успех требует сотрудничества и готовности к адаптации.
https://www.linkedin.com/pulse/does-deleting-content-help-seo-7-lessons-from-two-bold-anconitano-ivb0f/
@MikeBlazerX
Чем больше я экспериментирую с векторными эмбеддингами и семантическим поиском, тем меньше я верю, что это продвинутый фактор ранжирования Google 📈, — говорит Сайрус Шепард.
Скорее, это больше похоже на базовое условие для участия в игре.
Тот минимум, который нужен, чтобы просто быть в игре ♦️
Возьмите любой конкурентный запрос, и у всех топ-100 результатов в выдаче будут достаточно схожие векторные эмбеддинги относительно этого поискового запроса.
И при этом часто нет никакой корреляции с позицией.
Так в чем же дело?
Мы знаем, что поиск "релевантных" документов — это один из первых шагов, которые Google предпринимает при ответе на запрос.
Сокращение числа возможных документов с миллиардов до нескольких тысяч.
После этого такие сигналы, как ссылки, клики, качество и все остальные факторы ранжирования, вероятно, играют гораздо более важную роль.
Так что же, векторные эмбеддинги бесполезны?
Нет, отнюдь нет.
Особенно для понимания контента в больших масштабах, определения релевантности, поиска аномалий и целого ряда других задач.
(И, как отметил в комментариях Кай Шпристерсбах, очень сложные запросы / развернутые поисковые фразы с гораздо большей вероятностью выигрывают от такого типа анализа!)
Но подняться с 10-й на 5-ю позицию по конкурентному запросу за счет улучшения показателей косинусного сходства?
Я пока не вижу тому доказательств.
Буду рад, если кто-то докажет, что я неправ!
Если у вас есть доказательства обратного или вы считаете, что я упускаю что-то важное, пожалуйста, поделитесь...
@MikeBlazerX
"Rocketship SEO
" — новый плагин для WordPress
, разработанный, чтобы быть супербыстрым и совместимым с вашим текущим стеком.
Он предоставляет мощные SEO-инструменты без раздутого функционала и платной подписки.
👉 Рекомендации тайтлов с помощью ИИ
👉 Рекомендации мета-дескрипшенов с помощью ИИ
👉 Генерация атрибутов Alt
и Title
для изображений с помощью ИИ
👉 SEO-рекомендации по контенту с помощью ИИ
👉 Автоматическое оглавление
👉 XML
-карты сайта (если они вам нужны)
👉 Микроразметка Schema
(если она вам нужна)
👉 Теги Open Graph
(если они вам нужны)
👉 Карточки Twitter
(если они вам нужны)
👉 Массовые рекомендации для мета-тегов с помощью ИИ
👉 Совместимость с блочным и классическим редакторами
👉 Возможность легко исключать отдельные посты из XML
-карты сайта (при использовании нашего генератора)
👉 Простое закрытие контента от индексации через noindex
👉 Протестирована (и продолжает тестироваться) совместимость с Yoast
и RankMath
. На очереди — Slim SEO
и SEOPress
.
В разработке еще масса новых функций.
https://wordpress.org/plugins/rocketship-seo/
@MikeBlazerX
Может ли оптимизация под векторный поиск принести больше вреда, чем пользы?
Векторный поиск используется в Google Поиске.
Если вы понимаете, как под него оптимизироваться, вы можете очень понравиться машинам.
Но, вполне возможно, что если при этом вы не будете выглядеть так же хорошо для пользователей, то рискуете научить системы Google отдавать вашему сайту меньше предпочтения.
Подробнее:
Риски оптимизации под векторный поиск
Оптимизация под векторный поиск может временно повысить позиции, но становится вредной, если сигналы ПФ не подтверждают релевантность, определенную алгоритмом.
Это может со временем привести к пессимизации контента в системах Google.
Использование векторного поиска в Google
Векторный поиск превращает текст в числовые эмбеддинги, где семантическая близость отражается близостью в многомерном пространстве.
Системы Google, включая RankBrain
, применяют этот метод и, как подтверждено, переранжируют топовые результаты выдачи.
Однако полагаться только на этот механизм — ошибка.
Джон Мюллер из Google отметил: "Оптимизация под эмбеддинги — это, по сути, переспам ключевыми словами".
Решающая роль сигналов ПФ
Модели ранжирования Google улучшаются благодаря поведенческим сигналам, таким как клики, внимание и удовлетворенность пользователей.
Системы, включая helpful content system
и обновление марта 2024 года, строятся на обучении через взаимодействия с пользователями.
Конфликт возникает, если контент кажется релевантным для векторного поиска, но не удовлетворяет аудиторию.
При постоянных негативных сигналах ПФ Google считает контент бесполезным и снижает его позиции.
Долгосрочная стратегия: приоритет на ценности для человека
Эффективное решение — создавать контент с явной ценностью для пользователей.
Это требует оригинального, экспертного анализа с глубокими инсайтами, а не пересказа существующих данных.
Такой подход приносит позитивные поведенческие сигналы, необходимые для устойчивой видимости в системах ранжирования Google.
https://mariehaynes.com/could-optimizing-for-vector-search-do-more-harm-than-good/
@MikeBlazerX
Чем старше ваш сайт, тем больше страниц нужно почистить, обрезать или объединить.
Посмотрите, сколько нерелевантных страниц накапливается на сайте в зависимости от его возраста.
В рамках этого исследования нерелевантной считалась проиндексированная страница, которая получает мало SEO-трафика или вообще его не получает.
Просто не забывайте проводить стандартную уборку сайта.
Нерелевантные страницы будут всегда, но они не должны составлять значительный процент вашего сайта.
@MikeBlazerX
А вы знали, что у Google есть продукт для парсинга HTML
-структуры?
Метехан Ешилюрт провел эксперимент с Google Document AI Layout Parser
на трех веб-страницах: статье по техническому SEO, лендинге приложения и руководстве по привлечению пользователей.
Цель — изучить, как модель машинного обучения анализирует структуру HTML
.
Хотя Document AI
отличается от парсера Google Поиска, результаты показывают важность чистого и логичного HTML
для обработки контента.
Инструмент преобразует HTML
в структурированный JSON
, классифицируя блоки контента и их связи.
Ключевые выводы
1. Навигационный "мусор" может скрыть контент
Анализ выявил, что излишние навигационные элементы затрудняют доступ к основному контенту.
На одной странице парсер добрался до контента лишь на 122-м блоке, пройдя 121 навигационный блок.
SEO-статья:
— Первый блок контента: Блок 3
— Навигационные блоки: 2
Лендинг приложения:
— Первый блок контента: Блок 122
— Навигационные блоки: 121
Руководство пользователя:
— Первый блок контента: Блок 1
— Навигационные блоки: 0
2. Учитываются все DOM-элементы
Парсер присваивает ID
каждому DOM
-элементу, даже пустым оберткам, что указывает на лишнюю нагрузку от избыточного HTML
.
3. Иерархия элементов сохраняется
Парсер поддерживает связи "родитель-потомок".
Контент, вложенный в заголовок, связывается с ним в JSON
, подчеркивая важность структуры заголовков (H1
→ H2
→ H3
).
4. Классификация контента
Инструмент определяет типы контента: от heading-1
до heading-6
, paragraph
, header
, footer
и списки.
Различие между header
и heading
может указывать на разный вес элементов.
5. Структурированные данные неизменны
Таблицы и списки парсятся с сохранением структуры, включая объединенные ячейки и типы списков, что облегчает извлечение данных.
На основе работы парсера рекомендуются следующие практики технического SEO:
— Сокращайте HTML-раздутость: Уменьшайте пустые или лишние обертки (div
) для оптимизации DOM
.
— Приоритизируйте контент: Размещайте ключевой контент выше в DOM
, минимизируя предшествующие навигационные элементы.
— Соблюдайте иерархию заголовков: Используйте заголовки последовательно для семантической структуры.
— Структурируйте данные: Применяйте списки и таблицы для упрощения извлечения. Пишите контент в виде независимых фрагментов для парсинга и ранжирования.
Важно понимать, что эксперимент проводился с Google Cloud Document AI
, а не с краулером Google Поиска.
Влияние на ранжирование не подтверждено и требует дополнительных тестов.
Выводы поддерживают проверенные методы создания чистого, семантического и доступного HTML
.
https://metehan.ai/blog/google-document-ai-layout-parser/
@MikeBlazerX
Внутри черного поиска (Dark Search): 7000 источников показывают, как ИИ рекомендует ваш продукт
Ключевые выводы из анализа 7к источников:
— ИИ влияет на 90% информационных запросов без кликов на сайт (Semrush).
— Совпадение между топ-выдачей Google и источниками ChatGPT
составляет 13–15% (Omnia).
— Retrieval-Augmented Generation
(RAG) использует свежий, структурированный контент для поиска в реальном времени.
— Форматы "Best of" и сравнения "X vs Y" чаще всего цитируются ИИ.
— В контенте для ИИ преобладают блоги (51%) и каталоги (19%), а не главные или продуктовые страницы (Omnia/Ahrefs).
Динамика Dark Search:
— Google обрабатывает 16.4 млрд запросов в день, AI Overviews
охватывают 20% из них (SE Ranking). AI Mode
(май 2025) сокращает клики за счет ответов в формате чата.
— До AI Overviews
источники получали 100 млн кликов в день, сейчас — 8 млн, потеря 92 млн кликов (Google/Semrush).
— ИИ доминирует на этапе перед покупкой: 53% информационных запросов удовлетворяются ИИ с минимальным трафиком, 47% — навигационные, коммерческие и транзакционные запросы под влиянием ИИ (Sparktoro).
Как ИИ выбирает источники:
— 70% запросов в ChatGPT
— диалоговые, контекстно-зависимые (Semrush).
— RAG
(поиск в реальном времени) учитывает свежий, структурированный, авторитетный контент.
— Для середины воронки ("Discover & Educate") ИИ выбирает блоги (75%), для конца воронки ("Shortlist & Decide") — каталоги (в 5 раз чаще) (Omnia).
ИИ против Google:
— Пересечение по ключевым словам источников ИИ с топ-выдачей Google — 40%, у топ-10 Google — 65–85% (Omnia).
— Совпадение источников ИИ с топ-10 Google: ChatGPT
(13%), AI Overviews
(15%), Perplexity
(75%).
— ИИ предпочитает домены с высоким авторитетом (DR
> 70 у 60%), сильными бэклинками и фактическим контентом (Omnia/Ahrefs).
Типы контента для рекомендаций ИИ:
— Запросы "Best X": Преобладают каталоги и списки "топ X". Пример: страница Sortlist "Best Online Advertising Agencies" цитируется благодаря точному заголовку, структуре, таблицам и обновлениям.
— Сравнения "X vs Y": Лидируют страницы "VS" с явным указанием сравнения в заголовке (90%). Пример: TechRadar "Ring vs Nest" выделяется таблицами, списками плюсов/минусов и отметками актуальности.
Поисковая воронка 2026 (этапы запросов к ИИ):
— Осведомленность/Раннее рассмотрение: Зависимость от RAG
; фокус на характеристиках, ценах, сравнениях.
— Позднее рассмотрение/Покупка: Частичная зависимость от RAG
; акцент на плюсах/минусах, ценах, функциях.
— Конверсия/После покупки: Слабая зависимость от RAG
; приоритет на API
и документации поддержки.
— Маркетинг/Удержание: Без RAG
; фокус на генеративном контенте.
Как влиять на Dark Search:
1. Цельтесь в источники ИИ: авторитетные блоги, каталоги, списки топ-10 для образовательных и сравнительных запросов.
2. Оптимизируйте контент: создавайте структурированные страницы "X vs Y", таблицы, разбивку по ценам, списки плюсов/минусов.
3. Отслеживайте видимость: используйте инструменты вроде Omnia
для мониторинга цитирований ИИ и доли голоса в нише.
4. Открывайте данные: передавайте данные с микроразметкой (Product, Offer, Review
) через Merchant Centre
или публичные XML/JSON фиды для интеграции с ИИ.
В 2026 году успех в поиске — это влияние, а не клики.
Размещайте бренд в источниках, доверенных ИИ.
https://www.sortlist.com/blog/how-chatgpt-gets-information/
@MikeBlazerX
Статистика по AI
-поиску за 2025 год: все, что вам нужно знать, (часть 1 из 2)
Самая интересная статистика
— AI
-поиск приносит сайтам менее 1% трафика
— 71.63% потребителей США правильно определяют фото и графику, созданные GenAI
— 51% доменов в AI Mode
от Google совпадают с доменами в поисковой выдаче Google
— ChatGPT
генерирует 83% трафика с AI
-поиска на сайты
Стата и факты об AI-поиске / AI SEO
— AI
-поиск приносит сайтам менее 1% трафика
— Поисковые системы с AI
(например, Perplexity
) имеют CTR
0.74%
— Системы AI
-чат-ботов (например, ChatGPT, Claude
) имеют CTR
0.33%
— AI
-поисковые системы приносят на 91% меньше кликов, чем Google
— AI
-чат-боты приносят на 96% меньше кликов, чем Google
— Объем трафика из AI Overviews
от Google неизвестен, так как Google не предоставляет данные
— Google запустил AI Overviews
в США 14 мая 2024 года
— После запуска AI Overviews
многие сайты и SEO-специалисты отметили эффект "пасти аллигатора" из-за роста показов и падения кликов в Google
— Дарвин Сантос назвал это "Великое Разъединение", термин закрепился в SEO-сообществе
— В апреле 2025 года Google уличили в использовании ссылок на другие запросы в AI Overviews
, забирая контент и клики у издателей
— Google запустил AI Mode
в США 20 мая 2025 года
— 80.41% ссылок, цитируемых AI
-системами, относятся к доменам .COM
— 11.29% — .ORG
— 2.16% — .UK
— 1.67% — .IO
— 1.13% — .AI
— 1.01% — .NET
— 0.97% — .CO
— 0.52% — .AU
— 0.45% — .BR
— 0.39% — .CA
— 51% доменов в AI Mode
от Google совпадают с доменами поисковой выдачи
— В 92% случаев AI Mode
от Google включает боковую панель со ссылками
— При отображении ссылок под ответом в AI Mode
совпадение с топ-доменами Google достигает 89%
— Ответы на коммерческие запросы в AI Mode
в 2 раза длиннее, чем на информационные
— Цитирования в AI Overviews
имеют 85.79% совпадений с высокоранжируемыми доменами
— AI Mode
от Google показывает больше уникальных доменов, чем ChatGPT, Perplexity
или AI Overviews
— 32.7% запросов в ChatGPT
— информационные
— 9.5% — коммерческие
— 6.1% — транзакционные
— 2.1% — навигационные
— 49.6% запросов в ChatGPT
не имеют поискового интента или являются генеративными
Конец 1-ой части.
@MikeBlazerX
Стратегическое SEO 2025 – бесплатная электронная книга
https://www.hobo-web.co.uk/wp-content/uploads/hobo-strategic-seo-2025.pdf
https://www.hobo-web.co.uk/strategic-seo-2025/
@MikeBlazerX
Ниже — копии ТОЧНОЙ формулировки промптов Чай Фишер:
**Cover Letter Writer**
**Prompt 1 (Attach your resume and job description to this)**
You are my ANALYZE & MATCH agent. I will give you:
{JOB_POSTING_TEXT} ← entire job ad
{COMPANY_NAME}
{USER_RESUME_TEXT} ← your full résumé / work history
{OPTIONAL_COMPANY_DOCS} ← paste About-page text, press releases, etc. (or leave blank) Your job (do ALL of this):
— Extract from the job posting: – "role_title" – 3-5 "top_objectives" (plain-language success goals) – lists of "must_have_skills" and "nice_to_have_skills" – up to 8 "cultural_values_keywords" (tone, verbs, adjectives)
— For every "must_have_skill" and each "top_objective," pull 1-2 concrete résumé achievements that prove I can deliver. Include metrics if possible.
— Note any obvious gaps where my résumé lacks proof.
— Derive a high-level writing style for the company ("tone_guidelines") plus two recent company themes (from supplied docs or the cultural keywords).
— Craft two punchy hook sentences that tie my background to their mission.
Return only this JSON: { "role_title": "", "top_objectives": [ "" ], "must_have_skills": [ "" ], "nice_to_have_skills": [ "" ], "cultural_values_keywords": [ "" ], "skill_alignment": [ { "requirement": "", "matching_experience": "", "metric_or_result": "" } ], "gaps": [ "" ], "tone_guidelines": "", "two_recent_company_themes": [ "", "" ], "hook_sentence_options": [ "", "" ] }
You are my OUTLINE agent. Input:
{ANALYSIS_JSON} ← paste the full JSON output from Prompt 1.
Task: – Build a 4-part cover-letter framework:
hook – choose ONE of the provided hook sentences.
proof_points – weave 2-3 of the strongest aligned achievements around the top objective.
culture_future – sentence(s) linking my values to one recent company theme.
close – confident CTA ("I'd love to discuss…", etc.).
– Keep each section as a single string (no newlines inside values).
Return only this JSON: { "outline": { "hook": "", "proof_points": [ "", "", "" ], "culture_future": "", "close": "" }, "tone_guidelines": "" // pass through from Prompt 1 so the next agent sees it }
You are my DRAFT & POLISH agent.
Inputs:
{OUTLINE_JSON} ← from Prompt 2
{COMPANY_NAME} {SPECIFIC_HIRING_MANAGER_NAME} (optional; default "Hiring Team")
Tasks:
Write a complete cover letter (~300–350 words) in first-person singular, active voice, following the outline and tone_guidelines.
Address the letter to the manager name provided (or "Hiring Team").
Self-proofread: fix typos, tighten wording, and ensure it stays ≤350 words.
Return only the finished letter in Markdown—no notes, no JSON.
в 3 часа ночи тебя накрывает дофамином, и ты на вайбе начинаешь кодить SaaS
-ку.
ты отваливаешь 49 баксов за домен в зоне .ai
ты запускаешься на Product Hunt
, пишешь об этом в Твиттере, пост собирает 7 лайков
ты получаешь 2 регистрации, $0 MRR
, оба аккаунта с Gmail
, один из них спрашивает, бесплатный ли сервис
твоя чистая маржа составляет -200
% из-за счетов от Vercel
и Clerk
приходит счет на $1500 от Cursor
, и ты продаешь свою машину
твоя девушка спрашивает, зачем ты делаешь "приложение, которым никто не пользуется"
родители "на всякий случай" присылают тебе вакансии
какой-то немец требует счет-фактуру с НДС и угрожает на тебя пожаловаться
в 4 утра ты в холодном поту гуглишь "что такое НДС"
кто-то другой выкатывает твою идею, и она залетает
приходит письмо от Supabase
, что твой проект скоро заморозят
ты в панике скупаешь еще 3 домена, потому что "в следующий раз точно получится", на этот раз в зоне .com
ты начинаешь на вайбе кодить еще одну SaaS
-ку, забыв про первую, на этот раз с помощью Claude
у тебя 12 доменов, 2 недоделанных приложения и медленно едет кукуха
твой единственный пользователь — это ты сам, обновляющий свой же лендинг
ты тратишь 8 часов, ковыряя темную тему в блоге, вместо того чтобы заниматься маркетингом
ты флипаешь один домен за 50 баксов и чувствуешь себя Джеффом Безосом
и зачем ты снова пилишь очередной пет-проект?
@MikeBlazerX
Появилась пара новых юзер-агентов Google AI:
Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko; compatible; GoogleAgent-Mariner; +https://developers.google[dot]com/search/docs/crawling-indexing/google-agent-mariner) Chrome/135.0.0.0 Safari/537.36
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; GoogleAgent-Search; +https://developers.google[dot]com/search/docs/crawling-indexing/google-agent-search) Chrome/114.0.0.0 Safari/537.36
Когда ляпнул про эмбеддинги и веерные расширения запроса кому не надо
@MikeBlazerX
Патенты Google указывают на то, что поисковые запросы интерпретируются в трех основных измерениях: Query Aspect
(аспект запроса), Query Theme
(тема запроса) и Query Phrasification
(фразификация запроса).
Например, запрос "hotel
" может иметь тему "holiday
" и аспект "best
", в результате чего формируется сформулированный запрос, такой как:
"Find the best hotel price for holiday."
Эти концепции постоянно используются в технической документации Google.
Патент Search with Stateful Chat
описывает, как pre-trigger
классификаторы используют заранее определенные шаблоны для интерпретации определенных типов запросов.
Эти триггеры активируются контекстным движком, который определяет интент пользователя на основе поисковой сессии, поведения пользователя и окружения запроса.
Другие патенты описывают похожие системы поисковика, основанные на пользовательском контексте, в которых модели оценки и аспекты запроса изменяются в зависимости от выводимого контекста.
Этот фреймворк не нов; он является результатом двух десятилетий развития семантического поиска, который теперь лежит в основе интерфейса Google AI Mode
.
Эволюция системы во многом опирается на использование синтетических запросов и пользовательских сессий, что позволяет Google симулировать поисковое поведение в обучающих целях, не полагаясь исключительно на реальные данные пользователей.
Система также использует обучение с подкреплением, и это предполагает, что обновления выкатываются батчами и улучшаются за счет обратной связи от машинного обучения.
Соответственно, интерпретация терминов может меняться; такие слова, как "download
" и "upload
", со временем могут активировать различные аспекты, темы или фразификации на основе изученного контекста.
Когда страница ранжируется по разговорному запросу, она ранжируется по машинно-интерпретированной, сформулированной версии этого запроса, а не по исходному тексту, введенному пользователем.
@MikeBlazerX
Экспертность, Опыт, Авторитетность, Достоверность
Экспертность - как ты объясняешь то, что делаешь в своем контенте.
Опыт - то, что ты описываешь как уже сделанное в своем контенте.
Авторитетность - ты заработал видимую репутацию за то, что делаешь.
Достоверность - ты говоришь по существу, предоставляешь четкую информацию лаконично, и подтверждаешь свои утверждения надежными ссылками или цитатами.
@MikeBlazerX
Noindex
больше не означает "нерендерится"
Вопреки официальной документации, похоже, теперь Google пропускает страницы с директивой noindex
через свой Web Rendering Service
(WRS).
Раньше директива noindex
препятствовала рендерингу, а это означало, что никакой JavaScript
на странице не выполнялся.
Недавние тесты показывают, что это поведение изменилось.
И хотя инструменты для проверки в реальном времени, такие как Инструмент проверки URL
, уже некоторое время рендерят страницы с noindex
, теперь это, по-видимому, происходит и в основном конвейере индексации.
Методология тестирования и результаты
Была проведена серия тестов с использованием страниц с директивой noindex
, которые также содержали JavaScript
fetch()
-запрос к эндпоинту, логирующему детали запроса.
— Тест 1: мета-тег `noindex`
Тестировалась страница с мета-тегом noindex
для роботов. JavaScript
на странице также удалял этот тег.
- Результат: Гуглобот выполнил fetch()
-запрос методом POST
, подтвердив, что страница была отрендерена. Страница была корректно обработана как noindex
и не попала в индекс (статус в GSC
: "Исключено тегом noindex
").
— Тест 2: HTTP-хидер `noindex`
Тестировалась страница, которая отдавалась с HTTP
-хидером X-Robots-Tag: noindex
.
- Результат: Как и в первом тесте, Гуглобот отрендерил страницу и выполнил fetch()
-запрос методом POST
. Страница не была проиндексирована (статус в GSC
: "Исключено тегом noindex
").
— Тест 3: код ответа HTTP 404
Тестировалась страница, которая возвращала код ответа HTTP 404
.
- Результат: fetch()
-запрос не был выполнен. По-видимому, Гуглобот не рендерит страницы, которые отдают код ответа 404
.
— Тест 4: `noindex` с JavaScript-редиректом
Страница с мета-тегом noindex
содержала JavaScript
-редирект на другой URL
.
- Результат: Страница была отрендерена, и fetch()
-запрос был выполнен. Однако в GSC
страница получила статус "Исключено тегом noindex
", а не "Страница с переадресацией". Это указывает на то, что директива noindex
получила приоритет, а редирект не был обработан.
Результаты тестов подтверждают, что теперь Google рендерит страницы с директивой noindex
, выполняя JavaScript
и даже отправляя POST
-запросы.
Использование метода POST
указывает на то, что это часть формального процесса рендеринга, а не спекулятивная выборка.
https://tamethebots.com/blog-n-bits/noindex-does-not-mean-not-rendered
@MikeBlazerX
⚠️ Если вы изучаете или начинаете использовать векторные эмбеддинги, остерегайтесь эффекта плотности.
Один из способов применения векторных эмбеддингов и косинусного сходства — это измерение и поиск наиболее релевантной страницы из группы по конкретному запросу.Screaming Frog
упрощает эту задачу благодаря правильным настройкам и встроенной функции.
Суперполезно, но будьте осторожны.
На этот показатель сходства влияет множество факторов.
Один из них — плотность.
Например, я прогнал несколько страниц одного маркетингового агентства по запросу "boston seo agency", — говорит Брайан Горман.
Самой похожей оказалась страница, на которой не было ничего, кроме карточки одного поста из блога.
Одна из тех страниц-агрегаторов, которые собирают подходящие статьи по датам.
Не главная?
Не страница с SEO-услугами?
Почему?
Это и есть эффект плотности.
Поскольку на странице не было другого контента, информация о местоположении в футере была интерпретирована с более высокой плотностью, чем на главной странице, где был тот же футер, но гораздо больше основного контента, который его "разбавлял".
С точки зрения данных о местоположении, страница с тонким контентом была как эспрессо, а главная — как разбавленный кофе.
И поскольку запрос содержал "boston
", сходство оказалось высоким.
Очевидно, мы не должны слепо доверять этим показателям, но также очень важно понимать, что на них влияет, чтобы вы могли здраво рассуждать и приходить к верным выводам.
ИМХО, это показывает, что новых тактик, которые мы осваиваем, часто недостаточно самих по себе — всегда копайте глубже и формируйте более полный контекст, прежде чем принимать решение.
@MikeBlazerX
Вы можете напрямую обращаться к бесплатному Wayback Machine API
из Screaming Frog
с помощью кастомного JavaScript
-сниппета.
Это позволит обогатить данные краула архивной информацией, такой как:
— Когда страница была заархивирована в последний раз
— Была ли она вообще когда-либо заархивирована
— Прямая ссылка на снапшот
Зачем это может пригодиться?
— Находить удаленный контент: страницы, которые раньше существовали, а теперь отдают 404
-ю ошибку, можно проверить на предмет их исторической ценности.
— Оценивать деградацию сайта: можно увидеть, какие разделы сайта существовали ранее, но со временем незаметно исчезли.
— Восстановление: находить страницы с историческими ссылками или упоминаниями, которые стоит восстановить или с которых нужно настроить редирект.
Используемый JS
-сниппет:
const targetUrl = window.location.href;
const apiUrl = `https://archive.org/wayback/available?url=${encodeURIComponent(targetUrl)}`;
function fetchWaybackData() {
return fetch(apiUrl)
.then((response) => {
if (!response.ok) {
return response.text().then((text) => {
throw new Error(text);
});
}
return response.json();
})
.then((data) => {
const snapshot = data.archived_snapshots?.closest;
if (snapshot?.available) {
const ts = snapshot.timestamp;
const formattedDate = `${ts.slice(0, 4)}-${ts.slice(4, 6)}-${ts.slice(6, 8)}`;
return `Archived: ${formattedDate} | URL: ${snapshot.url}`;
} else {
return "No Archive";
}
});
}
return fetchWaybackData()
.then((result) => seoSpider.data(result))
.catch((error) => seoSpider.error(error));
OAI-SearchBot
от OpenAI
ведет себя подобно Гуглоботу: его активность резко возрастает в периоды крупных апдейтов.
Мониторинг с помощью Oncrawl
зафиксировал пик трафика OAI-SearchBot
примерно 13 июня.
Это совпало с опубликованным апдейтом OpenAI
, направленным на улучшение качества поисковых ответов ChatGPT
(Источник: Жером Саломон).
Хотя в официальной документации говорится, что OAI-SearchBot
используется для отображения сайтов в поисковой выдаче ChatGPT
, важно понимать конкретный механизм его работы.
Поиск ChatGPT
не имеет собственного индекса и в основном полагается на Bing's Search API
.
Согласно разъяснениям службы поддержки OpenAI
, функция бота заключается в следующем:
1. OAI-SearchBot
сканирует общедоступный веб-контент в фоновом режиме, используя поисковую выдачу Bing
в качестве отправной точки.
2. Он не извлекает контент в реальном времени непосредственно в ответ на запрос пользователя; эту функцию выполняет ChatGPT-User
.
3. Основная цель бота — поддерживать и улучшать качество поисковой выдачи. Сканируемый им контент может использоваться для настройки или обучения поисковых моделей OpenAI
.
И ChatGPT-User
, и OAI-SearchBot
являются ключевыми ботами, влияющими на видимость в ChatGPT
.
Рост их совокупной активности на сайте — это индикатор того, что его контент получает больше видимости в ответах ChatGPT
.
@MikeBlazerX
Большинство сеошников используют новую фичу Screaming Frog "Semantic Similarity" только для внутреннего аудита контента.
Но знаете ли вы, что ее можно применять и в вашей линкбилдинг-стратегии?
Semantic Similarity = детектор "воды" для фейкового тематического авторитета ✨
Используйте это для оценки сайтов-доноров ПЕРЕД тем, как проставлять ссылки!
И вот как это сделать всего за пару кликов:
1. Прокраульте потенциального донора с помощью v22.1
+ OpenAI API
2. Проверьте, нет ли почти идентичных контентных кластеров
3. и если вы заметите, что на нескольких страницах говорится одно и то же, но немного другими словами…
🚩 перед вами контентная ферма ☢️
*бонусные советы, если вы также получили результаты в отчете Overview
> Content
:
❌ 'Low Relevance' (Низкая релевантность) = плохой таргетинг
❌ 'Near Duplicate' (Почти дубликат) = ленивый копипаст
Так что, как всегда, пожалуйста, не сливайте свои бэклинки на пустышки :D
@MikeBlazerX