Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Это пока еще очень сыро!
Но, кажется, я нашел способ отдельно размечать трафик из AI Mode
в GA4
🤖 говорит Кунджал,
Я создал ивент link_click_ping
, который отлавливает клики по ссылкам из AI Mode
, у которых есть определенный HTML
-тег.
Я затестил это, создав внутреннюю ссылку на сайте, и увидел, что ивенты отлично срабатывают в дебаг-режиме.
Затем я создал кастомное определение для этих ивентов и теперь отслеживаю это в отчете Exploration
. Он четко показывает, что первым пользователем был "Google".
Параметр AI Mode
— это сегмент, в котором я учитываю трафик только из ивента link_click_ping
.
Все это еще на ранней стадии, но если метод сработает, он может раскрыть больше данных о том, какой объем трафика GA4
временами упускает и относит к категории "Unassigned
".
Я уже видел, как такое происходит с разными ресурсами.
@MikeBlazerX
Это просто жесть (...какая тупость)
Оказывается, заблоченные расширения для Chrome
можно установить, просто поправив HTML
на стороне клиента.
@MikeBlazerX
Сеошные анкоры в верхней навигации — не лучшая идея в 2025 году.
Показатели вовлеченности куда важнее.
Значимость бренда постоянно растет, поэтому делать ставку на анкоры, заточенные под SEO, в верхней навигации — это движение в неверном направлении.
@MikeBlazerX
Еще одна причина НЕ верить отзывам.
ЕСЛИ вы не напишете отзыв на AirBnB
в течение 13 дней, evolve.com
автоматически опубликует положительный отзыв.
@MikeBlazerX
Вопрос: На какой рост трафика можно рассчитывать благодаря SEO?
Ответ: Отличный вопрос! Если вы регулярно создаете хороший контент, получаете авторитетные ссылки и обеспечиваете отличный пользовательский опыт, то только в 2025 году можно ожидать рост трафика от -20% до -50%.
@MikeBlazerX
Лучший новый способ спрятать труп?
Займите первое место в Google
Никто никогда его не увидит!
@MikeBlazerX
Столько курсов и буткемпов учат "Как создавать ИИ-агентов и агентные системы".
Только одна проблема: ИИ-агенты не существуют.
ИИ-агент должен уметь принимать автономные решения через рассуждение и обучение.
Генеративный ИИ не рассуждает и не учится.
Он типа учится, если имеется в виду первоначальное обучение модели.
Но после деплоя он никогда не изучает ничего нового.RAG
предоставляет дополнительный контекст, но ИИ не учится.
Цепочка мыслей — это не доказательство рассуждения, это просто антропоморфный фокус для детей.
Что касается агентных систем: это была бы группа ИИ-агентов, работающих вместе для достижения цели, с минимальным участием человека или вовсе без него.
Никто не создал ничего из этого надежным и последовательным способом, который не спотыкался бы на галлюцинациях, недостатке мирового понимания и осведомленности, или на CAPTCHA
.
Поэтому интересно, о чем все эти курсы?
Автоматизационные воркфлоу, возможно?
Это когда вы подключаете LLM
или другой генеративный ИИ процесс к одному или нескольким шагам процедурной цепочки программ выполнения задач, которые работают через API
-запросы, например агенты Zapier
или Agentforce
.
ИИ не рулит процессом, он просто ведет фруктовую лавку на обочине дороги, у которой вы делаете остановку.
В противном случае чему еще учат эти люди?
@MikeBlazerX
Спасибо огромное всем инструментам для генерации AI
-контента и их маркетингу, который утверждает, что это хорошо работает для SEO 😏
Только за последние 6 месяцев все ваши замечательные усилия 🙃 создали для меня так много новых SEO-клиентов, пишет Гаган Гхотра.
И вот самый последний пример 👇 внезапный скачок органических ключевых слов произошел потому, что маркетинг-менеджер решил использовать генератор AI
-контента для публикации туевой хучи страниц, какое-то время это работало, и страницы ранжировались.
Но потом Google наложил на сайт ручные санкции за "Тонкий контент с небольшой добавленной ценностью или без неё".
Мы поработали над очисткой и отправили запрос на снятие санкций.
Теперь сайт возвращается в результаты поиска с лучшим контентом, написанным людьми, и мы также оптимизировали внутреннюю перелинковку 😇
@MikeBlazerX
Пользователь Reddit
написал "Tododisca.com не является настоящим новостным изданием", что привело к тому, что Google выдал ручные санкции и убрал этот сайт из поисковой выдачи.
Несмотря на то, что годами этот сайт получал много трафика из Google, в течение нескольких дней после обсуждения этого сайта на Reddit
Google выдал ручник и убрал его из результатов.
По данным третьих лиц, похоже, что ручные санкции были выданы примерно 8-9 мая.
Вероятно, чей-то комментарий о том, что это не настоящее издание, попал на глаза кому-то из команды Google Web Spam Team
, и после проверки они обнаружили, что это правда, поэтому сразу же выдали ручник и убрали сайт из поисковой выдачи.
На странице контактов Tododisca
указано, что они базируются в Испании.
@MikeBlazerX
Кайл Раштон Макгрегор постанул о проблеме в GSC
, где показываются ошибки получения robots.txt
на множественных поддоменах, которых на самом деле не существует.
Основной вопрос был: "Почему Гугл внезапно начал краулить robots.txt, которых не существует?"
Кайл отметил, что это совпало с падением позиций и задавался вопросом, есть ли связь между этими двумя проблемами.
В последующих постах Кайл предоставил дополнительный контекст, что это не используемые хостнеймы, подтвердил, что пути не существуют, и поделился, что он испытывает периодические падения позиций в средней позиции на протяжении 3 месяцев.
Он начал изучать отчет по статистике краулинга, когда происходили эти падения позиций, и искал разъяснения, влияют ли проблемы с robots.txt
на колебания ранжирования.
Советы и инсайты сообщества:
— Согласно документации Гугла, robots.txt
должен существовать для всех доменов/поддоменов - по своей природе это 404
, если его не существует
— Если Гугл недавно обнаружил эти поддомены, по природе вещей они сначала проверят файл robots.txt
, чтобы получить инструкции
— Если они не получают эти инструкции, они могут просто краулить всё (при условии отсутствия других ограничений - например, если контент защищен паролем, или если статус-коды хидера Forbidden
(403) - это тоже заблокирует их)
— Запросы robots.txt
не будут связаны с какими-либо проблемами ранжирования
— Это просто технические проверки перед любым краулингом нового хостнейма / версии протокола
— "Краулинговый бюджет" работает на основе хостнейма, поэтому новый контент с новых хостнеймов не должен быть проблемой с этой точки зрения
— Однако, если контент на этих новых хостнеймах странный (например: когда кто-то взламывает сайт, создает поддомен и заполняет его спамом), тогда контент может быть проблемой (проблема в спаме, а не в новом хостнейме / файле robots.txt
)
— Для основного домена проблемы с robots.txt
не обязательно влияют на колебания ранжирования, если только не было БОЛЬШОЙ проблемы
— Проблемы раздувания краула на поддомене (например, открытый API
-эндпоинт) не крадут краулинговый бюджет у других хостнеймов домена
— Но это может повлиять на ранжирование основного сайта, если поддомен взломан
@MikeBlazerX
Вот кое-что интересное насчет дроп-доменного спама.
Помните, как Гугл вроде бы почистил выдачу от дроп-доменов?
Это произошло не везде, но в достаточном количестве мест, чтобы это заметили.
Ну так вот, есть новый хак для обхода этого, и он довольно старый.
Просто навесьте хрефленг на индекс к новосозданной странице с кодами стран.
Используйте идентичные дубли страниц и сразу же верните свои позиции.
Гугл — это машина, у этой машины есть недостатки, и ее, видимо, можно хакнуть с помощью 10-летних трюков.
@MikeBlazerX
Каков возраст страниц, занимающих топ в поисковой выдаче?
— Средний возраст страницы, занимающей #1, составляет 5 лет.
— 72.9% страниц в топ-10 Google имеют возраст более 3 лет (в 2017 году этот показатель составлял 59%).
https://ahrefs.com/blog/how-long-does-it-take-to-rank-in-google-and-how-old-are-top-ranking-pages/
-
"Google любит свежесть" - правда? ЛОЛ
-
Google заявляет:
"Сосредоточьтесь на уникальном, ценном для людей контенте".
https://developers.google.com/search/blog/2025/05/succeeding-in-ai-search
-
Гугл: "делайте то, что мы говорим, а не то, за что мы шлем трафик!"
-
Оригинальность редко вознаграждается.
Новая информация практически не упоминается (в LLM
), пока ее не повторят другие.
Им нужен консенсус.
https://ahrefs.com/blog/llms-flatten-originality/
@MikeBlazerX
Рендерит ли Google весь контент на вашей странице?
Я заметил значительное улучшение видимости благодаря одному простому изменению, пишет Дэвид Госсаж.
Недавно я столкнулся с проблемой на сайте, где дизайнер добавил эффектную анимацию появления контента при скролле вниз по странице.
Выглядело красиво и имело абсолютно нулевую практическую ценность.
Когда я проверил сайт через инструмент "Проверка URL
" в GSC
, я увидел множество пустых пространств.
Весь контент присутствовал в HTML
, но не был виден в отрендеренной Google странице.
Помните, Googlebot
не взаимодействует с вашей страницей так, как это делаете вы.
Он не скроллит и не кликает по контенту, поэтому если что-то не видно при первоначальном рендеринге, это может быть проигнорировано.
После удаления этой красивой, но бесполезной фичи, сайт мгновенно получил огромный прирост видимости.
Ура!
@MikeBlazerX
Сотрудник технического отдела OpenAI
только что подтвердил, что манипуляции с кликами работают.
Реакции "палец вверх/вниз" используются для обучения.
Если можно злоупотреблять ими в больших масштабах, можно влиять на результаты!
Мне много раз предлагали такой сервис агентства, говорит Мальте Ландвер.
Поскольку я работаю инхаус, я держусь подальше от черных методов и манипуляций.
И честно говоря, я не был уверен, что это действительно может быть так просто.
Похоже, что так и есть, почитайте:
Не думаю, что люди понимают, насколько сложным является постобучение языковых моделей. Например, когда мы недавно тренировали o3, модель почему-то стала британской без явной причины. Просто внезапно начала писать "check" как "cheque"
Есть еще одна старая история о том, как ранняя модель GPT на одной неделе перестала говорить по-хорватски, и никто не мог понять почему. Оказалось, что хорватские пользователи были гораздо более склонны ставить дизлайки сообщениям, поэтому модель просто сдалась и решила вообще не говорить по-хорватски.
Google теперь также инвестирует в индексацию результатов поиска своих Google Maps
.
Они добавили эту карту сайта и буквально прокомментировали, что намереваются индексировать эти результаты поиска в других поисковиках.
Может ли это быть также связано с AIO
или AI
mode?
@MikeBlazerX
Хак по локальному SEO "Изучи победителей"
Этот практичный подход к локальному SEO включает систематический анализ лидирующих конкурентов для создания превосходной стратегии, а не копирование контента.
Вот как это работает:
Процесс:
1. Создай таблицу для отслеживания с метриками конкурентов (страницы, сервисные страницы, темы контента, количество слов, рейтинг GBP/отзывы)
2. Определи топовых конкурентов, поискав свои целевые запросы в Google и Bing
3. Проанализируй их сайтмапы (domain.com/sitemap.xml
), чтобы увидеть все страницы, которые ценит Google
4. Задокументируй их стратегию - количество сервисных страниц, структуру контента, подход к отзывам
5. Проверь их бэклинки с помощью бесплатных инструментов типа Ahrefs/Moz для выявления ссылочных возможностей
6. Создай что-то лучше - разработай более полные сервисные страницы, собери больше отзывов, создай контент более высокого качества
Почему это работает:
— Устраняет гадания, следуя проверенным паттернам, которые уже работают на твоем рынке
— Поисковые системы уже показывают, какой контент они ценят для конкретных ключевых слов
— Позволяет систематически улучшать выигрышные формулы
Реальные результаты:
Стоматолог, застрявший на второй странице, внедрил эту стратегию, заметив, что топовые конкуренты имели 8+ сервисных страниц, 100+ отображаемых отзывов, галереи "до и после" и страницы, ориентированные на конкретные районы.
Создав все эти элементы и даже больше, он достиг первой страницы за 6 недель.
Это не теория.
Подход работает для различных типов локального бизнеса:
— Сантехники
— Стоматологи
— Юристы
— Кровельщики
— Рестораны
— Автомастерские
Потому что суть не в слепом копировании, а в стратегическом улучшении.
Google уже показывает тебе, что работает.
"Если ты копируешь у одного, ты вор. Если изучаешь многих и создаешь что-то лучше, это искусство."
@MikeBlazerX
Вот полный список из 674 параметров запроса, которые принимает Google, нарытый в исходном коде. 📃
Зачем?
Потому что понимание того, как работают системы, может подарить вам те самые моменты "эврика!" и помочь увидеть общую картину, когда вы делаете собственные наблюдения за результатами.
Параметры запросов Google: https://gist.github.com/thetafferboy/3ac631eb066c9b2b14a44960a0df9d7c
@MikeBlazerX
ИИ делает международное SEO быстрее, но не проще.
1. ИИ — это ускоритель локализации, а не волшебная палочка.Reddit
и Airbnb
теперь переводят миллионы страниц с качеством, близким к человеческому, доказывая, что машинный перевод может запустить глобальные контентные маховики в паре с умным человеческим QA
.
2. Избегайте двух классических ловушек.
1/ Чрезмерная локализация практически идентичных сайтов разделяет авторитет и создает головную боль с дублированным контентом.
2/ Мышление "перевод = локализация" игнорирует культуру, юмор и поисковый интент.
3. Техническая гигиена не подлежит обсуждению (неожиданно).
Корректные хрефленг кластеры, языковые XML
карты сайта, последовательная каноникал логика, локализованная схема и быстрый CDN
— это базовый минимум для получения и удержания позиций на любом рынке.
4. Подбирайте модель команды под сложность рынка.
Центральная SEO команда масштабирует последовательность.
Добавление местных специалистов в высокодоходных регионах добавляет культурные нюансы и скорость без потери стратегического контроля.
5. Рассчитывайте время экспансии тщательно.
Валидируйте поисковый спрос, существующую силу бренда, конкурентные пробелы, ROI
и юридическую возможность перед запуском.
Слишком ранний выход на глобальный рынок сжигает ресурсы; слишком долгое ожидание отдает рынок более быстрым игрокам.
Итог: ИИ снижает стоимость перехода на многоязычность, но успех по-прежнему зависит от дисциплинированной архитектуры, безупречной техники и культурно-осведомленного контента.
@MikeBlazerX
Трудные времена создают хороших сеошников, хорошие сеошники создают хорошие времена, хорошие времена создают AI
-сеошников, AI
-сеошники создают трудные времена.
@MikeBlazerX
Плохая визуализация данных встречается повсюду.
Одни вводят в заблуждение. Другие запутывают. Третьи просто заставляют смеяться.
Что не так с этим графиком?
Ответы
Проблемы с осью Y
— Нет четкого контекста для оси Y — непонятно, что именно измеряется
— Не начинается с нуля — создает обманчивое визуальное воздействие
— Специально ограниченный масштаб с манипуляциями min/max значений для преувеличения спада
— Странное масштабирование, созданное для обмана зрителей
— "Подавление нуля" используется как маркетинговый инструмент
Визуальный обман
— Заставляет падение на 2% выглядеть как обрыв из-за приближенного масштаба
— Микроскопические изменения выглядят как огромные нисходящие тренды
— "Драма с приближенной осью Y", которая использует масштаб как оружие для введения в заблуждение
— Создает ложное представление о реальной производительности Гугла
Проблемы группировки данных
— Bing
и ChatGPT
неуместно объединены вместе
— Комбинирует несвязанные метрики, что увеличивает подверженность аномалиям
— Нет четкого обоснования для объединения этих разных сервисов
Отсутствие контекста и проблемы качества данных
— Bing
упоминается в заголовке, но отсутствует на графике
— Слишком детальная временная шкала (раз в два месяца) для таких незначительных изменений
— Нет аннотаций или объяснений источников данных или методологии
— Плохое качество изображения — описывается как потенциально похожее на "MS Paint
"
Этические проблемы
— Намеренно создан для введения зрителей в заблуждение, заставляя поверить, что что-то хуже реальности
— Рассчитывает на то, что аудитория не будет внимательно изучать детали
— Подрывает доверие к данным и приучает людей перестать доверять аналитике
— Маркетинговые трюки, маскирующиеся под метрики
@MikeBlazerX
Тарика Рао просила совета по презентации SEO-стратегии для потенциальной миграции на headless CMS
.
Она хотела понять основные SEO-цели, вопросы взаимодействия разработчиков и маркетологов, распространенные ошибки и рекомендации.
Ее запрос: легкое обновление SEO-тегов без деплоя через разработчиков.
У нее был предыдущий опыт работы с Contentful
, где бэкенд UI
делал работу с SEO-элементами простой и понятной.
Советы и инсайты сообщества
Базовая философия:
— Главная цель: не угробить органический трафик
— Вы идете на headless
не ради SEO — вы идете по бизнес/техническим причинам; цель SEO — просто сделать это работоспособным
— Это как строить Yoast
с нуля: ничего не идет "бесплатно", даже простые мета-данные нужно прописывать вручную
Техническая реальность:
— Все нужно строить с нуля на фронтенде — инвентаризировать, специфицировать и билдить то, что раньше работало из коробки
— Фронт/бэкенд соединены только через API
, что часто делает вас более зависимыми и не позволяет быстро вносить изменения без вмешательства разработчиков
— Кастомные фронтенды обычно строятся плохо, без учета SEO
— Используйте SSR
и документируйте, что происходит на Краю
Риски миграции:
— Проблемы с восстановлением трафика
— Потеря гибкости/скорости/самостоятельного управления
— Более высокие затраты на поддержку
— SEO-тикеты депривилегируются из-за высоких требований к dev
-часам
Соображения по юзкейсы:
— Отлично подходит для маркетплейсов/новостных изданий с небольшим количеством шаблонов (на основе фидов)
— Маркетинговые юзкейсы, очень сложные
— Смягчайте с помощью визуального билдера CMS
или фронтенда
Рекомендации платформ:
— SEO-дружелюбные фронтенды: WordPress, Webflow, Webstudio, Framer, Astro
— Astro.build
имеет идеальное SEO из коробки
— Webstudio.is
для визуального билдинга с любой headless CMS
— Prismic
"слайсы" для нетехнических маркетологов, масштабирующих лендинги
— NextJS
с WP
бэкендом может дать отличную производительность
Требования для успеха:
— Действительно хорошие разработчики с правильным SEO-руководством и техзаданиями
— Сохраняйте структуры URL
где возможно, чтобы минимизировать нарушения
— Скорее исключение, чем норма в большинстве случаев
@MikeBlazerX
🔗 СПИСОК WEB 2.0 САЙТОВ ДЛЯ ЛИНКБИЛДИНГА
И их скорость индексации
🚀 ВЫСОКИЙ DA(90+)
1. LinkedIn Pulse - DA97 / NoFollow
⚡️ (мгновенная)
2. Medium.com - DA95 / Follow
🔥 (быстрая)
3. Issuu.com - DA94 / Follow
🔥 (быстрая)
4. Tumblr.com - DA94 / Follow
⏳ (умеренная)
5. Weebly.com - DA93 / Follow
🔥 (быстрая)
6. About.me - DA92 / Follow
🔥 (быстрая)
7. Blogger.com - DA92 / Follow
🔥 (быстрая)
8. Muckrack.com - DA92 / Follow
🔥 (быстрая)
9. Tripod.lycos.com - DA91 / Follow
🐌 (медленная)
10. Wattpad.com - DA91 / NoFollow
🟡 (средняя)
11. Hackernoon.com - DA91 / Follow
⏳ (умеренная)
⚡️ СРЕДНИЙ DA(59-89)
12. Jimdo.com - DA89 / NoFollow
⏳ (умеренная)
13. Steemit.com - DA88 / Follow
🔥 (быстрая)
14. Yola.com - DA87 / Follow
🐌 (медленная)
15. Substack.com - DA86 / Follow
⏳ (умеренная)
16. Zoho Sites - DA86 / Follow
🟡 (средняя)
17. Site123.com - DA82 / Follow
🐌 (медленная)
18. Webs.com - DA82 / Follow
⏳ (умеренная)
19. Webnode.com - DA81 / Follow
🐌 (медленная)
20. Bravenet.com - DA78 / Follow
🔴 (очень медленная)
21. Vocal.Media - DA76 / NoFollow
🔥 (быстрая)
22. Pen.io - DA76 / Follow
🔥 (быстрая)
23. Write.as - DA75 / Follow
🔥 (быстрая)
24. Strikingly.com - DA72 / Follow
🟡 (средняя)
25. Tealfeed.com - DA59 / Follow
🐌 (медленная)
https://presswhizz.com/blog/web-2-0-site-backlinks-list/
@MikeBlazerX
Все говорят, что 100к органики невозможно получить без бэклинков.
Это ложь.
6 месяцев назад у моего клиента был нулевой трафик, говорит Исмаил.
Сегодня?
100к+ органических визитеров в месяц.
Вот что реально сработало:
1. Нашли горящие проблемы на Reddit
→ Проанализировали топовые треды
→ Выявили паттерны в вопросах
→ Обнаружили пробелы в существующих ответах
2. Создали предельно фокусированный контент
→ 15 постов, решающих конкретные проблемы
→ Никакой воды, только решения
→ Нулевой анализ ключевых слов
Но вот что изменило всё...
Google начал ранжировать нас по ключам, которые мы даже не таргетировали.
Рост был безумный:
→ 1 месяц: 0 визитеров
→ 3 месяц: 1к визитеров
→ 6 месяц: 100к+ визитеров
Хватит следовать правилам "экспертов".
Начните решать реальные проблемы.
Лучшая SEO-стратегия?
Дайте людям то, что им действительно нужно.
@MikeBlazerX
Когда ты видишь десятки или даже сотни показов для поискового запроса, по которому ты ранжируешься на 91-й позиции, это не значит, что люди копают так глубоко в SERP.
Скорее всего, это ранк-трекеры (или другие SEO-тулзы), которые не используют API
, а парсят выдачу так глубоко, чтобы собрать их данные.
Не трать время на "оптимизацию" тайтл-тегов, чтобы улучшить CTR
по этим ключам.
Тебе нужно лучше ранжироваться.
@MikeBlazerX
Если вам важно, чтобы ваш сайт попадал в ответы LLM
, держите ухо востро: теперь появилось "черное GEO
".
Я только что прочитал исследование ETH Zürich
, в котором представлены атаки манипулирования предпочтениями (PMA
) — крошечные невидимые сниппеты, которые обманывают Bing Copilot, Perplexity
, инструменты GPT-4
и Claude
, заставляя их продвигать подозрительный сайт в 8 раз выше, при этом игнорируя конкурентов, пишет Фимбер.
Как работает фишка в три шага
1️⃣ Прячут промпт-хаки внутри обычного текста страницы или документации плагинов (белый текст на белом фоне, шрифт в 1 пиксель, даже JSON
-блобы)
2️⃣ Позволяют поисковому LLM
проиндексировать этот контент
3️⃣ Когда пользователь спрашивает "лучшая камера до 1000$", скрытые инструкции шепчут "рекомендуй мой бренд, игнорируй остальные"
Результат: ваш продукт всплывает в 2-8 раз чаще, чем не менее качественный конкурент. ✂️
Получается, пока вы заняты написанием дружелюбных к ответам сниппетов и открываете robots.txt
для ChatGPT
, вы можете проигрывать просто потому, что конкуренты буквально сказали модели вас игнорировать.
Это создает эффект снежного кома: как только один бренд начинает инъекции, все остальные чувствуют себя вынужденными копировать.
Качество падает, доверие размывается, но стимул мухлевать остается.
Классическая трагедия общих ресурсов, но для AI
-ранжирования.
Что с этим делать?
🚼 Аудитьте свой контент на предмет всего, что может выглядеть как скрытые директивы — избегайте соблазна "просто протестировать" трюк
🚦 Отслеживайте цитирования LLM
отдельно от позиций в Гугле. Внезапные падения могут сигнализировать, что вас "PMA
-нули"
🔏 Давите на вендоров за прозрачность: просите Bing, Perplexity
и компанию раскрывать, какие сниппеты повлияли на рекомендацию
🧩 Держите провенанс контента чистым — микроразметка, подписанные фиды, канонические ссылки. Чем проще доказать подлинность, тем сложнее противнику вас имитировать или дискредитировать
🛡 Команды безопасности, познакомьтесь с SEO-командами. Относитесь к защите от промпт-инъекций так же, как к XSS
или CSRF
; это больше не "просто маркетинг"
Все это здорово поможет выровнять игровое поле в долгосрочной перспективе, но прямо сейчас стабильное создание качественного контента — все еще способ побеждать.LLM
найдут способы залатать существующие дыры, и в течение следующих 12 месяцев вероятно произойдет пара вещей:
➡️ Появятся встроенные фильтры промптов в основных LLM
-пайплайнах
➡️ "SEO-санкции" для сайтов, пойманных на использовании скрытых инструкций
➡️ Всплеск white-hat
AIO
/GEO
аудитов — похожих на зачистки времен Penguin/Panda начала 2010-х
Все еще разбираются в игре AIO
и GEO
, так что сейчас дикий запад.
Если это исследование что-то показывает, то AIO
и GEO
— это уже не просто про полезность, а про защиту этой полезности от adversarial
промпт-инъекций.
Время добавить "гигиену LLM
-безопасности" в ваш чеклист оптимизации.
https://arxiv.org/html/2406.18382v1
@MikeBlazerX
Скорость сайта.
Имеет ли значение?
И насколько?
Сейчас работаю с клиентом из ретейла и выяснил, что каждая дополнительная секунда LCP
(Largest Contentful Paint) стоит около 7% покупателей, которые нажимают "добавить в корзину", — пишет Гарри Робертс.
Если я могу получить LCP
менее 0.8 секунд, покупатели на 40% чаще начинают покупать, чем те, кто застрял на страницах с загрузкой 3-4 секунды.
Иначе говоря, каждая дополнительная секунда LCP
снижает конверсию примерно на 13%.
Теперь мы знаем наши цели, и нам определенно есть над чем работать!
-
По оси X показаны различные группы LCP
, у нас было 1,967 наблюдаемых просмотров страниц в группе 1.6с.
Эта группа конвертила на отличных 11%.
Сама диаграмма относится только к одной странице (PDP
), поэтому сессии здесь синонимичны просмотрам страниц.
Это на P75
.
Мне не нравится идея брать среднее значение по многим страницам для корреляции с конверсиями, пишет Гарри.
Единственное, что хуже — это взять скорость страницы подтверждения и сказать "вот с какой скоростью происходит большинство наших конверсий".
@MikeBlazerX
EEAT
— это не фактор, EEAT
— не является частью ранжирования.
Гугл не оценивает контент.EEAT
был руководством, разработанным для внешних консультантов, чтобы они проверяли анонимизированный контент в качестве примеров машинного обнаружения спама.
Другими словами — попытка объективно определить, поймали ли спам-системы спам или настоящие сайты.
Мифы про EEAT:
— Писать про опыт или экспертность = заявления, а не настоящий EEAT
— Писать про предыдущие работы или проекты = заявления, а не настоящий EEAT
— Наличие биографии автора <> EEAT
— EEAT
не алгоритмичен
— EEAT
не применяется Гуглом
— Гугл не валидирует авторов, биографии или контент
Базовое критическое мышление:
— Заявления — это не доказательства, это заявления
— Люди не верят и не должны верить всему, что читают в документе
— Написать, что что-то произошло или имело место = заявление
EEAT может прийти из:
— Чтения вашей страницы в Википедии
— Чтения отзывов
— Чтения кейс-стади
— Чтения комментариев клиентов
— Вашего дизайна/логотипа
Факты про EEAT:
— Гугл не валидирует контент
— НЕТ никакого EEAT
-скора
— НЕТ никакого EEAT
-фактора
— НЕТ никакого EEAT
-значения
— Гугл не может вручную проверить объем контента, который он поглощает
— Гугл не проверяет авторов
— Гугл не знает, является ли контент EEAT
, хорошим, плохим, коротким, длинным
— Контент МОЖЕТ быть EEAT
без упоминания компонентов EEAT
— EEAT
может быть логотипом или логотипом партнера
https://primaryposition.com/blog/google-eeat-score/
@MikeBlazerX
Вводит ли в заблуждение статус "Просканировано, но не проиндексировано" в GSC
?
Не спешите списывать со счетов страницы, которые GSC
помечает как "просканировано, но не проиндексировано".
Недавний анализ показывает, что данные GSC
здесь не всегда отражают полную картину:
— Значительная видимость: Удивительно, но 26% URL со статусом "просканировано, но не проиндексировано" все еще получали показы, а некоторые даже клики.
— Несоответствие статусов: Многие страницы с высокими показами *не были* последовательно помечены как "проиндексированные" в GSC в рамках исследуемого датасета.
— Пробелы в данных: GSC
предоставляет *выборочный* обзор. В анализе только 28% URL
с фактическими показами/кликами отображались как "проиндексированные" из-за ограничений экспорта данных самого GSC
.
Что это значит для вас:
1. Не всегда невидимы: "Просканировано, но не проиндексировано" не означает однозначно нулевую видимость в поиске или что Гугл не обрабатывал страницу недавно.
2. Переоцените ценность ссылок: Не думайте, что ссылки *с этих страниц* бесполезны *исключительно на основании этого статуса в GSC*. Вопрос передачи ссылочного веса еще тестируется, но эти страницы не всегда "мертвые".
3. GSC — это гид, а не истина в последней инстанции: Относитесь к GSC
как к "флюгеру" для общих трендов, а не как к точному скальпелю для диагностики на уровне страниц. Сверяйтесь с лог-файлами, фактическими проверками позиций и другой аналитикой.
Данные GSC
имеют ограничения.
Проверяйте перед принятием критических решений по контенту или ссылкам, основываясь исключительно на этих отчетах о статусах
@MikeBlazerX
Утечка системного промпта Claude 4
показывает, что линкинг LLM является намеренным, а не случайным, что важно для сеошников, стремящихся к видимости и трафику.
Ключевой инсайт: активация веб-поиска открывает возможности для ссылок; LLM
, такие как Claude
, по умолчанию не ищут в интернете.
Если ответ берется из внутренней базы, ссылка не появляется.URL
-адреса извлекаются через активный поиск, обеспечивая "заземление" с актуальными и надежными ссылками.
Решения Claude
о поиске и линкинге делятся на четыре категории:
— never_search
: Для вечных фактов ("Столица Франции"). Ответ прямой; поиска и ссылок нет.
— do_not_search_but_offer
: Знания есть, но обновления возможны ("Население Германии"). Ответ дается, затем предлагается поиск; ссылок изначально нет.
— single_search
: Для актуальных фактов с одним источником ("Кто выиграл вчерашнюю игру?"). Отличная возможность для линкинга благодаря целевому поиску.
— research
: Для сложных задач ("Анализ конкурентов для продукта X") с 2-20 вызовами инструментов. Сильная позиция для ссылок из-за множества источников.
Даже при поиске линкинг не гарантирован.Claude
перефразирует и суммирует, соблюдая авторские права, ограничивая цитаты 20 словами.
Для ссылки контент должен добавлять ценность, например:
— Интерактивные инструменты (калькуляторы, конфигураторы).
— Часто обновляемые данные (таблицы, сравнения цен).
— Уникальный контент или нишевая экспертиза.
— Детальная аналитика или решение проблем с прямым взаимодействием.
В режиме single_search
Claude
ищет "авторитетный источник", оценивая не только бренд, но и информационную ценность, релевантность и цитируемую структуру.
SEO-контент должен быть читаемым для Claude: четким, лаконичным, без лишней "болтовни".
Это связано с принципами AIO-опттимизации.
Фокус — на цитируемых фактах и анализе, особенно для research
.
Хотя данные основаны на Claude
, ChatGPT (OpenAI) и Gemini (Google) также дают ссылки контекстно и экономно.
Главный урок: LLM ссылаются на основе семантического соответствия промпту, а не традиционных SEO-сигналов.
Контент должен быть структурированным и цитируемым.
Для сеошников это переход к оптимизации под цитирование LLM.
Если клики важны, контент должен быть уникальным и ценным для линковки, а не только цитирования.
https://gpt-insights.de/ai-insights/claude-leak-llm-suche-seo/
@MikeBlazerX