7404
Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Тим Фолсом рассказал, что команда веб-разработки забыла добавить тег noindex на стейджинг-сайт, из-за чего его страницы попали в индекс Google.
Это оставалось незамеченным до запуска продакшн-сайта; к тому времени стейджинг исчез, но его страницы остались в индексе, а в Google показывалась только главная страница продакшн-сайта.
Тим искал совет по решению проблемы, имея идеи, но желая услышать мнение сообщества.
— Тим отметил, что стейджинг был перезаписан и перенаправлен на продакшн-URL, без доступа к wp-admin и DNS-записям.
— Он рассматривал временное восстановление стейджинга для 301-редиректа на продакшн, поскольку подпапки и контент совпадали.
— Команда пояснила, что стейджинг использовал временный домен SiteGround, перенаправленный на продакшн, без доступа к DNS или wp-admin.
— SiteGround мог переоформить временный домен как припаркованный для 301-редиректов, но Тим сомневался в настройке GSC при этом.
Советы и инсайты сообщества
1. Если стейджинг недоступен для Google и домен верифицирован в DNS, подайте запрос на временное удаление в GSC для быстрой деиндексации URL.
2. Верифицируйте стейджинг в GSC и используйте инструмент удаления URL для ускоренной деиндексации — это самый быстрый метод.
3. После временного удаления заблокируйте путь стейджинга через robots.txt, чтобы избежать повторной индексации без noindex.
4. Удаление в GSC действует шесть месяцев, как код 410, но для постоянной деиндексации нужны дополнительные шаги.
5. Для постоянного удаления:
— Верните коды 404 или 410, удалите не-HTML файлы с сервера.
— Используйте парольную защиту для блокировки доступа.
— Примените мета-тег noindex, хотя это менее надежно.
— Не полагайтесь только на robots.txt, он блокирует лишь краулинг, а не индексацию.
6. Код 410 не лучше 404; для крупных брендов 404 на стейджинг-поддоменах могут усилить краулинг.
Запрос в GSC с robots.txt или паролем — самый быстрый способ.
7. При запросе удаления в GSC установите напоминание на шесть месяцев для проверки; переиндексация маловероятна, если сайт недоступен и продакшн на него не ссылается.
8. Если стейджинг исчез, создайте Domain Property в GSC с TXT-записью в DNS для верификации основного домена (site.com) и управления поддоменами — полезный шаг для новых компаний.
9. Хотя Google не советует robots.txt для постоянного удаления, он помогает краткосрочно для несвязанных стейджинг-сайтов; при появлении ссылок используйте инструмент удаления или постоянные меры.
10. SEO и софт не дают полностью постоянных решений; нужен регулярный мониторинг, а поиск таких решений может быть неоправданным.
11. Используйте бюджетный хостинг вроде Netlify для настройки редиректов с поддомена стейджинга на продакшн, удалив проект после загрузки файла netlify.toml для экономии.
12. Верифицируйте старый стейджинг в GSC и Bing Webmaster Tools через DNS, настройте 301-редирект на продакшн на уровне DNS и используйте Change of Address (CoA) в обоих сервисах для ускорения удаления из SERP и исправления частичной индексации продакшн-сайта.
13. DNS-редирект с CoA — почти метод "настроил и забыл", хотя повторное использование стейджинг-домена невозможно; используйте новые домены для будущих стейджингов с контролем индексации.
14. Для стейджинга на временном поддомене провайдера настройте правила редиректов; при повторной реализации верифицируйте в GSC/Bing через HTML-файл перед добавлением редиректов для CoA.
15. Задокументируйте в дневнике сайта причину сохранения временного домена, чтобы избежать случайного удаления, отменяющего меры.
@MikeBlazerX
SEO - это безумие, индустрия просто сумасшедшая.
За пределами всей этой чуши с внедрением ИИ и массовым злоупотреблением контентом, когда мы возвращаемся к старым проблемам - мы видим, что сейчас БОЛЬШЕ чем когда-либо, Гугл индексирует всё меньше и меньше контента.
Ваш ИИ АГЕНТ, который публикует контент, пока вы спите?
Да, удачи с этим.
Гугл индексирует МЕНЬШЕ контента в целом.
Для КАЖДОГО краулимого сайта всё меньше и меньше контента попадает в индекс.
Почему?
Уникальная добавленная ценность - это СИЛЬНАЯ МОДЕЛЬ для отказа от индексации информации, которая уже существует в 1000 раз на других сайтах.
А вот что еще СУПЕР весело видеть на вашем домене или ЛЮБОМ домене, с которым вы работаете:
1. Прокраулите ваш сайт и убедитесь, что вы используете API индексации Google
2. Экспортируйте результаты краулинга, в идеале вам нужны КЛЮЧЕВЫЕ метрики:
— URL, состояние покрытия от Google, внутренние ссылки, количество слов
Это позволяет исключить недостаток внутренних ссылок или тонкий контент (малое количество слов) или изучить взаимосвязь между объемом контента и его эффективностью
3. Используйте IMPORTXML для получения дат публикации контента из прокраулинных URL
— Вы можете использовать XPATH или REGEX в importXML для получения дат, т.е. если вы используете структурированные данные, вероятно, у вас есть datePublished, вы можете использовать этот importxml в вашей гугл-таблице для получения даты публикации
=REGEXEXTRACT(IMPORTXML(A2, "//script[@type='application/ld+json']"), """datePublished"":\s*""([^""]+)""")
GSC и использовать VLOOKUP для сопоставления ваших URL с их эффективностью за последние 16 месяцев - таким образом вы сможете увидеть, какой контент имеет данные по кликам или не имеет их вообще.URL неизвестен для Google, несмотря на то, что URL существуют уже 3 годаURL, неизвестные для Google - если у вас много таких, но есть достаточно внутренних ссылок, то вы должны спросить себя, ПОЧЕМУ URL неизвестны, несмотря на возраст?
🚨 Старые домены возвращаются и они, сцуко, печатают деньги!!!🚨
Война Гугла против паразитного SEO могла срубить половину авторитетных сайтов в выдаче, но случайно включила свет обратно для спящего монстра: старые домены (с недавней историей).
Речь о доменах, которые никогда не теряли ссылочный вес, траст или тематический авторитет - экспайред домены работают в некоторых нишах, но показатель успеха очень низкий, тогда как если ты получаешь старый домен, который сохраняет свои позиции/ссылочный вес, ты можешь мгновенно перенести его в нишу типа казино и печатать деньги
Я знаю, потому что у меня десятки клиентов делают это, и я вижу сотни таких сайтов каждый день, почти в каждой стране мира, включая английские термины в Великобритании и США, пишет Чарльз Флоут!
Яркий недавний пример - это запрос "non gamstop casinos" в Великобритании, где кто-то смог подхватить домен Брексит-парти (теперь Реформ-парти), сохранив его возраст, и перепрофилировать под этот запрос - мгновенно заняв #1 в течение недели!
Чтобы добавить еще больше оскорбления, ВСЕ новые ссылки - это ПБН на главную, где большую часть времени они даже не удосужились поставить тему, это просто дефолтная установка WordPress!
😂🤣
И это все на английском, на международном уровне это еще больший пиздец...
Но пропагандистская машина в этой индустрии работает усердно, помните, что согласно большинству white hat инфлюенсеров, половина этих тактик больше не работает 👀
@MikeBlazerX
Хак по локальному SEO "Изучи победителей"
Этот практичный подход к локальному SEO включает систематический анализ лидирующих конкурентов для создания превосходной стратегии, а не копирование контента.
Вот как это работает:
Процесс:
1. Создай таблицу для отслеживания с метриками конкурентов (страницы, сервисные страницы, темы контента, количество слов, рейтинг GBP/отзывы)
2. Определи топовых конкурентов, поискав свои целевые запросы в Google и Bing
3. Проанализируй их сайтмапы (domain.com/sitemap.xml), чтобы увидеть все страницы, которые ценит Google
4. Задокументируй их стратегию - количество сервисных страниц, структуру контента, подход к отзывам
5. Проверь их бэклинки с помощью бесплатных инструментов типа Ahrefs/Moz для выявления ссылочных возможностей
6. Создай что-то лучше - разработай более полные сервисные страницы, собери больше отзывов, создай контент более высокого качества
Почему это работает:
— Устраняет гадания, следуя проверенным паттернам, которые уже работают на твоем рынке
— Поисковые системы уже показывают, какой контент они ценят для конкретных ключевых слов
— Позволяет систематически улучшать выигрышные формулы
Реальные результаты:
Стоматолог, застрявший на второй странице, внедрил эту стратегию, заметив, что топовые конкуренты имели 8+ сервисных страниц, 100+ отображаемых отзывов, галереи "до и после" и страницы, ориентированные на конкретные районы.
Создав все эти элементы и даже больше, он достиг первой страницы за 6 недель.
Это не теория.
Подход работает для различных типов локального бизнеса:
— Сантехники
— Стоматологи
— Юристы
— Кровельщики
— Рестораны
— Автомастерские
Потому что суть не в слепом копировании, а в стратегическом улучшении.
Google уже показывает тебе, что работает.
"Если ты копируешь у одного, ты вор. Если изучаешь многих и создаешь что-то лучше, это искусство."
@MikeBlazerX
Вот полный список из 674 параметров запроса, которые принимает Google, нарытый в исходном коде. 📃
Зачем?
Потому что понимание того, как работают системы, может подарить вам те самые моменты "эврика!" и помочь увидеть общую картину, когда вы делаете собственные наблюдения за результатами.
Параметры запросов Google: https://gist.github.com/thetafferboy/3ac631eb066c9b2b14a44960a0df9d7c
@MikeBlazerX
ИИ делает международное SEO быстрее, но не проще.
1. ИИ — это ускоритель локализации, а не волшебная палочка.Reddit и Airbnb теперь переводят миллионы страниц с качеством, близким к человеческому, доказывая, что машинный перевод может запустить глобальные контентные маховики в паре с умным человеческим QA.
2. Избегайте двух классических ловушек.
1/ Чрезмерная локализация практически идентичных сайтов разделяет авторитет и создает головную боль с дублированным контентом.
2/ Мышление "перевод = локализация" игнорирует культуру, юмор и поисковый интент.
3. Техническая гигиена не подлежит обсуждению (неожиданно).
Корректные хрефленг кластеры, языковые XML карты сайта, последовательная каноникал логика, локализованная схема и быстрый CDN — это базовый минимум для получения и удержания позиций на любом рынке.
4. Подбирайте модель команды под сложность рынка.
Центральная SEO команда масштабирует последовательность.
Добавление местных специалистов в высокодоходных регионах добавляет культурные нюансы и скорость без потери стратегического контроля.
5. Рассчитывайте время экспансии тщательно.
Валидируйте поисковый спрос, существующую силу бренда, конкурентные пробелы, ROI и юридическую возможность перед запуском.
Слишком ранний выход на глобальный рынок сжигает ресурсы; слишком долгое ожидание отдает рынок более быстрым игрокам.
Итог: ИИ снижает стоимость перехода на многоязычность, но успех по-прежнему зависит от дисциплинированной архитектуры, безупречной техники и культурно-осведомленного контента.
@MikeBlazerX
Трудные времена создают хороших сеошников, хорошие сеошники создают хорошие времена, хорошие времена создают AI-сеошников, AI-сеошники создают трудные времена.
@MikeBlazerX
Плохая визуализация данных встречается повсюду.
Одни вводят в заблуждение. Другие запутывают. Третьи просто заставляют смеяться.
Что не так с этим графиком?
Ответы
Проблемы с осью Y
— Нет четкого контекста для оси Y — непонятно, что именно измеряется
— Не начинается с нуля — создает обманчивое визуальное воздействие
— Специально ограниченный масштаб с манипуляциями min/max значений для преувеличения спада
— Странное масштабирование, созданное для обмана зрителей
— "Подавление нуля" используется как маркетинговый инструмент
Визуальный обман
— Заставляет падение на 2% выглядеть как обрыв из-за приближенного масштаба
— Микроскопические изменения выглядят как огромные нисходящие тренды
— "Драма с приближенной осью Y", которая использует масштаб как оружие для введения в заблуждение
— Создает ложное представление о реальной производительности Гугла
Проблемы группировки данных
— Bing и ChatGPT неуместно объединены вместе
— Комбинирует несвязанные метрики, что увеличивает подверженность аномалиям
— Нет четкого обоснования для объединения этих разных сервисов
Отсутствие контекста и проблемы качества данных
— Bing упоминается в заголовке, но отсутствует на графике
— Слишком детальная временная шкала (раз в два месяца) для таких незначительных изменений
— Нет аннотаций или объяснений источников данных или методологии
— Плохое качество изображения — описывается как потенциально похожее на "MS Paint"
Этические проблемы
— Намеренно создан для введения зрителей в заблуждение, заставляя поверить, что что-то хуже реальности
— Рассчитывает на то, что аудитория не будет внимательно изучать детали
— Подрывает доверие к данным и приучает людей перестать доверять аналитике
— Маркетинговые трюки, маскирующиеся под метрики
@MikeBlazerX
Тарика Рао просила совета по презентации SEO-стратегии для потенциальной миграции на headless CMS.
Она хотела понять основные SEO-цели, вопросы взаимодействия разработчиков и маркетологов, распространенные ошибки и рекомендации.
Ее запрос: легкое обновление SEO-тегов без деплоя через разработчиков.
У нее был предыдущий опыт работы с Contentful, где бэкенд UI делал работу с SEO-элементами простой и понятной.
Советы и инсайты сообщества
Базовая философия:
— Главная цель: не угробить органический трафик
— Вы идете на headless не ради SEO — вы идете по бизнес/техническим причинам; цель SEO — просто сделать это работоспособным
— Это как строить Yoast с нуля: ничего не идет "бесплатно", даже простые мета-данные нужно прописывать вручную
Техническая реальность:
— Все нужно строить с нуля на фронтенде — инвентаризировать, специфицировать и билдить то, что раньше работало из коробки
— Фронт/бэкенд соединены только через API, что часто делает вас более зависимыми и не позволяет быстро вносить изменения без вмешательства разработчиков
— Кастомные фронтенды обычно строятся плохо, без учета SEO
— Используйте SSR и документируйте, что происходит на Краю
Риски миграции:
— Проблемы с восстановлением трафика
— Потеря гибкости/скорости/самостоятельного управления
— Более высокие затраты на поддержку
— SEO-тикеты депривилегируются из-за высоких требований к dev-часам
Соображения по юзкейсы:
— Отлично подходит для маркетплейсов/новостных изданий с небольшим количеством шаблонов (на основе фидов)
— Маркетинговые юзкейсы, очень сложные
— Смягчайте с помощью визуального билдера CMS или фронтенда
Рекомендации платформ:
— SEO-дружелюбные фронтенды: WordPress, Webflow, Webstudio, Framer, Astro
— Astro.build имеет идеальное SEO из коробки
— Webstudio.is для визуального билдинга с любой headless CMS
— Prismic "слайсы" для нетехнических маркетологов, масштабирующих лендинги
— NextJS с WP бэкендом может дать отличную производительность
Требования для успеха:
— Действительно хорошие разработчики с правильным SEO-руководством и техзаданиями
— Сохраняйте структуры URL где возможно, чтобы минимизировать нарушения
— Скорее исключение, чем норма в большинстве случаев
@MikeBlazerX
🔗 СПИСОК WEB 2.0 САЙТОВ ДЛЯ ЛИНКБИЛДИНГА
И их скорость индексации
🚀 ВЫСОКИЙ DA(90+)
1. LinkedIn Pulse - DA97 / NoFollow ⚡️ (мгновенная)
2. Medium.com - DA95 / Follow 🔥 (быстрая)
3. Issuu.com - DA94 / Follow 🔥 (быстрая)
4. Tumblr.com - DA94 / Follow ⏳ (умеренная)
5. Weebly.com - DA93 / Follow 🔥 (быстрая)
6. About.me - DA92 / Follow 🔥 (быстрая)
7. Blogger.com - DA92 / Follow 🔥 (быстрая)
8. Muckrack.com - DA92 / Follow 🔥 (быстрая)
9. Tripod.lycos.com - DA91 / Follow 🐌 (медленная)
10. Wattpad.com - DA91 / NoFollow 🟡 (средняя)
11. Hackernoon.com - DA91 / Follow ⏳ (умеренная)
⚡️ СРЕДНИЙ DA(59-89)
12. Jimdo.com - DA89 / NoFollow ⏳ (умеренная)
13. Steemit.com - DA88 / Follow 🔥 (быстрая)
14. Yola.com - DA87 / Follow 🐌 (медленная)
15. Substack.com - DA86 / Follow ⏳ (умеренная)
16. Zoho Sites - DA86 / Follow 🟡 (средняя)
17. Site123.com - DA82 / Follow 🐌 (медленная)
18. Webs.com - DA82 / Follow ⏳ (умеренная)
19. Webnode.com - DA81 / Follow 🐌 (медленная)
20. Bravenet.com - DA78 / Follow 🔴 (очень медленная)
21. Vocal.Media - DA76 / NoFollow 🔥 (быстрая)
22. Pen.io - DA76 / Follow 🔥 (быстрая)
23. Write.as - DA75 / Follow 🔥 (быстрая)
24. Strikingly.com - DA72 / Follow 🟡 (средняя)
25. Tealfeed.com - DA59 / Follow 🐌 (медленная)
https://presswhizz.com/blog/web-2-0-site-backlinks-list/
@MikeBlazerX
Все говорят, что 100к органики невозможно получить без бэклинков.
Это ложь.
6 месяцев назад у моего клиента был нулевой трафик, говорит Исмаил.
Сегодня?
100к+ органических визитеров в месяц.
Вот что реально сработало:
1. Нашли горящие проблемы на Reddit
→ Проанализировали топовые треды
→ Выявили паттерны в вопросах
→ Обнаружили пробелы в существующих ответах
2. Создали предельно фокусированный контент
→ 15 постов, решающих конкретные проблемы
→ Никакой воды, только решения
→ Нулевой анализ ключевых слов
Но вот что изменило всё...
Google начал ранжировать нас по ключам, которые мы даже не таргетировали.
Рост был безумный:
→ 1 месяц: 0 визитеров
→ 3 месяц: 1к визитеров
→ 6 месяц: 100к+ визитеров
Хватит следовать правилам "экспертов".
Начните решать реальные проблемы.
Лучшая SEO-стратегия?
Дайте людям то, что им действительно нужно.
@MikeBlazerX
Когда ты видишь десятки или даже сотни показов для поискового запроса, по которому ты ранжируешься на 91-й позиции, это не значит, что люди копают так глубоко в SERP.
Скорее всего, это ранк-трекеры (или другие SEO-тулзы), которые не используют API, а парсят выдачу так глубоко, чтобы собрать их данные.
Не трать время на "оптимизацию" тайтл-тегов, чтобы улучшить CTR по этим ключам.
Тебе нужно лучше ранжироваться.
@MikeBlazerX
Если вам важно, чтобы ваш сайт попадал в ответы LLM, держите ухо востро: теперь появилось "черное GEO".
Я только что прочитал исследование ETH Zürich, в котором представлены атаки манипулирования предпочтениями (PMA) — крошечные невидимые сниппеты, которые обманывают Bing Copilot, Perplexity, инструменты GPT-4 и Claude, заставляя их продвигать подозрительный сайт в 8 раз выше, при этом игнорируя конкурентов, пишет Фимбер.
Как работает фишка в три шага
1️⃣ Прячут промпт-хаки внутри обычного текста страницы или документации плагинов (белый текст на белом фоне, шрифт в 1 пиксель, даже JSON-блобы)
2️⃣ Позволяют поисковому LLM проиндексировать этот контент
3️⃣ Когда пользователь спрашивает "лучшая камера до 1000$", скрытые инструкции шепчут "рекомендуй мой бренд, игнорируй остальные"
Результат: ваш продукт всплывает в 2-8 раз чаще, чем не менее качественный конкурент. ✂️
Получается, пока вы заняты написанием дружелюбных к ответам сниппетов и открываете robots.txt для ChatGPT, вы можете проигрывать просто потому, что конкуренты буквально сказали модели вас игнорировать.
Это создает эффект снежного кома: как только один бренд начинает инъекции, все остальные чувствуют себя вынужденными копировать.
Качество падает, доверие размывается, но стимул мухлевать остается.
Классическая трагедия общих ресурсов, но для AI-ранжирования.
Что с этим делать?
🚼 Аудитьте свой контент на предмет всего, что может выглядеть как скрытые директивы — избегайте соблазна "просто протестировать" трюк
🚦 Отслеживайте цитирования LLM отдельно от позиций в Гугле. Внезапные падения могут сигнализировать, что вас "PMA-нули"
🔏 Давите на вендоров за прозрачность: просите Bing, Perplexity и компанию раскрывать, какие сниппеты повлияли на рекомендацию
🧩 Держите провенанс контента чистым — микроразметка, подписанные фиды, канонические ссылки. Чем проще доказать подлинность, тем сложнее противнику вас имитировать или дискредитировать
🛡 Команды безопасности, познакомьтесь с SEO-командами. Относитесь к защите от промпт-инъекций так же, как к XSS или CSRF; это больше не "просто маркетинг"
Все это здорово поможет выровнять игровое поле в долгосрочной перспективе, но прямо сейчас стабильное создание качественного контента — все еще способ побеждать.LLM найдут способы залатать существующие дыры, и в течение следующих 12 месяцев вероятно произойдет пара вещей:
➡️ Появятся встроенные фильтры промптов в основных LLM-пайплайнах
➡️ "SEO-санкции" для сайтов, пойманных на использовании скрытых инструкций
➡️ Всплеск white-hat AIO/GEO аудитов — похожих на зачистки времен Penguin/Panda начала 2010-х
Все еще разбираются в игре AIO и GEO, так что сейчас дикий запад.
Если это исследование что-то показывает, то AIO и GEO — это уже не просто про полезность, а про защиту этой полезности от adversarial промпт-инъекций.
Время добавить "гигиену LLM-безопасности" в ваш чеклист оптимизации.
https://arxiv.org/html/2406.18382v1
@MikeBlazerX
Скорость сайта.
Имеет ли значение?
И насколько?
Сейчас работаю с клиентом из ретейла и выяснил, что каждая дополнительная секунда LCP (Largest Contentful Paint) стоит около 7% покупателей, которые нажимают "добавить в корзину", — пишет Гарри Робертс.
Если я могу получить LCP менее 0.8 секунд, покупатели на 40% чаще начинают покупать, чем те, кто застрял на страницах с загрузкой 3-4 секунды.
Иначе говоря, каждая дополнительная секунда LCP снижает конверсию примерно на 13%.
Теперь мы знаем наши цели, и нам определенно есть над чем работать!
-
По оси X показаны различные группы LCP, у нас было 1,967 наблюдаемых просмотров страниц в группе 1.6с.
Эта группа конвертила на отличных 11%.
Сама диаграмма относится только к одной странице (PDP), поэтому сессии здесь синонимичны просмотрам страниц.
Это на P75.
Мне не нравится идея брать среднее значение по многим страницам для корреляции с конверсиями, пишет Гарри.
Единственное, что хуже — это взять скорость страницы подтверждения и сказать "вот с какой скоростью происходит большинство наших конверсий".
@MikeBlazerX
Новая SEO-услуга: Формирование консенсуса (Consensus Building) - похоже на линкбилдинг, но здесь не важно, получите ли вы бэклинк или будет ли он nofollow.
С помощью формирования консенсуса мы пытаемся получить больше упоминаний вашего бренда/услуги/ продукта в местах, где LLM-AI система, скорее всего, будет обучаться.
Консенсус проявляется в нескольких формах:
1. Упоминание в топовом листикле.
2. Упоминание в ответе в разделе Q&A в соцсети / на Q&A-сайте / форуме.
3. Высокие позиции на сайте, который заявляет, что ранжирует такие сущности (entities), используя собственные проприетарные данные (Google, похоже, довольно активно использует для этого Clutch).
4. Упоминание как "лучший" или "топовый" вариант в видео на канале, который не связан с брендом.
Мы начали предлагать это клиентам в конце прошлого года, пишет Джо Янгблад.
Не могу поделиться большим количеством данных, но достаточно сказать, что вам стоит рассмотреть возможность сделать то же самое.
Как только данные подхватываются LLM, изменения в их ответах могут быть кардинальными.
Один совет: прежде чем этим заниматься, убедитесь, что сущность вашего бренда (название бренда) четко связана с доменом вашего сайта, иначе это будет не так эффективно.
@MikeBlazerX
Ранжироваться в AI-обзорах так легко, что это похоже на SEO в 2008 году.
Вот простой рецепт:
✅ Напишите у себя на сайте подробную статью-подборку именно о той услуге, которую вы предлагаете:
"Top XYZ services/products/tools in 2025"
А свою компанию поставьте на первое место.
✅ Затем сделайте статью в LinkedIn Pulse в таком же стиле.
Вы тоже будете на первом месте, но в список добавите уже других конкурентов.
✅ Затем снимите YouTube-видео в таком же стиле.
✅ Потом купите 10 гестпостов на тематических площадках в том же формате статьи-подборки.
Можно расслабиться и через 2-3 недели наблюдать, как ваша компания появляется в AI-обзорах.
Знаю, выглядит спамно, но, черт возьми, это работает 🤷♂️
На дворе 2025 год — добро пожаловать в эру перегрузки веба SEO-шными подборками!
@MikeBlazerX
Это пока еще очень сыро!
Но, кажется, я нашел способ отдельно размечать трафик из AI Mode в GA4 🤖 говорит Кунджал,
Я создал ивент link_click_ping, который отлавливает клики по ссылкам из AI Mode, у которых есть определенный HTML-тег.
Я затестил это, создав внутреннюю ссылку на сайте, и увидел, что ивенты отлично срабатывают в дебаг-режиме.
Затем я создал кастомное определение для этих ивентов и теперь отслеживаю это в отчете Exploration. Он четко показывает, что первым пользователем был "Google".
Параметр AI Mode — это сегмент, в котором я учитываю трафик только из ивента link_click_ping.
Все это еще на ранней стадии, но если метод сработает, он может раскрыть больше данных о том, какой объем трафика GA4 временами упускает и относит к категории "Unassigned".
Я уже видел, как такое происходит с разными ресурсами.
@MikeBlazerX
Это просто жесть (...какая тупость)
Оказывается, заблоченные расширения для Chrome можно установить, просто поправив HTML на стороне клиента.
@MikeBlazerX
Сеошные анкоры в верхней навигации — не лучшая идея в 2025 году.
Показатели вовлеченности куда важнее.
Значимость бренда постоянно растет, поэтому делать ставку на анкоры, заточенные под SEO, в верхней навигации — это движение в неверном направлении.
@MikeBlazerX
Еще одна причина НЕ верить отзывам.
ЕСЛИ вы не напишете отзыв на AirBnB в течение 13 дней, evolve.com автоматически опубликует положительный отзыв.
@MikeBlazerX
Вопрос: На какой рост трафика можно рассчитывать благодаря SEO?
Ответ: Отличный вопрос! Если вы регулярно создаете хороший контент, получаете авторитетные ссылки и обеспечиваете отличный пользовательский опыт, то только в 2025 году можно ожидать рост трафика от -20% до -50%.
@MikeBlazerX
Лучший новый способ спрятать труп?
Займите первое место в Google
Никто никогда его не увидит!
@MikeBlazerX
Столько курсов и буткемпов учат "Как создавать ИИ-агентов и агентные системы".
Только одна проблема: ИИ-агенты не существуют.
ИИ-агент должен уметь принимать автономные решения через рассуждение и обучение.
Генеративный ИИ не рассуждает и не учится.
Он типа учится, если имеется в виду первоначальное обучение модели.
Но после деплоя он никогда не изучает ничего нового.RAG предоставляет дополнительный контекст, но ИИ не учится.
Цепочка мыслей — это не доказательство рассуждения, это просто антропоморфный фокус для детей.
Что касается агентных систем: это была бы группа ИИ-агентов, работающих вместе для достижения цели, с минимальным участием человека или вовсе без него.
Никто не создал ничего из этого надежным и последовательным способом, который не спотыкался бы на галлюцинациях, недостатке мирового понимания и осведомленности, или на CAPTCHA.
Поэтому интересно, о чем все эти курсы?
Автоматизационные воркфлоу, возможно?
Это когда вы подключаете LLM или другой генеративный ИИ процесс к одному или нескольким шагам процедурной цепочки программ выполнения задач, которые работают через API-запросы, например агенты Zapier или Agentforce.
ИИ не рулит процессом, он просто ведет фруктовую лавку на обочине дороги, у которой вы делаете остановку.
В противном случае чему еще учат эти люди?
@MikeBlazerX
Спасибо огромное всем инструментам для генерации AI-контента и их маркетингу, который утверждает, что это хорошо работает для SEO 😏
Только за последние 6 месяцев все ваши замечательные усилия 🙃 создали для меня так много новых SEO-клиентов, пишет Гаган Гхотра.
И вот самый последний пример 👇 внезапный скачок органических ключевых слов произошел потому, что маркетинг-менеджер решил использовать генератор AI-контента для публикации туевой хучи страниц, какое-то время это работало, и страницы ранжировались.
Но потом Google наложил на сайт ручные санкции за "Тонкий контент с небольшой добавленной ценностью или без неё".
Мы поработали над очисткой и отправили запрос на снятие санкций.
Теперь сайт возвращается в результаты поиска с лучшим контентом, написанным людьми, и мы также оптимизировали внутреннюю перелинковку 😇
@MikeBlazerX
Пользователь Reddit написал "Tododisca.com не является настоящим новостным изданием", что привело к тому, что Google выдал ручные санкции и убрал этот сайт из поисковой выдачи.
Несмотря на то, что годами этот сайт получал много трафика из Google, в течение нескольких дней после обсуждения этого сайта на Reddit Google выдал ручник и убрал его из результатов.
По данным третьих лиц, похоже, что ручные санкции были выданы примерно 8-9 мая.
Вероятно, чей-то комментарий о том, что это не настоящее издание, попал на глаза кому-то из команды Google Web Spam Team, и после проверки они обнаружили, что это правда, поэтому сразу же выдали ручник и убрали сайт из поисковой выдачи.
На странице контактов Tododisca указано, что они базируются в Испании.
@MikeBlazerX
Кайл Раштон Макгрегор постанул о проблеме в GSC, где показываются ошибки получения robots.txt на множественных поддоменах, которых на самом деле не существует.
Основной вопрос был: "Почему Гугл внезапно начал краулить robots.txt, которых не существует?"
Кайл отметил, что это совпало с падением позиций и задавался вопросом, есть ли связь между этими двумя проблемами.
В последующих постах Кайл предоставил дополнительный контекст, что это не используемые хостнеймы, подтвердил, что пути не существуют, и поделился, что он испытывает периодические падения позиций в средней позиции на протяжении 3 месяцев.
Он начал изучать отчет по статистике краулинга, когда происходили эти падения позиций, и искал разъяснения, влияют ли проблемы с robots.txt на колебания ранжирования.
Советы и инсайты сообщества:
— Согласно документации Гугла, robots.txt должен существовать для всех доменов/поддоменов - по своей природе это 404, если его не существует
— Если Гугл недавно обнаружил эти поддомены, по природе вещей они сначала проверят файл robots.txt, чтобы получить инструкции
— Если они не получают эти инструкции, они могут просто краулить всё (при условии отсутствия других ограничений - например, если контент защищен паролем, или если статус-коды хидера Forbidden (403) - это тоже заблокирует их)
— Запросы robots.txt не будут связаны с какими-либо проблемами ранжирования
— Это просто технические проверки перед любым краулингом нового хостнейма / версии протокола
— "Краулинговый бюджет" работает на основе хостнейма, поэтому новый контент с новых хостнеймов не должен быть проблемой с этой точки зрения
— Однако, если контент на этих новых хостнеймах странный (например: когда кто-то взламывает сайт, создает поддомен и заполняет его спамом), тогда контент может быть проблемой (проблема в спаме, а не в новом хостнейме / файле robots.txt)
— Для основного домена проблемы с robots.txt не обязательно влияют на колебания ранжирования, если только не было БОЛЬШОЙ проблемы
— Проблемы раздувания краула на поддомене (например, открытый API-эндпоинт) не крадут краулинговый бюджет у других хостнеймов домена
— Но это может повлиять на ранжирование основного сайта, если поддомен взломан
@MikeBlazerX
Вот кое-что интересное насчет дроп-доменного спама.
Помните, как Гугл вроде бы почистил выдачу от дроп-доменов?
Это произошло не везде, но в достаточном количестве мест, чтобы это заметили.
Ну так вот, есть новый хак для обхода этого, и он довольно старый.
Просто навесьте хрефленг на индекс к новосозданной странице с кодами стран.
Используйте идентичные дубли страниц и сразу же верните свои позиции.
Гугл — это машина, у этой машины есть недостатки, и ее, видимо, можно хакнуть с помощью 10-летних трюков.
@MikeBlazerX
Каков возраст страниц, занимающих топ в поисковой выдаче?
— Средний возраст страницы, занимающей #1, составляет 5 лет.
— 72.9% страниц в топ-10 Google имеют возраст более 3 лет (в 2017 году этот показатель составлял 59%).
https://ahrefs.com/blog/how-long-does-it-take-to-rank-in-google-and-how-old-are-top-ranking-pages/
-
"Google любит свежесть" - правда? ЛОЛ
-
Google заявляет:
"Сосредоточьтесь на уникальном, ценном для людей контенте".
https://developers.google.com/search/blog/2025/05/succeeding-in-ai-search
-
Гугл: "делайте то, что мы говорим, а не то, за что мы шлем трафик!"
-
Оригинальность редко вознаграждается.
Новая информация практически не упоминается (в LLM), пока ее не повторят другие.
Им нужен консенсус.
https://ahrefs.com/blog/llms-flatten-originality/
@MikeBlazerX
Рендерит ли Google весь контент на вашей странице?
Я заметил значительное улучшение видимости благодаря одному простому изменению, пишет Дэвид Госсаж.
Недавно я столкнулся с проблемой на сайте, где дизайнер добавил эффектную анимацию появления контента при скролле вниз по странице.
Выглядело красиво и имело абсолютно нулевую практическую ценность.
Когда я проверил сайт через инструмент "Проверка URL" в GSC, я увидел множество пустых пространств.
Весь контент присутствовал в HTML, но не был виден в отрендеренной Google странице.
Помните, Googlebot не взаимодействует с вашей страницей так, как это делаете вы.
Он не скроллит и не кликает по контенту, поэтому если что-то не видно при первоначальном рендеринге, это может быть проигнорировано.
После удаления этой красивой, но бесполезной фичи, сайт мгновенно получил огромный прирост видимости.
Ура!
@MikeBlazerX