mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2557

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Regex Manager - расширение для Chrome - ваша персональная библиотека регулярных выражений прямо в браузере.

Идеально подходит для GSC, GA4, веб-разработки, тестирования и многого другого!

Что оно делает:

* Сохраняет ваши регулярные выражения с заголовками, описаниями и категориями
* Кликните в любое поле ввода или текстовую область на веб-странице, откройте расширение и вставьте сохраненный паттерн одним кликом.
* Создавайте, редактируйте, удаляйте паттерны. Копируйте паттерны в буфер обмена.
* Импортируйте/экспортируйте вашу библиотеку через CSV.

Почему?

* Экономия времени - больше не нужно искать в заметках или перепечатывать сложные паттерны.
* Снижение ошибок - используйте ваши протестированные и валидированные регекспы каждый раз.

https://chromewebstore.google.com/detail/regex-manager/mdcmehmegkigaonhnjhpcigplhjeohim

@MikeBlazerX

Читать полностью…

Mike Blazer

Похоже, что инструмент проверки URL в GSC устанавливает дневную квоту отправок "на аккаунт Google", а не "на домен".

Я отправил 10 URL (новых страниц) на одном домене и достиг лимита квоты, пишет Билл Хартзер.

Но затем перешёл к домену другого клиента, в том же аккаунте Google, и не смог отправить - потому что уже исчерпал квоту.

Я не отправлял никаких URL на том домене больше месяца.

Сталкиваетесь ли вы с той же проблемой достижения квоты "на аккаунт", а не "на домен"?
-

То, что Google вводит лимит на проверку страниц, сделает SEO намного, намного сложнее...

@MikeBlazerX

Читать полностью…

Mike Blazer

Бринна была озадачена, потому что заметила расхождение между данными GSC и своими серверными логами.

Консоль показывала, что Google обращался к определенной странице в конкретную дату и время, но она не смогла найти соответствующую запись в своих лог-файлах, даже с учетом разницы часовых поясов и проверки соседних дней.

Она исследовала эту проблему в контексте падения краулингового бюджета от Google после запуска теста на нескольких страницах и пыталась определить дальнейшие шаги.

Джон Мюллер предложил кликнуть на "view crawled page" / "more info" / "http response", чтобы увидеть, что сервер ответил в тот момент.

Он объяснил, что иногда GSC показывает более старую дату, что может указывать на то, что Google просто проверил кэш или сделал HEAD или if-modified-since запрос, чтобы увидеть, изменилась ли страница, вместо того, чтобы делать полный краулинг.

Он предоставил скриншот-пример с одного из своих собственных URL-ов сайта, показывающий ту же проблему, с которой столкнулась Бринна.

Джон упомянул, что такая ситуация иногда случается, и пояснил, что обычно никаких действий не требуется, если не были внесены изменения на странице (в этом случае отправка её на индексацию могла бы помочь).

Райан Сиддл спросил, смотрит ли Бринна логи, ближайшие к её точке входа.

Он указал, что у клиентов часто бывает несколько уровней логирования, и если используются сервисы типа Akamai в качестве WAF, то извлечение логов из внутренних Apache/Nginx/Vercel может не показывать доступ Google, если запросы кэшируются или не проходят через эти системы.

Бринна сказала, что она смотрела логи Cloudflare, которые, как она полагала, были их первой линией логирования, но признала, что было бы хорошо перепроверить это.

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотели ли вы знать, какие запросы Google от вас скрывает в GSC?

Те, которые они называют "анонимными запросами".

Ahrefs сопоставили свои данные с данными GSC, и теперь вы можете видеть эту информацию в отчете "Анонимизированные запросы" в разделе GSC.

Они планируют сделать то же самое с отчетом поисковых запросов Google Ads.

Правила анонимных запросов Google излишне широкие.

По их определению, это запросы, которые не искались более 30 раз за последние 13 месяцев 30 отдельными авторизованными пользователями.

Руководитель DuckDuckGo однажды сказал, что это исключает ~99% хвостовых запросов.

Это поможет вам заполнить некоторые из этих пробелов.

@MikeBlazerX

Читать полностью…

Mike Blazer

🚀 Влияет ли скорость загрузки страницы на ранжирование? 🚨

Я провел эксперимент с ноября прошлого года, говорит Джошуа Клэр-Флэгг.

Я создал 2 лендинга; оба с абсолютно одинаковым контентом.

Один был медленный, другой быстрый - с доменами, к которым добавлены суффиксы -s и -f соответственно.

Что показывает Google Search Console для этих страниц?

Быстрая страница получает на +1650% больше кликов и на +1033% больше показов, а также лучшую кликабельность и более высокую среднюю позицию.

Да, я понимаю, что цифры здесь скромные - но это действительно показывает, что Гугл приоритезирует более быстрые страницы, даже в небольшом масштабе!

@MikeBlazerX

Читать полностью…

Mike Blazer

Изощренная фишинговая атака в Google с эксплуатацией уязвимостей инфраструктуры

Недавно я стал целью крайне изощренной фишинговой атаки, и хочу обратить на это внимание, пишет Ник.

Она эксплуатирует уязвимость в инфраструктуре Google, и, учитывая их отказ исправить её, мы, вероятно, будем видеть это всё чаще.

Первое, что стоит отметить — это валидное, подписанное письмо — оно действительно было отправлено с no-reply@google.com.

Оно проходит проверку DKIM-подписи, и Gmail отображает его без каких-либо предупреждений — он даже помещает его в одну переписку с другими легитимными оповещениями безопасности.

Ссылка Sites ведет на очень убедительную страницу "портала поддержки".

Они умно использовали sites.google.com, потому что знали, что люди увидят домен google.com и посчитают его легитимным.

Клик по "Загрузить дополнительные документы" или "Просмотреть обращение" ведет на страницу входа — точную копию настоящей; единственный намек на фишинг в том, что она размещена на sites.google.com вместо accounts.google.com.

Оттуда они собирают ваши учетные данные для компрометации аккаунта.

Так как же им это удалось — особенно валидное письмо?

Это связано с двумя уязвимостями в инфраструктуре Google, которые они отказались исправить.

Поддельный портал сделан довольно просто.

sites.google.com — это устаревший продукт из времен, когда Google еще не так серьезно относился к безопасности; он позволяет пользователям размещать контент на поддомене google.com и поддерживает произвольные скрипты и встраивания.

Это делает создание сайта для сбора учетных данных тривиальным; атакующие просто загружают новые версии по мере блокировки старых.

В интерфейсе Sites нет возможности сообщить о злоупотреблении.

Google осознал, что размещение публичного, заданного пользователями контента на google.com проблематично, но Google Sites по-прежнему существует.

Им необходимо отключить скрипты и произвольные встраивания в Sites, так как это слишком мощный вектор фишинга.

Техника с письмами более изощренная и явно является проблемой безопасности.

Ключевые подсказки в заголовке: хотя письмо подписано accounts.google.com, оно было отправлено через privateemail.com и послано на 'me@blah'.

Ещё одна подсказка: под фишинговым сообщением есть пробелы, за которыми следует "Google Legal Support получил доступ к вашему аккаунту Google" и опять же странный email-адрес me@...

Атакующие:

1. Регистрируют домен и создают аккаунт Google для 'me@domain'
2. Создают OAuth-приложение Google с полным фишинговым сообщением в качестве названия, за которым следуют пробелы и "Google Legal Support"
3. Предоставляют своему OAuth-приложению доступ к их аккаунту Google 'me@...', генерируя легитимное сообщение 'Оповещение безопасности'
4. Пересылают это сообщение жертвам

Поскольку DKIM проверяет только сообщение и заголовки (но не конверт), оно проходит валидацию подписи и выглядит легитимным — даже в одной переписке с реальными оповещениями безопасности.

Имя пользователя 'me@' заставляет Gmail отображать, что сообщение было отправлено на 'me', что является сокращением для вашего собственного email-адреса, избегая еще одного красного флага.

Google отклонил отчет об ошибке как "Работающий как задумано" и не считает это проблемой безопасности.

Пока они не изменят своего мнения, будьте бдительны к обманчивым оповещениям безопасности от Google.

@MikeBlazerX

Читать полностью…

Mike Blazer

SEO-эффект от обогащения содержимого страниц

Ритейлер электронной коммерции рассматривал возможность удаления своих страниц с устаревшей информацией о питательной ценности продуктов и редиректа их на страницы с подробным описанием товаров (PDP).

Что они сделали:

Вместо удаления этих страниц SearchPilot протестировал их улучшение путем:

- Добавления таблиц спецификаций, аналогичных тем, что есть на PDP
- Включения информации о связанных продуктах
- Внедрения существующего контента с PDP и дополнительных структурированных данных

Результаты:

- 20% увеличение органического трафика на улучшенные страницы с информацией о питательной ценности
- 24.5% рост кликабельности для улучшенных страниц
- Контрольная группа (неизмененные страницы) показала снижение CTR на 28% за тот же период

Этот тест изменил стратегию клиента с планирования вывода этих страниц из эксплуатации на реинвестирование в них, демонстрируя, что улучшение тонкого контента может быть более ценным, чем его удаление.

https://www.searchpilot.com/resources/case-studies/the-seo-impact-of-enriching-page-content

@MikeBlazerX

Читать полностью…

Mike Blazer

Ключевые отличия между оригинальными рекомендациями Google HCU 2022 года и текущими рекомендациями 2025 года включают:

— Добавление пользовательского опыта как фактора ранжирования
— Эволюция от E-A-T к E-E-A-T (добавление "Опыта")
— Новый фреймворк "Кто, Как и Почему" для оценки контента
— Более строгие правила касательно манипулятивных практик, таких как изменение дат
— Расширенное определение экспертности, включающее "написано или проверено" экспертами
— Явные рекомендации по контенту, сгенерированному с помощью ИИ
— Структурные изменения в самих рекомендациях

К 2025 году Google делает акцент на целостном пользовательском опыте помимо просто качественного контента, практических знаниях из первых рук наряду с экспертностью, прозрачности через фреймворк "Кто, Как и Почему", реальной ценности вместо манипулятивных тактик и гибкости в моделях экспертности.

Поскольку Доверие является самым важным фактором EEAT, именно отсутствие доверия выступает главным рычагом, который уничтожает позиции сайтов в выдаче.

Эти сайты были систематически уничтожены СПАМ-апдейтами.

Google явно определяет доверие как основу E-E-A-T: "Из всех этих аспектов доверие является наиболее важным"

Дэнни Салливан подтверждает: "Сигналы качества — такие как полезность — имеют большее значение, и асессоры помогают нам измерять это"

Google подчеркивает важность прозрачности авторства: "То, что помогает людям интуитивно понимать E-E-A-T контента — это когда ясно, кто его создал... Мы настоятельно рекомендуем добавлять точную информацию об авторстве."

Отсутствие прозрачного указания авторства, владельца или редакционного надзора фундаментально влияет на доверие и полезность, негативно сказываясь на позициях

Сайты, которым не хватает доверия, по своей сути лишены E-E-A-T и классифицируются как СПАМ

У вас не может быть "полезного контента", если вы не проходите проверку по сигналу качества "Полезность".

Согласно рекомендациям Google, полезность требует:

— Цель ("Почему был создан этот контент?"): Контент должен в первую очередь помогать людям, а не манипулировать позициями в поиске
— Ясность ("Кто создал контент?"): Авторство должно быть очевидным с указанием имени автора и информации о нем
— Прозрачность ("Как был создан этот контент?"): Процесс создания контента должен быть открыто описан, особенно при использовании автоматизации или ИИ
— Качество и оригинальность: Контент должен быть оригинальным, существенным, содержательным и полным
— Удовлетворительный пользовательский опыт: Включая читабельность, дизайн, производительность и компоновку
— Более высокие стандарты для YMYL-тем
— Целостная оценка по нескольким факторам

Разница между HCU и октябрьским Спам-апдейтом:

HCU: Корректировки для доменов, злоупотребляющих тематическим авторитетом или публикующих неоригинальный контент
— Спам-апдейты: Нацелены на понижение целых сайтов на основе доверия, идентичности или предполагаемых манипуляций

Восстановление требует определения, обеспечения прозрачности и верификации вашей сущности

Улучшения только контента недостаточно; вы должны исправить свою сущность, четко установив, кто стоит за вашим сайтом, подтвердив свою цель и право собственности, и соответствуя логике асессоров.

Раздел 2.5.2 Руководства по оценке качества поиска Google требует ясности в отношении сущности/владельца, стоящего за сайтом, автора каждого материала и проверяемых контактных данных

Несоблюдение этого вызывает негативные оценки, даже если ваш контент хорош.

Чтобы эффективно ранжироваться, вы должны явно публиковать свое юридическое лицо или личность, предоставлять четкие контактные данные, заявлять о редакционной ответственности и использовать структурированные данные для последовательного подтверждения деталей сущности

Это обеспечивает соответствие юридическим требованиям и снижает воспринимаемый риск для Google.

https://www.hobo-web.co.uk/the-google-hcu-helpful-content-update-helpfulness/

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы можете использовать ИИ от Google для получения информации из контента, скрытого за пейволами.

Просто поместите название в кавычки и вежливо попросите.

Это ещё один пример того, как Google не проявляет никакого уважения к интеллектуальной собственности издателей.

@MikeBlazerX

Читать полностью…

Mike Blazer

Прямо сейчас тысячи спамеров "деанонят" себя.

Их аккаунты в ChatGPT были заблокированы.

Но их скрипты всё ещё работают.

Поэтому каждый пост в блоге, каждый пост на реддите, каждый ответ в X - одинаковые.

Сообщение об ошибке, говорящее, что их аккаунт деактивирован.

Ошибка: OpenAI аккаунт, связанный с этим API ключом, был деактивирован. Если вы разработчик этого приложения OpenAI, пожалуйста, проверьте вашу почту для получения дополнительной информации. Если вы видите эту ошибку при использовании другого приложения или сайта, пожалуйста, обратитесь к ним за помощью.


Зачем же вы все бросились проверять свою почту, дочитайте хоть )))

@MikeBlazerX

Читать полностью…

Mike Blazer

Источник

@MikeBlazerX

Читать полностью…

Mike Blazer

"Google подтверждает, что вы не можете добавить EEAT на свои веб-страницы"

2 дня спустя:

"Как применить E-E-A-T к вашему сайту и улучшить он-пейдж SEO"

@MikeBlazerX

Читать полностью…

Mike Blazer

Я создал скрипт, который поможет вам найти внутренние ссылки, указывающие на "неправильную" страницу, пишет Эверетт Сайзмор.

Всё, что вам нужно, это отчёт All Inlinks из Screaming Frog и отчёты о ранжировании ключевых слов из aHrefs или SEMrush (или из любого другого источника, главное переименовать колонки в [Keyword | Ranking Position | Top Ranking URL]. Удалите все остальные колонки).

Загрузите эти два CSV-файла, и скрипт выдаст вам три CSV-файла:

Multiple Destinations:

Когда одно и то же ключевое слово/фраза ссылается на несколько URL/страниц.

Inconsistencies by Most Links:

Когда страница, на которую ведёт ссылка, не является страницей/URL с наибольшим количеством ссылок.

Inconsistencies by Ranking:

Когда страница, на которую ведёт ссылка, не является страницей с наивысшей оценкой.

Важно:

Не просто отдавайте эти данные джуниор-сеошнику или контент-менеджеру со словами "исправьте это", потому что иногда вы на самом деле не хотите, чтобы страница с наивысшей оценкой оставалась таковой.

Используйте этот инструмент для выявления и исправления проблем с канибализацией или оптимизацией.

Вот всё, что вам нужно сделать:

1. Перейдите по ссылке и сделайте копию Colab Notebook:

https://colab.research.google.com/drive/1GTU7gOc-aFnkGb3nZQi1XYpRhwXHo7Sm

2. Нажмите кнопку "Play".

3. Прокрутите вниз до области, где вы загружаете два файла, начиная с All Inlinks, а затем отчёт о ранжировании.

4. Будьте готовы сохранить три полученных CSV-файла.

Окна сохранения должны автоматически появляться одно за другим.

@MikeBlazerX

Читать полностью…

Mike Blazer

Саймон Кокс столкнулся с деиндексацией сайта simoncox.com, когда проверял его работу в Bing Webmaster Tools (BWT) в январе 2025 года.

Несмотря на обычно небольшой трафик с Bing, растущая важность индекса Bing для LLM и других поисковых систем, таких как DuckDuckGo, делала решение проблемы крайне важным.

Инструмент проверки URL-адресов BWT показывал статус главной страницы как "Обнаружена, но не пройдена", без ожидаемых зеленых галочек, указывающих на успешное индексирование.

Парадоксально, но вкладка "Живая страница" подтвердила, что URL может быть проиндексирован Bing.

Дальнейшее исследование с помощью отчета Crawl and Indexing в разделе Search Performance показало катастрофическое падение: количество проиндексированных страниц упало со 120 до нуля, начиная с августа 2024 года.

Хотя было зарегистрировано 158 ошибок при переползании, Саймон не считал, что они напрямую связаны со сроками деиндексации.

Запрос site:simoncox.com в поиске Bing подтвердил катастрофу - ни одна страница с его сайта не присутствовала в SERP.

Чтобы решить эту проблему, Саймон предпринял следующие шаги:

1. Провел сканирование сайта с помощью BWT, выявив пять ошибок HTTP 500, которые не удалось воспроизвести с помощью других инструментов для поиска, что указывает на проблемы с краулером Bing, а не с сайтом в целом.

2. Вручную добавил 37 страниц в индекс с помощью URL Inspection и запроса на индексацию, который оказался безуспешным через неделю.

3. Исследовал проблемы "качества контента", отмеченные IndexNow.

Внес изменения в потенциально проблемную статью, заменив цитируемый текст скриншотами, чтобы избежать признаков плагиата.

4. Следовал контрольному списку для исправления сайтов, исключенных из индексации Bing, проверяли достоверность XML sitemap, валидность robots.txt, правильность ответов 404 и технические SEO-элементы.

5. Повторно отправил основную карту сайта и RSS-ленту после удаления старой записи карты сайта.

6. Удалил блоки AI crawler из своего файла robots.txt, опасаясь, что они могут конфликтовать с интеграцией Co-pilot от Bing.

7. Обратился в службу поддержки Bing, получив бесполезный ответ, что сайт не соответствует стандартам.

8. Переключил хостинг с Netlify на Cloudflare Pages после обнаружения постоянной 500-й ошибки, настроив двойное развертывание для гибкости.

9. Устранил проблемы с редиректами на Cloudflare, консолидировав правила с помощью splats, после того как обнаружил практические ограничения для статических редиректов.

10. Отправили второй тикет в службу поддержки с тем же бесполезным результатом.

11. Включили в Cloudflare функцию Crawler Hints для использования IndexNow, автоматически отправив 839 URL, что привело к увеличению активности краулеров.

12. Обнаружил, что его скрипт Fathom Analytics был неправильно размещен после закрывающего тега </html>, но перед </body>, что нарушало стандарты HTML.

Это изменение было сделано незадолго до начала деиндексации.

13. Исправил размещение скрипта и повторно отправил URL-адреса всех страниц с помощью инструмента отправки URL-адресов BWT.

После этих изменений Bing стал ежедневно сканировать больше страниц.

Сайт снова появился в SERP, иногда с расширенными списками, показывающими подссылки и описания, а BWT сообщила о возобновлении количества кликов и показов.

Однако восстановление оказалось недолгим.

Вскоре после документирования своего опыта Саймон заметил, что его сайт снова пропал из поиска по оператору site: в Bing, несмотря на то что Webmaster Tools показывал количество показов и кликов.

Он заподозрил, что выявил новую причину, и внес еще одно изменение, запланировав тест, чтобы убедиться, что исправление сработало.

https://www.simoncox.com/post/2025-04-07-recovery-from-a-bing-de-indexing/

@MikeBlazerX

Читать полностью…

Mike Blazer

Как я делаю внутреннюю перелинковку на новых сайтах, пишет SEOwner:

1) Плагин собирает все посты/страницы (кроме исключенных) и записывает заголовок и целевой ключевик из кастомного поля.

2) Я задаю процентное соотношение для каждого типа анкора:

Точное совпадение, Подзапросы, Перефразированные, Общие.

— Промпт для Подзапросов просит ИИ написать X LSI ключевиков, и я случайно выбираю один (новый вывод промпта при каждом выборе).

Работает удивительно хорошо.

— Перефразирование — это запрос к ИИ переписать ключевик в новой структуре, чтобы он выглядел более разговорным/естественным, опять же, ИИ пишет список, и я выбираю случайный вариант.

Я использую этот метод для максимальной случайности каждого результата.

— С Общими анкорами сложно, потому что ИИ часто не может избежать анкоров, которые больше подходят для внешних ссылок.

Я все еще тестирую, но пока использую вручную созданный список и выбираю из него случайный вариант.

3) Назначаю случайное количество ссылок на пост, обычно я провожу различные тесты со случайными значениями 1-2, 1-3, 1-4, 2-3, 2-4 и так далее, в зависимости от количества постов на сайте.

4) Добавление ссылок: раньше я просто вставлял свежие предложения, но моя новая техника — брать существующие предложения из статьи и просить ИИ переписать их, включив ссылку на страницу X с анкором X (созданным как описано выше).

Очевидно, этот метод программный/блэкхат, но если вы этим интересуетесь, это отличный способ.

Что касается добавления новых постов позже, теоретически можно удалить из массива посты, в которых уже есть ссылки, или разработать более продвинутую систему, которая отслеживает каждую ссылку и избегает повторного добавления другой ссылки на ту же страницу.

ИИ далеко не так хорош в других языках, поэтому я не заморачиваюсь.

Я обратно перевожу ключевик на английский, затем пропускаю его через систему анкоров, получаю новое предложение, написанное на английском с включенным английским анкором, и перевожу его обратно.

Это дает интересные эффекты, так как "точные" ключевики часто немного отличаются в зависимости от контекста, в котором они переводятся обратно на неанглийский, поэтому часто они оказываются "как бы точными", а иногда действительно точными, но редко это один и тот же точный ключевик каждый раз.

@MikeBlazerX

Читать полностью…

Mike Blazer

Ты, когда осознаешь, что можешь показывать одно для людей, и другое для Гугла

@MikeBlazerX

Читать полностью…

Mike Blazer

Классификатор QDF

Новый классификатор запросов определяет, требует ли запрос свежести (query deserves freshness - QDF):

https://dejan.ai/tools/qdf/

Query Deserves Freshness (QDF) — это алгоритм Google, который отдает приоритет свежему контенту для поисковых запросов, чувствительных ко времени.

Он выявляет тренды или срочные новости и корректирует результаты поиска, чтобы отображать самую актуальную информацию, улучшая релевантность для пользователей.

@MikeBlazerX

Читать полностью…

Mike Blazer

В Google Sheets появилась формула "=AI"

Вы можете обрабатывать в электронных таблицах данные таким образом, который раньше был невозможен.

Gemini понимает, что находится в ячейках, и возвращает специально адаптированный ответ в соответствии с вашими инструкциями.

Примеры и формулы ниже:

1. Категоризация

"=AI" может категоризировать ваши данные на основе ваших инструкций и ссылаясь на другие ячейки.

Формула:

=AI("Is this a basketball or baseball team?",A2)


2. Анализ тональности

Джемини также может интерпретировать содержимое ячейки для определения настроения или других чувств.

Ранее это было невозможно.

Формула:

=AI("Classify this sentence, as either positive or negative.", A2)


3. Суммаризация

"=AI" также может обобщать содержимое другой ячейки в определенном формате.

Формула:

=AI("Summarize this info in 1 very short sentence",A2)


@MikeBlazerX

Читать полностью…

Mike Blazer

За последние 90 дней мы увеличили наш трафик в 15 раз на Nilos без единого маркетолога или сейлза; только с помощью ИИ-агентов, пишет Эйтан Мессика.

Вот что мы сделали:

1. Нашли правильные SEO ключевики для нашего ICP, попросив ИИ промптить самого себя, пока он не стал экспертом по длиннохвостым запросам

2. Сгенерировали контент/заголовки для LinkedIn на основе волшебной формулы Quicksprout с помощью Chat GPT o4

3. Загрузили результат в другого ИИ-агента и попросили оценить заголовки по вероятности вирального успеха (на основе предыдущих постов, которые сработали)

4. Загрузили заголовки в Perplexity для получения глубокого отчета с точной статистикой

5. Выбрали лучшие заголовки и написали 2 разных блог-поста с помощью другого ИИ-агента

6. Загрузили результат и попросили агента рекурсивно "судить самого себя" чтобы "улучшить себя", выступая в роли адвоката дьявола против себя 3 раза подряд (Эта фишка просто убойная)

7. Загрузили результат в "Агента-корректора в стиле Эрнеста Хемингуэя", который берет посты и оптимизирует их для простоты чтения

8. Связали всё через Zapier для автоматизации процесса (это требует времени на освоение)

--

Это приносит около 20+ демо в неделю с финтех-компаниями, импортерами и бизнесами по денежным переводам только из нашего SEO-направления.

Топ юзкейсы, по которым мы ранжируемся в SEO:

— Быстрые выплаты поставщикам в Китае, Гонконге, США и Европе из Африки, Мексики, Бразилии, Колумбии или стран MENA

— Улучшение курсов USD/EUR для бизнесов по денежным переводам в Нигерии, Камеруне, Кот-д'Ивуаре

— Разблокировка новых коридоров для выплат в "Развивающихся странах"

@MikeBlazerX

Читать полностью…

Mike Blazer

У Мелиссы Вайли возникла проблема, когда одна страница на её сайте внезапно исчезла из результатов поиска Google, несмотря на отсутствие видимых проблем с индексацией в GSC.

Она была озадачена, потому что:

— Все остальные страницы на сайте работали нормально
— Проблемная страница случайно выпала из поисковой выдачи в этот день
— Google по-прежнему краулил страницу
GSC показывал, что страница проиндексирована
— Страница не отображалась в поиске по "site:"
— Тест в реальном времени GSC показывал, что страница индексируемая и доступна для Google

Через два дня Мелисса сообщила о решении:

— Проблема была вызвана устаревшим запросом на удаление страницы в GSC
— Как только они отменили запрос, страница вернулась в выдачу

Она выразила недоумение по поводу того, как это произошло, поскольку:

— Страница не была устаревшей
— Она не знала, кто мог отправить такой запрос

Каждый (даже ваши конкуренты) может запросить удаление вашего "устаревшего" контента:
https://search.google.com/search-console/remove-outdated-content

@MikeBlazerX

Читать полностью…

Mike Blazer

Кто-то создал "прокси-сайт", который маскирует мой домен, внедряет свою рекламу и подменяет все ссылки на свой домен, сообщает Олли Райман.

Google полностью заменил мой сайт на него в поисковой выдаче, где раньше я был в топе, и деиндексировал мой основной домен.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google только что выпустил новый патент (18 марта 2025), который подтверждает то, что многие из нас уже наблюдали в SEO-окопах.

Патент US 12,254,007 B2 раскрывает систему, которая выходит за рамки простого сопоставления ключевых слов и создает "токен-ориентированный" поисковый индекс, включающий:

1/ Прогнозируемые пользовательские результаты:

Система не просто сопоставляет контент с запросами, а прогнозирует конкретные действия пользователей, такие как выбор контента, длительность просмотра и вероятность конверсии.

Это объясняет, почему определенные категории товаров теперь показывают различные макеты СЕРПов на основе моделей покупательских намерений.

Помните navboost?

Спасибо.

2/ Персонализированные вероятностные оценки:

Каждый результат содержит вероятностные веса, показывающие, насколько вероятно он удовлетворит ваши конкретные потребности на основе поведенческих паттернов.

Патент детализирует, как эти оценки рассчитываются с использованием взвешенных атрибутов (например, локация: 0.5, история браузера: 0.9).

3/ Контекстные пользовательские сигналы:

Токен-ориентированный индекс включает такие сигналы, как время суток, возможности устройства, языковые предпочтения и предыдущие взаимодействия — не как отдельные факторы ранжирования, а как основные элементы самой структуры индекса.

Удивительно не то, что Google может персонализировать результаты (мы знали это годами), а то, что теперь они встраивают персонализацию напрямую в структуру поискового индекса — а не просто применяют ее как фактор ранжирования постфактум.

Что это значит?

На самом деле, всё просто и по-прежнему то же самое:

Самые успешные сайты будут не просто соответствовать тому, что ищут пользователи, а тому, чего они на самом деле пытаются достичь.

Будущее принадлежит тем, кто понимает не только то, что говорят пользователи, но и что они имеют в виду.

https://patents.justia.com/patent/12254007

@MikeBlazerX

Читать полностью…

Mike Blazer

🚫 Больше никаких платных рекламных акций на пиццу 👀

В Великобритании с октября 2025 года вступает в силу запрет на цифровую рекламу "нездоровой" пищи.

С 1 октября будет запрещено размещать платные онлайн-рекламы продуктов с высоким содержанием жиров, соли и сахара (HFSS).

Это означает, что больше не будет PPC-рекламы на пиццу, торты, сладкие напитки и шоколадные батончики.

Согласно GOV.UK, если ваш продукт получил 4+ по модели оценки питательной ценности, он попадает в красную зону.

Еще один удар по индустрии гостеприимства...

И еще одна возможность для сеошников - заработать!

@MikeBlazerX

Читать полностью…

Mike Blazer

Pinterest теперь стал показывать объем поиска на своих "Страницах идей".

https://www.pinterest.com/ideas/bronco-truck-aesthetic/924330387698/

Начинайте парсить...

@MikeBlazerX

Читать полностью…

Mike Blazer

Как правильно вносить косметические правки

@MikeBlazerX

Читать полностью…

Mike Blazer

Знания против опыта

@MikeBlazerX

Читать полностью…

Mike Blazer

Я редизайню мой личный сайт на "local WP", - пишет Ник ЛеРой.

Признаюсь, использовал супер устаревшую версию.

После завершения 70% проекта, я решил "может быть хорошей идеей обновиться"...

Похоже, это повредило все мои файлы, и теперь я вернулся к последней точке восстановления, которая была примерно на отметке 10% готовности 💩

@MikeBlazerX

Читать полностью…

Mike Blazer

В конце 2024 года один из моих аккаунтов Pinterest серьезно просел, пишет NicheGrowNerd

Трафик упал с почти 23 000 ЕЖЕДНЕВНЫХ исходящих кликов до менее 1 000 в день. Падение на 90%.

Но в течение 2 месяцев я вернул показатели до >7.5 тысяч ЕЖЕДНЕВНЫХ исходящих кликов.

Вот что именно я сделал и как планирую вернуться к >15 тысячам кликов в день

После глубокого анализа данных я обнаружил три основные проблемы:

1️⃣ Низкие показатели вовлеченности:

У многих старых пинов были низкие показатели сохранений и кликов.

2️⃣ Избыточный постинг:

Я публиковал 48 пинов в день, что размывало общее качество.

3️⃣ Слишком широкий таргетинг:

Я слишком сфокусировался на конкурентных высокочастотных ключах (которые очень нестабильны).

💡 Эти факторы убивали эффективность аккаунта.

Шаг 1: Избавление от балласта

Первым делом я удалил неэффективные пины и доски (если им было больше 3 месяцев и было <10 показов).

Почему? Плохо работающие пины могут тянуть вниз показатели вовлеченности всего аккаунта.

Шаг 2: Сокращение количества

Я загружал 48 пинов в день. Казалось, что чем больше, тем лучше — но я ошибался.

Многие из этих пинов показывали слабые результаты, что снижало общий уровень вовлеченности аккаунта.

Я сократил выход до всего 12 точно таргетированных пинов в день, сделав упор на качество, а не количество.

Шаг 3: Фокус на работающих вещах

Я определил топ-10-15 статей, которые приносили самый высокий RPM и трафик (в моей панели Raptive)

— Я создал новые пины, таргетированные на разные вариации ключей для этих статей.
— Я сделал упор на длиннохвостые запросы, по которым легче ранжироваться и которые более стабильны.

Шаг 4: Оптимизация под вовлеченность

Алгоритм Pinterest сильно учитывает количество сохранений как ключевой фактор ранжирования.

Я сосредоточился на:

— Создании останавливающих скролл дизайнов пинов в трендовых стилях.
— Изучении топовых пинов для каждого ключа в инкогнито-вкладке, чтобы понять, какие форматы и цвета работают.

Шаг 5:

Я заметил закономерность:

— Пины с широкими ключами давали короткий всплеск трафика, но были нестабильны.
— Длиннохвостые запросы стабильно приносили трафик при меньшей конкуренции.

Результаты восстановления

За 2 месяца:

— Аккаунт вернулся к >7 тысячам исходящих кликов в день.
— Показатели вовлеченности стали лучше.
Pinterest вознаградил мой аккаунт большим количеством показов благодаря более высоким показателям сохранений и лучше работающим пинам.

1️⃣ Не бойтесь удалять неэффективные пины и доски.

2️⃣ Сократите объемы, если постите слишком много. Сфокусируйтесь на качественном контенте.

3️⃣ Делайте ставку на длиннохвостые запросы — они менее конкурентны и более надежны.

4️⃣ Отдавайте приоритет показателям сохранений, создавая оптимизированные, визуально привлекательные пины

@MikeBlazerX

Читать полностью…

Mike Blazer

Беэри Амиэль поделился анализом того, как разные поисковые системы на базе ИИ предпочитают разные уровни авторитета домена (который коррелирует с силой бренда).

Из этого можно выделить два интересных наблюдения:

1. От 58% до 73% цитирований приходится на домены со средним уровнем авторитета (между 20-80) — это значит, что для сайтов с более низким авторитетом есть много возможностей для появления в результатах.

2. Perplexity и SearchGPT — которые активно используют веб, находятся на крайнем полюсе по цитированию источников с низким и средним авторитетом домена.

Всё больше моделей движутся в этом направлении.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вот типы компаний или ситуаций, в которых, по мнению Элая Шварца, SEO не нужно или не будет эффективным:

1. Компании, которые не понимают или не выстраивают свою SEO-воронку:

Почему:

— большинству компаний не стоит заморачиваться с SEO, потому что они не могут правильно проанализировать *кто* ищет, *что* они ищут и *как* SEO фактически вписывается в их конкретный путь клиента и воронку продаж.

— Без этого понимания усилия в SEO вряд ли будут соответствовать бизнес-целям или приносить результаты.

2. Компании, продающие очень дорогие продукты/услуги со сложными циклами продаж (Пример: аналитический инструмент стоимостью в сотни тысяч долларов):

Почему:

— Несколько лиц, принимающих решения: Покупки требуют мнения и одобрения различных стейкхолдеров (начальников, CFO, инженеров), а не единичное импульсивное решение на основе поиска.

— Долгие таймлайны и множественные точки контакта: Путь от начального поиска до покупки длинный и включает множество взаимодействий помимо SEO (например, чтение отзывов на G2/Capterra, просмотр видео на YouTube, звонки с продажниками, демо, визиты менеджеров по продажам).

— Сложная атрибуция: Практически невозможно выделить конкретный вклад SEO в итоговую продажу, когда задействовано так много других факторов и точек контакта в течение длительного периода. Высокая стоимость SEO может быть неоправданной из-за отсутствия четкой атрибуции ROI.

3. Компании с супер-новыми продуктами/услугами:

Почему:

— Если продукт или концепция полностью новые, вероятно, для них не существует поискового объема.

— Люди не ищут то, о существовании чего они не знают, что делает традиционное SEO неэффективным для первоначального обнаружения.

4. Компании, продающие очень дорогие потребительские товары со сложным путем клиента (Пример: дома):

Почему:

— Аналогично примеру с дорогостоящим B2B, путь покупателя включает множество точек контакта помимо поиска (например, проезд мимо, рассылки, отношения с риелтором).

— Хотя SEO *может* играть небольшую роль, приписывать значительное влияние или ROI конкретно SEO очень сложно ("Риелторы никогда не узнают").

— Основные драйверы покупки часто находятся в другом месте.

5. Компании, где высокая стоимость SEO перевешивает неопределенный ROI (особенно по сравнению с другими каналами):

Почему:

— Значительные инвестиции: Правильное SEO (гонорары агентствам, внутренний инжиниринг, дизайн, контентные ресурсы) может составлять существенные затраты (потенциально миллионы косвенно).

— Отсутствие четкого ROI: Для компаний, описанных выше (длинные воронки, дорогие товары), трудно гарантировать возврат этих крупных инвестиций.

— Альтернативные издержки: Значительные инвестиции в SEO могут означать отвлечение бюджета от других каналов, таких как платная реклама, которые, хотя и потенциально "дорогие", часто имеют более четкие, быстрые и более атрибутируемые метрики (CAC, LTV).

— Илай ставит под сомнение логику приоритизации неопределенного SEO перед предсказуемыми (даже если дорогостоящими) платными каналами в этих случаях, особенно для стартапов с ограниченным бюджетом.

6. Компании, у которых отсутствует внутренняя структура, согласованность или менталитет для Product SEO:

Почему:

Хотя не утверждается, что SEO *не может* помочь бизнесу, подразумевается, что Product SEO не будет успешно реализован, если:

— В компании отсутствует кросс-функциональное сотрудничество (Маркетинг, Продакт, Инжиниринг).

— Ключевые стейкхолдеры (такие как CMO или CPO) не вовлечены или имеют противоречивые цели.

— Компания полагается исключительно на традиционные агентства, сосредоточенные на технических аудитах, базовом контенте и линкбилдинге, а не на интеграции SEO в основную продуктовую стратегию.

— В таких средах инерция и отсутствие поддержки препятствуют реализации эффективного Product SEO, делая значительные инвестиции потенциально бесплодными.

@MikeBlazerX

Читать полностью…
Subscribe to a channel