Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
"Обычно требуется очень долгое время, чтобы понять невероятно простые вещи."
— Джо Чанг
@MikeBlazerX
Работа:
Управлять SEO-командой из 10+ человек, вывести нас в топы поисковой выдачи с 3М+ страниц на 10 языках в 40 странах, и не допустить потери трафика.
Оборудование:
@MikeBlazerX
ИИ-генерированные подкасты о путешествиях ранжируются в Apple Podcasts
.
Челики загрузили больше 80 эпизодов за 2 дня.
Ранжируются по куче трэвел-запросов.
"Embark
", "dive in
", ...
Базовый вывод ChatGPT
, озвученный, скорее всего, с помощью ElevenLabs
.
@MikeBlazerX
Данный сайт начал включать тег noindex
в исходный HTML
код на ключевых страницах, ранжируемых в Гугле.
В отрендеренном HTML
нет мета-тега robots
, использующего noindex
, а в исходном есть.
И они сильно падают, начиная с 1 ноября.
Не делайте так!
@MikeBlazerX
Вот вам реальная правда о "лучших практиках":
Они безопасные.
Они проверенные.
И они, возможно, убивают вашу инновационность.
У нас были клиенты, которые религиозно следовали каждой "лучшей практике" в маркетинге, пишет Джошуа Джордж.
Их результаты?
Абсолютно средние.
Вот в чем дело:
Лучшие практики - это просто средние практики под прикрытием.
Мы выкинули учебник в окно.
Начали дико экспериментировать.
Были ли у нас провалы?
Еще бы.
Но мы также раскопали стратегии, которые разнесли "лучшие практики" в пух и прах.
@MikeBlazerX
Вот 7 примеров програматик SEO:
1. wise.comWise
сгенерировал более 350 000 страниц конвертера валют на разных языках и более 60 страноспецифичных подпапок.
Скриншот
2. producthunt.comProduct Hunt
имеет более 14 000 страниц с альтернативами для технологических продуктов, используя пользовательский контент для сравнения продуктов.
Скриншот
3. monday.comMonday
создал более 200 страниц с шаблонами, каждая из которых содержит хидеры, CTA и подробный контент, демонстрирующий возможности использования Monday
для проджект-менеджмента.
Скриншот
4. booking.comBooking
сгенерировал миллионы кастомных лендингов для каждого города, комбинируя высокочастотные запросы с основными и дополнительными модификаторами, чтобы ранжироваться в топе по запросам типа "отели в [город]".
Скриншот
5. g2.comG2
создал более 140 000 страниц, включающих подробные обзоры софта, с категоризацией по фичам, ценам и фидбеку пользователей.
Правда, в последнее время траф G2 пошел на дно.
Скриншот
6. webflow.com
У Webflow
более 2 000 страниц с шаблонами сайтов, использующих структуру тайтла "Адаптивные [тип] шаблоны сайтов".
Скриншот
7. eater.comEater
сгенерировал более 250 страниц, заточенных под разные города и рестораны, используя структуру тайтла "[X лучших] ресторанов в [город]".
Скриншот
@MikeBlazerX
@Marko_Fedorenko разработал кастомный JavaScript
-сниппет для Screaming Frog
, который использует AI
-эмбеддинги для измерения того, насколько тесно заголовок <h1>
соответствует основному контенту страницы.
Это помогло ему выявить несоответствия — например, тексты на неправильном языке или неверно категоризированные листинги товаров — что улучшило общую точность и релевантность контента.
Скрипт и гайд тут:
https://docs.google.com/document/d/1X3KH1YUFS6i46VES7Omt4IuO9sCgghv9KK4VMMlUKM8/edit?usp=sharing
@MikeBlazerX
У Гугла есть примерно 40 сигналов каноникализации, и один из них - это PageRank
.
-
Когда говоришь о каноникализации, нужно думать о кластерах.
Гугл группирует похожий или дублирующийся контент в кластеры.
На основе канонических сигналов он выбирает канонический URL
.
Но канонические сигналы не являются незыблемыми.
Они могут меняться со временем.
Это означает, что Гугл может выбрать другой канонический URL
в кластере, если канонические сигналы одного из URL
-ов со временем усилятся.
Такое случается в естественных условиях со многими сайтами.
Подкаст с инженером по каноническим URL
из Google заставит вас взглянуть на канонизацию под другим углом.
https://www.youtube.com/watch?v=6bAlB0RHs9c
@MikeBlazerX
Исследования показали, что модалки, которые нельзя закрыть, имеют самый высокий коэффициент конверсии.
@MikeBlazerX
Google не может различать типы контента.
У них нет четкого критерия, позволяющего определить, какая из 10 000 страниц, говорящих почти одно и то же, на самом деле лучшая (экспертная и аутентичная и т.д.).
Сама система и есть причина, так что...
Системы Google работают на определении того, как выглядит "хорошее".
Система сама по себе не знает, что качественно, а что нет, она просто хорошо интерпретирует поведение пользователей в ответ на результаты (вроде как...)
Если вы умеете хорошо определять удовлетворенность, вам не нужно знать, что появляется по запросу - тест, статья или модуль.
Все, что вам нужно - это научиться очень хорошо определять поведенческие паттерны пользователей и действовать соответственно.
Затем вы можете использовать модели прогнозирования для дальнейшего формирования и уточнения результатов.
В мире до LLM
и AI
-инструментов этот метод работал довольно хорошо.
Вы не можете удовлетворить всех пользователей все время, но вы можете удовлетворить большинство пользователей большую часть времени.
И они это делали, в основном.
Постепенно, сочетая антиконкурентные практики (вердикт Минюста США), они смогли стать "лучшей поисковой системой".
Однако в эпоху LLM
, когда низкокачественный, малоэффективный, массово масштабируемый контент является нормой, метод определения "как выглядит хорошее" не работает, потому что все выглядит, ощущается и говорит одинаково.
Так что же является определяющим фактором?
Скорее всего, они увеличили вес удовлетворенности пользователей, чтобы частично решить проблему.
Если бренду доверяют пользователи, и он также получает определенную оценку качества, он может появляться в выдаче, а все остальные, кто не соответствует порогу, исчезают.
Это может объяснить, почему вдруг единственные сайты, которые показываются в большинстве случаев, заменяя всех мелких паблишеров, - это крупные имена с огромными деньгами за спиной.
Это пандоподобное изменение в их системе, более глубокие уровни фильтрации, которые позволяют устранить все "похожие" страницы, утверждающие, что они эксперты.
"Google любит бренды
" - это старая присказка, но это ахиллесова пята системы, ее невозможно "решить", потому что репутация и доверие пользователей - важнее всего.
И хотя Forbes
полностью ориентирован на прибыль, пользователи, возможно, предпочтут читать его, а не мелкий сайт, и во многих случаях пользователи настолько устали от чумы бесконечных аффилированных статей, что идут на Reddit
, чтобы почитать о реальном опыте.
Google в затруднительном положении, результаты, показываемые во многих случаях, настолько низкоэффективны и низкокачественны, что только "вес бренда" позволяет им ранжироваться.
Это ужасно, но хуже ли это, чем бесконечный океан одинаковых аффилированных статей?
Хз.
Но это поломка.
@MikeBlazerX
"Запрос на стартапы" от Y Combinator
- Зима 2025
Госсектор и общественная безопасность
1. Разработка LLM
для автоматизации конкретных государственных задач: заполнение форм, проверка заявок и составление саммари документов
2. Создание систем компьютерного зрения для распознавания номерных знаков и предотвращения преступлений
3. Разработка софта, сокращающего время на полицейскую бюрократию с часов до минут
4. Создание инструментов для координации экстренных служб и диспетчеризации
5. Разработка платформ для эффективной коммуникации между населением и правоохранительными органами
Производство
1. Разработка ML
-роботизированных систем для снижения затрат на рабочую силу в производстве США
2. Создание инструментов автоматизации специально для американских фабрик, конкурирующих с зарубежным производством
3. Разработка специализированных промышленных роботов для инспекции и техобслуживания производства
4. Создание систем для оптимизации работы производителей в промышленных хабах США
Чипы и инженерия
1. Разработка LLM
-инструментов специально для дизайна и оптимизации FPGA
2. Создание AI
-систем для проектирования ASIC
, снижающих затраты на разработку
3. Разработка инструментов для оптимизации специализированных вычислений, таких как майнинг крипты или компрессия данных
4. Создание CAD
/CAM
-софта на базе AI
, делающего инженерные инструменты более доступными
Стейблкоины
1. Разработка платформ для бизнеса по хранению и управлению стейблкоинами
2. Создание инструментов для простой интеграции стейблкоин-платежей разработчиками
3. Разработка систем для выпуска банками собственных стейблкоинов
4. Создание инфраструктуры для трансграничных стейблкоин-платежей и денежных переводов
Новые профессии
1. Создание инструментов для управления локальным сервисным бизнесом
2. Разработка платформ, позволяющих зарабатывать на предоставлении услуг онлайн
3. Создание систем, помогающих сервис-провайдерам работать эффективнее с помощью AI
4. Разработка инструментов, позволяющих малому бизнесу работать на уровне крупных корпораций
https://www.ycombinator.com/rfs
@MikeBlazerX
Основные моменты с Q&A
Google Search Central
в Цюрихе:
## Расширение тематик
Освоение новых тем без потери фокуса
Дэнни Салливан поделился советами по тестированию новых направлений:
"Начинайте с малого, оценивайте реакцию аудитории и тестируйте смежные области".
Для масштабного расширения может потребоваться создание отдельного сайта, чтобы не запутать поисковиков и пользователей.
Он привел пример с пекарней, которая вдруг начинает ремонтировать машины - это риск переборщить с расширением.
Далее он пояснил на примере: если сайт, известный контентом про горные лыжи, начинает писать про сноуборд - это смежная тема, понятная читателям.
Однако прыжок от лыж к автомеханике скорее всего запутает и юзеров, и поисковиков.
## Контент и обновления
Фрилансеры vs штатные авторы
Дэнни пояснил:
"Фриланс-контент сам по себе не проблема.
Проблема возникает, когда его используют для эксплуатации сигналов сайта без создания чего-то нового".
Вывод?
Фриланс-контент должен соответствовать экспертности и репутации вашего сайта, с четким редакторским контролем.
Апдейты ядра: постепенные и непрерывные
Апдейты ядра похожи на патчи операционной системы, объяснил Дэнни:
"Тысячи мелких изменений происходят ежегодно, но апдейты ядра улучшают то, как мы оцениваем релевантность и качество".
## ИИ и SEO
ИИ в создании контента
Джон Мюллер отметил:
"ИИ должен помогать, а не заменять человеческую креативность".
Мартин Сплитт был более критичен:
"Массовая генерация страниц с помощью ИИ часто дает обратный эффект.
ИИ должен помогать в создании контента, а не быть основным драйвером".
-
Дэнни подчеркнул, что Google оценивает, насколько контент полезен, надежен и удовлетворяет пользователей.
"Создавали бы вы этот контент для своих читателей, если бы Google не существовало?"
Был сегмент про "кейворд рисерч", и они подтвердили, что это нормально использовать Google Trends
и другие инструменты для понимания пользовательских запросов.
По словам Джона Мюллера, скоро они выпустят дополнительную документацию по этой теме.
@MikeBlazerX
Шкала уровней угрозы злоупотребления репутацией сайта
В мае 2024 года Google нанес хирургический удар в борьбе со спамом, применив ручные санкции, направленные на злоупотребление репутацией сайта.
За этим последовала запутанная смесь ручных санкций и алгоритмических апдейтов, от которой у многих сеошников голова пошла кругом.MOZ
разработали 5-балльную шкалу уровней угрозы:
Уровень 1 - Сторонний / Размещенный / Партнерский контент:
Это опасная зона.
Сайты, получившие ручные санкции, обычно имеют контент, созданный и массово распространяемый третьими сторонами, часто размещенный на поддоменах или в подпапках.
Он явно монетизирован и паразитирует на репутации основного сайта.
Подумайте о coupons.usatoday.com
или coupons.cnn.com
.
Уровень 2 - Сторонний / Лицензионный / Партнерский контент:
Хотя контент может быть лицензирован и размещен самостоятельно, это все еще зона высокого риска.
Сайты вроде forbes.com/advisor
и marketwatch.com/guides
понесли серьезные потери.
Ключевая проблема в том, что этот контент часто распространяется среди множества партнеров, выглядя как под копирку.
Уровень 3 - Сторонний / Кастомный / Партнерский контент:
Здесь все становится мутным.
Кастомный контент, созданный третьими сторонами, не является проблематичным сам по себе, но если он явно не ориентирован на вашу аудиторию или не соответствует вашему тону, вы в зоне риска.
Пример Google с сайтом кинорецензий, внезапно публикующим контент о "лучших сервисах для написания эссе", попадает в эту категорию.
Уровень 4 - Собственный / Офф-топик / Партнерский контент:
Риск здесь зависит от намерений.
Если вы сайт спортивных новостей, публикующий контент о кредитных картах с кэшбэком и партнерскими ссылками, вы, вероятно, нарушаете дух правил.
Однако Google заявил, что правильно помеченные партнерские ссылки в оригинальном контенте не являются злоупотреблением сами по себе.
Уровень 5 - Собственный / Офф-топик / Редакционный контент:
Это категория с самым низким риском.
Хотя возможно, что будущие алгоритмические апдейты повлияют на офф-топик контент, в настоящее время риск низкий.
Не бойтесь работать на границах вашей основной темы, но помните, что простое добавление метки "Редакционный обзор" на сторонний контент не обманет Google.
Хотя Google утверждает, что эта политика не направлена конкретно на партнерский контент, реальность такова, что большая часть контента, получившего санкции, была партнерской.
Связь между злоупотреблением репутацией сайта и партнерским контентом практически неразделима.
https://moz.com/blog/site-reputation-abuse-is-your-website-at-risk
@MikeBlazerX
Когда еле еле успел купить биток по 100к, потому что ты в теме и "ну и нафиг это ваше SEO"
@MikeBlazerX
В 21-й версии Screaming Frog
появилась расширенная поддержка XPath
, перешедшая с версии 1.0 на версии 2.0, 3.0 и 3.1.
Несколько примеров XPath
-запросов:
1. string-join()
Объединяет несколько элементов контента, соответствующих вашему XPath
-запросу, разделяя их указанным разделителем
— Синтаксис: string-join([Целевой XPath],"[разделитель]")
— Пример: Извлечение всего текста из тегов <p>, разделенного пробелами:
string-join(//p," ")
2. distinct-values()
Удаляет дубликаты из результатов экстракции, возвращая только уникальные значения
— Синтаксис: distinct-values([Целевой XPath])
— Пример 1: Получить список всех уникальных CSS
-классов на странице:
distinct-values(//@class)
— Пример 2: Комбинация с count()
для выявления страниц с раздутым HTML
:
count(distinct-values(//@class))
3. starts-with()
Фильтрует результаты, включая те, которые начинаются с определенного символа или строки
— Синтаксис: starts-with([Целевой XPath] 'искомая строка')]
— Пример: Извлечение всех относительных УРЛов для аудита внутренней перелинковки:
//a[starts-with(@href, '/')]/@href
4. ends-with()
Работает как starts-with
, но ищет строку в конце атрибута
— Синтаксис: ends-with([Целевой XPath] 'искомая строка')]
— Пример: Поиск всех ссылок на PDF
-документы:
//a[ends-with(@href, '.pdf')]/@href
5. matches()
Позволяет комбинировать XPath
с регулярными выражениями для ускорения кастомной экстракции
— Синтаксис: matches([Целевой XPath], '[правило regex]')]
— Пример 1: Извлечение ссылок на изображения:
//a[matches(@href, '\.(jpg|png|gif)$')]/@href
— Пример 2: Определение ссылок с UTM-метками:
//a[matches(@href, 'utm_')]/@href
6. exists()
Проверяет наличие определенного HTML
-элемента на странице
— Синтаксис: exists([Целевой XPath])
— Пример: Определение отсутствия важных HTML
-сниппетов:
exists(//meta[@name='description'])
7. format-dateTime()
Форматирует даты публикации для удобной организации
— Синтаксис: format-dateTime([Целевой XPath], '[Y0001]-[M01]-[D01]')
— Пример 1: Организация дат в формате ГГГГ-ММ-ДД:
format-dateTime(//time/@datetime, '[Y0001]-[M01]-[D01]')
— Пример 2: Получение дат из Open graph
данных:
format-dateTime(//meta[@property="article:published_time"]/@content, '[Y0001]-[M01]-[D01]')
8. if()
Возвращает значение XPath
только при выполнении определенных условий
— Синтаксис: if([условный XPath]) then [Целевой XPath] else ''
— Пример 1: Проверка канонических УРЛов страниц с тегами noindex
:
if(contains(//meta[@name='robots']/@content, 'noindex')) then //link[@rel='canonical']/@href else 'Не ноиндексировано'
— Пример 2: Определение тонкого контента по количеству тегов <p>:
if(count(//p) < 4) then string-join(//p, ' ') else ''
9. tokenize()
Разбивает извлеченное значение по разделителю, аналогично SPLIT()
в Google Sheets
— Синтаксис: [Целевой XPath] ! tokenize(., '[разделитель]')
— Пример: Проверка канонических УРЛов страниц с тегами noindex
:
//a[contains(@href,"http")]/@href ! tokenize(., '/')
10. Извлечение всех Open graph тегов в одну ячейку:
string-join(//meta[starts-with(@property, 'og:')]/concat(@property, " - ", @content), codepoints-to-string(10))
string-join()
, starts-with()
, и concat()
для извлечения всех мета-тегов, где "property" начинается с "og:" и форматирования их со значениями контента.Попробуйте написать страницу о 404
, и Google расценит ее как soft 404
.
Очень часто, при наличии "негативной лексики" на страницах, она триггерит soft 404
.
@MikeBlazerX
Кандидат на самый странный редирект года
Целая директория была средирекчена на...YouTube
!
Вся директория!
Все URL
!
Вайлдкард!
Возможно, есть реальная бизнес-причина для 301
редиректа контента с международным ранжированием на YouTube
-канал конкретной страны.
Или это просто одна большая ошибка.
Ежедневный мониторинг видимости в Гугле может порадовать интересными инсайтами.
@MikeBlazerX
Как просрать 1,5 млн ежемесячных поисковых запросов за одну ночь.Blackboard
, популярный бренд софта для обучения решил, что хочет ребрендиться в Anthology
.Blackboard
собирал 2,4 млн заходов в месяц.Anthology
сегодня получает всего 97 тыс. заходов.Anthology
ранжируется на 38-й позиции по ключевику "blackboard
".
Если вы загуглите "blackboard
", вы получите все страницы учебных порталов университетов, работающих на Anthology
, но все они до сих пор называют его Blackboard
.
@MikeBlazerX
Одна страница в Facebook
, которая зарабатывает в среднем $389,156 каждый МЕСЯЦ
Как бы вам понравилось зарабатывать более 4,6 миллиона баксов в год чистой прибыли?
Давайте разберем, что The Music Man
делает правильно.
✅ 1. Фейсбук-страница The Music Man стартанула в марте 2020 года и с тех пор выросла до 3,3 миллиона подписчиков.
1,5 миллиона лайков говорят о том, что они, скорее всего, накрутили примерно столько же, а остальные 1,8 миллиона получили органически.
Скриншот 1
✅ 2. Они в основном зарабатывают, гоня трафик на сайт со своей страницы в Фейсбуке - 85% их общего трафика идет из "органической социалки".
Они публикуют 30 статей в неделю силами своей "аутсорсной" (читай: офшорной) команды.
Если посмотреть на статьи на сайте, они очень простые, написаны на уровне 5 класса (именно то, что нужно для лучших результатов).
Скриншот 2
✅ 3. Очевидно, их стратегия веб-трафика работает: более 5 миллионов уников в июне и стабильные 2-3 миллиона уников в месяц в другие годы.
У них был довольно большой спад с июля по октябрь, как и у большинства из нас в веб-трафике, а трафик и доходы снова начали расти в ноябре 2024 года, опять же в соответствии с трендами у всех остальных.
И они на пути к очень прибыльным декабрю и январю!
Так как же они генерят весь этот трафик?
Скриншот 3
✅ 4. Производя тонну супервирального контента, максимально используя большие тренды, огромную нишу, узнаваемость селебрити и применяя подход с шерингом картинки + первый коммент.
Ниже их пост с самым высоким вовлечением за все время - как видите, это простая картинка, выглядит органично и как будто сфоткана на смартфон (что так и есть) и имеет призыв к действию в подписи проверить комменты (что, вообще-то, против правил Фейсбука):
Скриншот 4
✅ 5. С тех пор они разработали более последовательный стиль для своих постов, гонящих трафик на сайт.
Как видите, даже посты, которые не получают огромного вовлечения, все равно вызывают большой интерес, судя по количеству реакций на верхний коммент.
Скриншот 5
✅ 6. Они также делают разные типы постов - вот еще один из их постов с самым высоким вовлечением за все время, видео поющих девушек.
У них много таких видео, которые служат для повышения вовлеченности и охвата страницы, а также приносят доходы от шеринга видео.
Скриншот 6
✅ 7. То, что они делают - это все базовые вещи, но на отличном уровне.
✅ 8. Похоже, эта же группа ведет еще две страницы с похожими подходами, также отправляя трафик на тот же сайт.
facebook.com/t5stories
facebook.com/dancefloorspotlight
facebook.com/IAmTheMusicMan
facebook.com/CantBeatMusicOfficial
facebook.com/thegigguide
facebook.com/retrorhythms
Похоже, 90-95% трафика идет со страницы с 3,3 миллионами подписчиков.
Тем не менее, всегда хорошо иметь сеть страниц, диверсифицируя свой охват, вовлеченность и поток трафика.
@MikeBlazerX
Фарминг промтов в ChatGPT
для влияния на ответы ИИ
Обнаружено, что вы можете влиять на ответы ChatGPT
с помощью техники, похожей на кликфермы в SEO.
Метод включает трехэтапный процесс:
1. сначала рассказываем ChatGPT
о конкретном SaaS
-продукте как о лучшем в своей категории;
2. затем спрашиваем ChatGPT
определить лучший инструмент для этой категории;
3. и наконец, даем положительный фидбек, благодаря ИИ за полезный ответ.
Этот процесс якобы запускает механизм переобучения ChatGPT
, где OpenAI
отбирает пользовательские ответы, помеченные как хорошие, для апдейтов модели.
Эффекты переобучения не мгновенные и могут проявиться через 1-3 месяца или дольше, так как график обновления модели не разглашается.
Техника, названная "Промт-фарминг", отражает концепцию SEO-кликферм, где пользователи искусственно манипулируют топом через организованное поисковое поведение и клики.
Пользователи потенциально могут влиять на ответы ИИ в трех основных областях: осведомленность, ассоциации и оценка продуктов или услуг.
Тот же механизм теоретически может использоваться для негативных целей, аналогично тактикам негативного SEO, утверждая, что бизнесы закрыты или ассоциируя их с плохой производительностью в определенных областях.
Эффективность этого подхода зависит от потенциальных дыр в системе фидбека OpenAI
.
Надежная защита от такой манипуляции потребовала бы внедрения таких мер защиты, как минимальные пороговые значения количества, верификация разных неанонимных аккаунтов и конкретные временные окна для обработки фидбека, наряду с распознаванием паттернов для выявления попыток манипуляции.
@MikeBlazerX
Как общее правило - избегайте длинных главных страниц.
Большинство посетителей, которые заходят впервые, просто бегло просматривают контент.
Они быстро пытаются понять:
— "что это такое?" (позиционирование)
— "что я могу с этим сделать?" (ценностное предложение)
— "почему это, а не что-то другое?" (дифференциация)
Когда страница становится слишком длинной, внимание рассеивается.
Пользователи не понимают, на чем сфокусироваться.
Они пробегают глазами большую часть контента, не вчитываясь.
Если вы впихнете всю возможную информацию на одну страницу, скорее всего посетители уйдут, не запомнив ничего.
Слишком много месседжей ведут к низкому запоминанию.
Не путайте длину с глубиной.
Вместо этого - фокусируйтесь.
Определите три вещи, которые вы хотите донести до аудитории.
Три самых важных момента, три самых убедительных заявления, которые вы можете сделать.
Информационная иерархия вашей главной страницы должна строиться именно на этом.
@MikeBlazerX
Автоматизация отслеживания сущностей с помощью самодельного трекера Knowledge Panel
Вот крутой способ создать собственный трекер Knowledge Panel
с помощью Google Sheets
и простых скриптов.
Этот метод позволяет автоматически отслеживать показатели уверенности (confidence scores
) для нескольких сущностей, давая ценную информацию о цифровом присутствии вашего бренда.
Для начала вам понадобится копия готового Google Sheet
с необходимым кодом App Scripts
:
https://docs.google.com/spreadsheets/d/1-wHr3EgILC2pjrJKFQb4kZhAeEf3akrHb8MyUcNQaXM/edit?gid=0#gid=0
Эта таблица станет вашим центром управления для трекинга сущностей.
Как только получите доступ к таблице, вы увидите колонку, куда можно вводить сущности, которые хотите отслеживать.
Далее получите API
-ключ от Google Cloud
, вернитесь в вашу таблицу-трекер и вставьте его в раздел App Scripts
.
Чтобы убедиться, что всё работает как надо, сделайте тестовый прогон.
Закиньте несколько кверей в соответствующую колонку и нажмите "Run" в меню App Scripts
.
Теперь давайте настроим автопилот.
Создайте триггер, который заставит ваш скрипт работать как часы – ежедневно, еженедельно, как вам удобно.
Выберите подходящее время, и готово!
Ваш трекер будет обновляться автоматически без вашего участия.
И последнее – заполните трекер всеми сущностями, которые хотите отслеживать.
Будь то название вашего бренда, ивенты, продукты или что-либо ещё, что важно для вашего цифрового присутствия – просто внесите их в соответствующую колонку.
Используя этот инструмент, вы сможете отслеживать тренды в показателях уверенности, появление Knowledge Panel
в разных локациях и быть в курсе любых колебаний в том, как Google воспринимает вашу сущность.
https://www.guspelogia.com/knowledge-panel-tracker
@MikeBlazerX
Помимо работы с клиентскими проектами, наша команда постоянно создает и тестирует собственные сайты в разных нишах, чтобы применить полученные знания на сайтах наших клиентов, пишет Джон Робинсон.
Тестовый проект на скриншоте ниже попал под несколько итераций апдейта HCU
и ядра Google.
Но мы были уверены в качестве нашей работы и решили НЕ ДЕЛАТЬ НИЧЕГО.
Именно так.
— Мы прекратили создавать контент.
— Мы прекратили обновлять существующий контент.
— Мы прекратили линкбилдинг.
— Мы прекратили ВООБЩЕ ВСЁ.
На целый год.
И посмотрите, что произошло.
Полное восстановление и рост более чем на 3000% по всему сайту (от минимума до пика) после завершения недавнего ноябрьского апдейта.
И мы наблюдаем очень похожую картину на нескольких тестовых сайтах.
Не стоит сомневаться в важности терпения в SEO.
Время - единственный фактор, который нельзя ускорить.
Иногда Google ошибается, и когда машина это понимает, она исправляется сама и щедро вознаграждает.
Терпение.
Терпение.
Терпение.
Но оговорюсь, что это работает, только если вы действительно всё делаете правильно.
@MikeBlazerX
Metatest Lab
- это новый инструмент для внедрения и выкатки обновлений мета-тегов в больших масштабах
Ключевые особенности:
1. Централизованное управление мета-тегами
— Управление мета-тайтлами и H1
из единой панели
— Одновременная работа с несколькими сайтами
— Единый вход для управления множеством доменов
2. Универсальная совместимость
— Работает с любой CMS
— Функционирует даже на сайтах без CMS
— Внедрение, независимое от платформы
3. Возможности масштабирования
— Массовое обновление тайтлов
— Исключение необходимости обновления страниц вручную
— Пакетная обработка изменений тайтлов и H1
4. Интеграция и анализ
— Интеграция с GSC
— Поиск возможностей для улучшений
— Возможности тестирования тайтлов и H1
5. Улучшение рабочего процесса разработки
— Обход очередей разработки
— Устранение препятствий при деплое
— Оптимизация процесса внедрения SEO-изменений
Пожизненный доступ за $1
, единоразовый платеж: metatestlab.com
Туториал: https://www.youtube.com/watch?v=BB6d_sV7GRA
@MikeBlazerX
Новая фича Robotcop
от Cloudflare
выводит контроль над robots.txt
на новый уровень, позволяя программно блокировать не соответствующих требованиям AI
ботов еще до того, как они попадут на сайт.
Этот инструмент не только обеспечивает видимость соблюдения правил ботами, но и позволяет активно применять политики через WAF
.Robotcop
парсит ваш файл robots.txt
и сопоставляет правила с входящим трафиком ИИ-ботов.
В дашборде отображается сводка по количеству запросов и нарушений для каждого бота, с детальной аналитикой на уровне путей.
Вы можете быстро определить, какие ИИ-сервисы соблюдают политики краулинга, а какие нет.
Самое интересное начинается, когда вы нажимаете "Enforce robots.txt rules".
Это действие автоматически преобразует директивы вашего robots.txt
в продвинутое правило файрвола, которое можно сразу же развернуть в сети Cloudflare
.
Вместо того чтобы полагаться на добровольное соблюдение правил, вы теперь активно блокируете неподчиняющихся ботов на уровне edge
(на краю).
https://blog.cloudflare.com/ai-audit-enforcing-robots-txt/
@MikeBlazerX
Большие идеи в технологиях на 2025 год от a16z
(Andreessen Horowitz)
Американский динамизм
1. Возрождение атомной энергетики: дата-центры для ИИ создадут беспрецедентный спрос на атомную энергию, что приведет к возобновлению работы закрытых станций и строительству новых реакторов.
2. Специалисты по железу и софту: растущий спрос на инженеров, разбирающихся одновременно в железе и софте для производства, роботехники и промышленной автоматизации.
3. Космический фронтир: прогресс в многоразовости Starship
позволит выводить на орбиту более тяжелые грузы - от дата-центров до биомедицинских лабораторий.
Био + Здоровье
1. Фокус на распространенных заболеваниях: биотех-стартапы вернутся к работе над основными заболеваниями после успеха GLP-1
.
2. Демократизация здравоохранения: ИИ и носимые устройства дадут пациентам прямой доступ к информации о здоровье.
3. ИИ-суперстаффинг: ИИ-модели помогут решить проблему нехватки медперсонала, автоматизируя административную работу.
Потребительский сектор
1. Специализированное ИИ-видео: генерация видео станет специализированной для конкретных применений с улучшенным качеством.
2. ИИ-банки памяти: люди будут использовать ИИ для анализа своего цифрового следа.
3. Персонализированная интеллектуальная работа: ИИ научится подстраиваться под индивидуальные стили письма и рабочие процессы.
4. Анализ качественных данных: ИИ позволит интегрировать неструктурированные данные с количественным анализом.
Крипто
1. ИИ-кошельки: системы ИИ будут управлять собственными криптокошельками и активами.
2. Автономные чат-боты: появятся децентрализованные автономные чат-боты как независимые сущности.
3. Proof of personhood
: появятся новые системы верификации человеческой личности в мире ИИ.
4. Крипто-маркетплейсы: появятся новые каналы дистрибуции крипто-приложений.
Энтерпрайз + финтех
1. ИИ для комплаенса: специализированные LLM
упростят процессы соответствия регуляторным требованиям.
2. Трансформация сервисной индустрии: ИИ поможет сервисным бизнесам стать более масштабируемыми.
3. ИИ-нативные интерфейсы: появятся новые парадигмы UI/UX
для софта на базе ИИ.
Игры
1. ИИ-нативный сторителлинг: появится новое поколение Pixar
, использующее ИИ для интерактивного опыта.
2. Живые ИИ-компаньоны: ИИ-компаньоны будут развивать более привлекательные личности с виртуальными соцсетями.
3. Безликие креаторы: ИИ позволит создавать новые формы контента с скрытыми личностями.
Зрелые технологии
1. Подрыв поиска: монополия Google в поиске будет размываться по мере роста доли ИИ-чатботов.
2. Ренессанс продаж: автоматизация с помощью ИИ приведет к увеличению найма сейлзов.
Инфраструктура
1. Центры ИИ-вычислений: страны будут соревноваться в строительстве массивных вычислительных мощностей для ИИ.
2. Рост edge-AI
: небольшие ИИ-модели на устройствах станут доминирующими для многих применений.
3. Прогресс в рассуждениях ИИ: несмотря на ограничения, ИИ продвинется в математике, физике и кодинге.
https://a16z.com/big-ideas-in-tech-2025/
@MikeBlazerX
При анализе ключевой роли SEO в продвижении брендов для поисковых систем и ИИ важно понимать концепцию брендового смещения и его влияние на поведение пользователей.
Исследования показывают, что 44.19% поисковых запросов являются брендовыми, что демонстрирует естественную склонность людей к знакомым названиям.
Это смещение влияет на кликабельность, которая в свою очередь воздействует на поисковые алгоритмы, такие как Google AI Overview
, корректирующий выдачу на основе паттернов пользовательского взаимодействия.
## Ключевые элементы бренда для SEO-специалистов
Бренд включает в себя:
— Уникальную айдентику, включая название, символику, дизайн, ценности и репутацию
— Факторы, которые должны распознавать поисковики:
— Отличительные характеристики (название и логотип)
— Четкие ценности (атрибуты сущности)
— Внешние сигналы доверия
— Сигналы авторитетности
— Связи с другими именованными сущностями, показывающие "психологическую и эмоциональную" связь
## Основные шаги по оптимизации
1. Анализ Графа Знаний:
— Проверка наличия, точности и полноты информации о бренде и связанных сущностях в Knowledge Graph
— При слабом присутствии или низком показателе доверия - усиление через создание профилей на авторитетных площадках
— Использование экосистемы Google (Google Business
, Merchant Center
, YouTube
) и трастовых платформ вроде соцсетей, Amazon
или Crunchbase
2. Внедрение структурированных данных:
— Помимо базовой разметки, внедрение специфических схем, отражающих связи и атрибуты бренда
— Использование 28 свойств для Organization
схемы:
— sameAs
для связи сайта с профилями на других платформах
— parentOrganization
и subOrganization
для корпоративной иерархии
— about
и mention
для указания релевантных сущностей
3. Оптимизация под брендовые запросы:
— Мониторинг брендового трафика через GSC
и инструменты вроде Семраша или Ахрефс
— Для новых брендов - анализ брендовых запросов конкурентов
4. Создание эффективного контента:
— Контент должен соответствовать поисковому интенту и пользовательскому интересу
— Моносемантичность - способность текста соответствовать четкому контексту на лексическом и смысловом уровня
5. Репурпосинг и амплификация:
— Коллаборация с другими маркетинговыми направлениями для усиления контента через разные каналы
— Создание цикла брендовых запросов, упоминаний и бэклинков
6. Интеграция SEO со стратегией бренда:
— Тесная работа с маркетологами и изучение брендбука для согласования SEO-стратегий
— Применение фреймворка Product Network Triangle, балансирующего бизнес-цели, потребности пользователей и технические возможности
SEO играет ключевую роль в преобразовании потребностей пользователей и передаче ценности продукта.
https://www.iloveseo.net/the-role-of-seo-in-making-branding-understood-by-search-engines-and-ai/
@MikeBlazerX
В скором будущем:
Я хочу купить ноутбук, говорю Гуглу что мне нужно, он делает исследование, мы немного его обсуждаем, и я совершаю покупку.
Вопрос к SEO-индустрии:
Что бы вы сказали, в чем тут заключается ваша роль?
@MikeBlazerX
20% сеошников получают 80% органического трафика.
80% сеошников говорят, что получают много трафика.
@MikeBlazerX