Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Многие бренды, с которыми я общаюсь, говорят, что пробовали диджитал PR
, но полученные ссылки не оказали измеримого влияния на SEO, рассказывает Джеймс Брокбэнк
Вот почему некоторые из этих "провальных" диджитал PR
кампаний не дали результата:
↳ Нерелевантные или слабо релевантные кампании, приносящие нерелевантные бэклинки
— Нужно получать ссылки из контента, который напрямую связан с вашим бизнесом и сайтом.
↳ Заработанные ссылки на ассеты без внутренней перелинковки на ключевые страницы
— Ссылки на материалы кампании - это хорошо, но они бесполезны, если не связаны внутренними ссылками с приоритетными страницами и не помогают им ранжироваться выше.
↳ Авторитетные и релевантные ссылки, но техническое SEO тормозит сайт
— Никакие бэклинки не компенсируют серьезные технические проблемы.
Технические проблемы SEO должны быть решены, чтобы капитализировать любые усилия по линкбилдингу.
↳ Отличные ссылки получены, но всё ещё большой разрыв в ссылочной массе с конкурентами
— Бэклинки могут сокращать ссылочный разрыв, но это не всегда будет восприниматься как "влияние", если конкуренты всё ещё далеко впереди.
Доверьтесь процессу и продолжайте сокращать разрыв.
↳ Ссылки ОКАЗЫВАЛИ влияние, но не было правильной системы измерения
— Слишком часто влияние анализируется на уровне всего сайта.
Вместо этого, смотрите детально на страницы, для которых вы получили ссылки (или сделали внутреннюю перелинковку), чтобы увидеть лучший индикатор прогресса и влияния.
↳ Они сдались слишком рано
— Диджитал PR
требует времени, чтобы показать результаты.
Ожидать мгновенного эффекта нереалистично, особенно когда существует разрыв в ссылочной массе с конкурентами.
Диджитал PR
должен выполняться так, чтобы обеспечивать успех в SEO.
Нельзя просто пойти и получить ссылки без стратегического фокуса и ожидать, что они положительно повлияют на рост.
Стратегия (или её отсутствие) определяет успех.
Выстраивайте свои кампании так, чтобы влиять на SEO-успех с самого начала, и результат будет гораздо заметнее.
@MikeBlazerX
После последнего обновления Google многие сайты сталкиваются с замедленной индексацией или полным выпадением страниц из индекса.
Три вещи, которые стоит проверить в первую очередь:
1. Действительно ли страница прокраулена? (Проверьте отчет по охвату индексирования в GSC
)
2. Легко ли краулить ваш сайт? (внутренняя перелинковка, отсутствие дублей)
3. Является ли ваш контент уникальным и содержательным? (без тонкого партнерского контента или похожих вариативных страниц)
Помните: Google больше не индексирует КАЖДУЮ страницу - только те, которые имеют явную ценность.
-
2017?
Именно тогда Google начал активно вносить изменения в краулинг/индексацию.
И примерно каждый год с тех пор мы наблюдаем более выраженное сокращение охвата краулинга от Google.
1) Скорость: медленнее = меньше прокрауленных страниц
2) Размер: больше ?= медленнее (см. выше)
3) Схожесть: мало оригинальности = меньше краулинга/индексации
4a) Популярность: слабые бэклинки = меньше краулинга/индексации и меньше ранжирования по запросам
4b) Распределение: входящие ссылки по разделам = приоритет краулинга/индексации разделов
5) Свежесть: старше/стабильнее = меньше необходимости в краулинге
6) Структура: слабая внутренняя перелинковка = меньше краулинга/сложнее индексировать
7) Ресурсоемкость: зависимость от JavaScript
?= медленнее краулинг/индексация
8) Интерес: меньше поисковых запросов = медленнее краулинг
9) Удовлетворенность: худшая производительность = меньше краулинга
и т.д.
@MikeBlazerX
Советы по SEO:
⚠️ 1. НЕ полагайтесь на канонические теги, они НЕ являются произвольными, Google не обязан их соблюдать
⚠️ 2. Сделайте так, чтобы канонические теги использовались как можно меньше.
Этого можно добиться, ограничив сценарии, где они необходимы.
Вот что можно сделать:
➤ Избегайте внутренних ссылок на URL
с параметрами (где это возможно)
➤ Избегайте внутренних ссылок на параметры отслеживания, например UTM
-метки
➤ Избегайте непоследовательных внутренних ссылок, например, с косой чертой на конце и без нее
➤ Убедитесь, что политики обработки URL
работают корректно, например:
Одиночные 301-редиректы для нестандартных протоколов, т.е. с WWW
на без WWW
и наоборот
Обработка слешей в конце URL
➤ Блокируйте неважные группы параметров через robots.txt
, т.е. если определенные группы параметров не приносят трафика и не имеют внешних ссылок
➤ Управляйте своим техническим стеком, обеспечивая невозможность циклических или повторяющихся путей URL
(в случаях, где каноникл мог бы их обработать)
➤ Уберите внутренние ссылки на дочерние страницы с каноникалми
➤ Устраните дочерние страницы с каноникалми, где это возможно
⚠️ 3. Избегайте плохих конфигураций канониклов
➤ НЕ канонизируйте серии пагинации на корневую страницу
➤ Не позволяйте динамическим фильтрам страниц генерировать множество вариантов URL
с единой точкой отсчета для каноникла
➤ Не канонизируйте на заблокированные страницы (через robots
или meta robots
)
➤ Убедитесь, что самореферентные канониклы обрабатывают добавленные параметры с самореференцией и не следуют динамически за URL
➤ Убедитесь, что целевые страницы канониклов имеют код HTTP 200
и не являются частью редиректов или цепочек редиректов
➤ Обеспечьте соответствие каноникла протоколу или поддомену
➤ Избегайте дублирования канонических тегов или канониклов, которые выводятся в DOM
через iframe
➤ Избегайте размещения канониклов вне <HEAD>
➤ Убедитесь, что CANONICAL
выводится как часть исходного DOM
-запроса и не изменяется динамически после начального запроса DOM
➤ При использовании HREFLANG
канониклы должны быть самореферентными
Сайтам НЕ ДОЛЖНЫ БЫТЬ НУЖНЫ канонические теги в БОЛЬШИНСТВЕ СЛУЧАЕВ - на них не стоит полагаться.
Конечно, их наличие - это лучшая практика, если они реализованы правильно.
Вот что я стараюсь делать, пишет Даниэл Фоли Картер:
1. Устранить причины, позволяющие существовать ДОЧЕРНИМ URL
с канониклами
2. Я управляю параметрами максимально эффективно, чтобы они были четко определены как неиндексируемые или, если индексируемые, я рассматриваю отношения между страницей и измененной страницей с выводом каноникла, например, фильтрация в категориях eCommerce
3. Я убираю/устраняю внутренние ссылки на ДОЧЕРНИЕ URL
с канониклами насколько это возможно - я оцениваю, можно ли полностью устранить ДОЧЕРНИЕ URL
с канониклами
4. Я исправляю непоследовательные внутренние ссылки, чтобы избежать зависимости от канониклов и редиректов
5. Я устраняю/объединяю очень похожие страницы вместо их канонизации
6. Я обеспечиваю правильное поведение канониклов, например, когда URL
непоследовательны или когда добавляются случайные строки запросов
7. Я удаляю канониклы в сериях пагинации
@MikeBlazerX
Googlebot
будет краулить и индексировать ссылки, найденные в Schema
!
Я узнал это на одном ecom
-сайте, где URL
вариантов товаров попадали в индекс, пишет Зак.
На странице не было видимых ссылок и записей в сайтмапе, но страницы массово индексировались (несмотря на каноникал тег).
Мы поняли, что причиной, скорее всего, был раздел "offer
" в Schema
-разметке PDP
, где в поле url
находились ссылки на варианты товаров.
@MikeBlazerX
Патенты Google по распознаванию сущностей предлагают удивительное понимание того, как поисковый гигант обрабатывает контент.
В частности, они используют капитализацию в качестве ключевого показателя для идентификации сущностей.
Почти смешно - один из их патентов по сути вращается вокруг концепции, что имена собственные пишутся с заглавной буквы, то, что большинство из нас выучили еще в начальной школе.
Но этот элементарный подход имеет значительные последствия для SEO - места, люди и бренды с заглавными буквами лучше распознаются алгоритмом Google, чем другие элементы контента.
Вот где становится действительно интересно насчет NLP API
от Google:
когда вы прогоняете контент через их бесплатный сервис, он выдает гораздо меньше реальных сущностей, чем предполагает большинство сеошников.
Результат включает в себя сетку якобы идентифицированных сущностей, но многие из них вовсе не сущности.
Такие термины, как "best sneaker
" или "best black blue sneaker
" отмечаются, но они явно не сущности - вы не можете визуализировать их как отдельные объекты.
Единственные настоящие сущности, которые распознает API Google
, - это те, у которых есть ссылки на статьи в Википедии.
Всё остальное просто показывает релевантность ключевых слов.
Мы все смотрели на эти маленькие боксы, выдаваемые NLP API
от Google, и ошибочно предполагали, что это все сущности.
В реальности, он выполняет обработку естественного языка, а не комплексное извлечение сущностей.
Единственные элементы, которые однозначно классифицируются как сущности - это те, которые связаны с Википедией.InLinks
разработали другой алгоритм - тот, который специально сфокусирован на извлечении сущностей.
Он работает гораздо агрессивнее, чем NLP API
от Google.
Эта разница позволила им создать то, что они называют метрикой SEU
(Search Engine Understanding).
Эта метрика измеряет количество реальных сущностей (тех, которые связаны со страницами Википедии в NLP
от Google) по сравнению со всеми сущностями, которые мы можем идентифицировать.
Эта метрика показывает, сколько сущностей внутри контента вашей страницы действительно понимается и учитывается системами Google.
@MikeBlazerX
Если Google не сканировал URL
в течение последних 130 дней, УРЛ переходит в статус "Проиндексировано - Не отображается"
Алгоритм ранжирования Google основан на фиксированных параметрах, вручную определенных его инженерами — внутренних значениях, которые функционируют как абсолютные правила, а не динамические переменные.
Один из таких критических параметров определяет, как Google управляет своим индексом.
Для любого сайта быть в индексе — и оставаться в индексе — это фундаментально.
Без индексации все усилия по SEO становятся бесполезными.
Как выяснилось во время перекрестного допроса Панду Наяка в антимонопольном деле США, индекс Google содержал приблизительно 400 миллиардов документов в 2020 году.
С точки зрения бизнеса Google, больше проиндексированных страниц означает увеличение требований к хранилищу, вычислительной мощности и операционных расходов.
Для контроля роста индекса Google использует каноникализацию, предиктивный краулинг и санкции.
Исследование с использованием Screaming Frog SEO Spider
с интеграцией GSC API
выявило постоянную закономерность на пяти разных сайтах:
Страницы, не сканируемые Google в течение 130 дней, автоматически удалялись из индекса.
Это Правило 130 дней последовательно применялось на:
— Сайте португальского производителя шин
— Французском спортивном новостном сайте
— Итальянском журнале о моде
— Международном корпоративном сайте с форумом
— Французском правительственном сайте
Анализ включал только технически корректные страницы — без тегов noindex
, без каноникалов, указывающих на другие страницы, и без страниц, заблокированных robots.txt
.
Последовательные выводы устанавливают:
— Статус индексации каждой страницы зависит от частоты краулинга Google
— Google применяет статический порог в 130 дней
— Страницы, не сканируемые в течение 130 дней, удаляются из индекса
— У каждой страницы своя частота краулинга, которая меняется со временем
Частота краулинга определяется в первую очередь:
1. Качеством контента страницы
2. PageRank страницы
Анализ деиндексированных страниц выявил общие шаблоны:
— Страницы категорий без уникального контента
— Теговые страницы с минимальной дифференциацией
— Очень короткий контент, изначально разработанный для социальных сетей
Гари Иллиес, аналитик Google, подтверждает:
Если вы хотите увеличить количество наших краулов, то вам каким-то образом нужно убедить поиск, что ваш контент стоит запрашивать.
Как только мы получаем сигналы от поисковой индексации, что качество контента увеличилось на таком количестве URL, мы просто начинаем увеличивать спрос.
Обновленные рекомендации Google для оценщиков качества поиска вышли 23 января 2025 года, и в нем есть малозаметный, но важный раздел, который многие упускают:
2.5.2 – Кто отвечает за веб-сайт и его контент.
Вот почему это важно👇
1. Раздел 2.5.2 просит оценщиков определить, кто владеет и управляет сайтом, и кто несет ответственность за контент.
Если эту информацию сложно найти, это потенциальный красный флаг для оценщиков качества Google и ПОЛЬЗОВАТЕЛЕЙ.
Этот раздел — ключевой элемент прозрачности идентификации.
2. Недостаточно просто добавить страницу "О нас".
Чтобы соответствовать разделу 2.5.2 в рекомендациях для оценщиков качества, вам необходимо:
✔️ Опубликовать полное название компании
✔️ Показать информацию о юридической регистрации
✔️ Указать, кто отвечает за контент
✔️ Предоставить контактные данные и многое другое
Если эта информация отсутствует, ожидайте низких оценок (если вас оценивают) и меньше трафика из Google.
3. Отсутствие раздела "кто стоит за сайтом" подвергает ваш сайт риску получить низкую или самую низкую оценку качества, независимо от самого контента.
Никто не хочет выглядеть ненадежным в глазах Google.
Это серьезно!
Настолько серьезно, что нужно подойти к этому основательно.
4. Помимо оценки Google, соответствие разделу 2.5.2 также может означать, что вы соблюдаете местные законы.
Таким образом, исправление этого — не только вопрос Google, но и юридического соответствия — с фокусом на ПОЛЬЗОВАТЕЛЕЙ, как и у Google.
Вы заметите, что сайты с такими элементами EEAT
работают в Google иначе.
5. Внедрение раздела 2.5.2 не только улучшает прозрачность.
Оно также готовит вас к соответствию более чем 13 другим критически важным частям рекомендаций.
Речь идет о E-E-A-T
, репутации, контактной информации и даже избегании обманных практик на сайте.
6. Чтобы соответствовать разделу 2.5.2, ваш сайт должен включать:
✔️ Страницу "О нас" с информацией о владельце и редакционной политике
✔️ Страницу контактов с реальной контактной информацией
✔️ Указанного редактора сайта или представителя компании
✔️ Структурированные данные для связывания всего воедино.
И не только!
Например, вам нужны политики, соответствующие вашему региону и виду деятельности.
7. Интересный факт: соблюдая эти требования, вы, вероятно, уже соответствуете местным законам.
Не соответствуете?
Возможно, ваш сайт работал нелегально раньше.
Интересно, что думает Google о таком сайте, когда обнаруживает это?
8. Короче говоря, раздел 2.5.2 — это не просто пункт для галочки.
Это фундамент для доверия к вашему сайту.
Исправьте его должным образом, и эффект домино из сигналов доверия встанет на свои места, улучшив ваше ранжирование и соответствие требованиям.
https://www.hobo-web.co.uk/section-2-5-2-of-the-google-quality-rater-guidelines/
@MikeBlazerX
Хороший пример того, как последний Core
апдейт повлиял на форумные сайты и разделы сайтов
Это раздел форума "What to Expect
", который получил огромный буст, когда Google начал продвигать форумы.
А потом, бац, резко упал в с мартовским апдейтом ядра.
Миссия выполнена?
@MikeBlazerX
Больше доказательств того, что Google AI Overviews
, похоже, игнорируют hreflang
.
Эта компания - Twinkl
- цитируется 4 раза в AIO
цитатах здесь (поиск в США).
Дважды для американского сайта, один раз для нигерийского сайта и один раз для нидерландского сайта.
Все страницы на английском языке и имеют hreflang
-варианты, указанные для США.
@MikeBlazerX
geeksforgeeks.org
разбанили.
Это было быстро.
Как думаете, почему?
@MikeBlazerX
Хорошо перформящий сайт + $500/мес SEO-стратегия
@MikeBlazerX
Я окончательно убедился, говорит Эрвин Хофман: рендеринг на стороне клиента ВСЕГДА БЫСТРЕЕ! 🚀
Я скоро перейду на него и изложил все свои рассуждения (с удивительными данными о производительности) в новом блог посте:
https://www.erwinhofman.com/blog/why-csr-is-always-faster/
@MikeBlazerX
В прошлом месяце AI
-краулеры сгенерировали 90% трафика моего сайта, заставив меня заплатить $90 штрафа за превышение лимита данных, пишет Гергей Орос.
Именно тогда я достиг точки кипения:
Для контекста: это произошло с моим сайд-проектом TechPays
, который посещает около 1000 пользователей в день (имеются в виду живые люди!), с ежемесячным исходящим трафиком около 30-40 ГБ.
Эти показатели оставались неизменными на протяжении нескольких лет.
Пока несколько месяцев назад не появились AI
-краулеры!
Они начали генерировать всё больше и больше данных, осуществляя бессмысленный краулинг (повторный краулинг одних и тех же страниц ежедневно или даже ежечасно, краулинг пустых страниц и т.д.).
В прошлом месяце сайт впервые превысил лимит исходящего трафика в 500 ГБ — это был максимум, включенный в мой текущий тариф у хостинг-провайдера Render
.
И этот тариф более чем разумен для данного проекта.
С этого момента мне пришлось платить по $30 за каждые дополнительные 100 ГБ данных: только за прошлый месяц это обошлось мне в $90.
И не было никаких признаков замедления роста трафика из-за этих краулеров (среди главных нарушителей были боты, идентифицирующие себя как Meta AI
, ImagesiftBot
, DotBot
)
Я не хотел продолжать платить за обучение AI
-краулеров — особенно учитывая, что объем данных продолжал расти, а все больше AI-краулеров открыто игнорировали robots.txt
.
Сначала я пытался решить проблему, блокируя IP
-адреса самых злостных ботов — а затем решил попробовать перенести мои нейм-серверы в Cloudflare
, настроив прокси DNS
-записей через их сервис (это означает, что домен резолвится на IP Cloudflare
, Cloudflare
проверяет запрос и решает, пересылать ли его на мои настоящие серверы), и включил блокировку AI
-краулеров (вот эту)
Похоже, это сработало: ежемесячный исходящий трафик моего сайта вернулся к ~40 ГБ в месяц, снизившись с 800 ГБ!
На обычных посетителей это не должно повлиять — за исключением того, что Cloudflare
иногда может проводить проверку на бота.
Это решение бесплатное и не создает привязки: я всегда могу сменить нейм-серверы, например, на серверы моего регистратора доменов или любые другие (я не хостю свои домены на Cloudflare
, а просто использую их нейм-серверы)Cloudflare
явно субсидирует расходы на пропускную способность и функциональность блокировки ботов — и создает хорошее отношение к себе со стороны разработчиков, таких как я.
Я просто хочу, чтобы этот небольшой сайд-проект работал нормально и не подвергался все более агрессивным "атакам" AI
-краулеров, за которые мне приходится платить увеличенные расходы на ресурсы (например, трафик, CPU
и т.д.).
(В качестве бонуса я включил функцию Cloudflare
"AI Labyrinth", которая использует AI
-генерируемый контент, чтобы замедлить, запутать и потратить впустую ресурсы AI
-краулеров и других ботов, не уважающих ограничения robots.txt
. Это своего рода "месть"!)
@MikeBlazerX
Нет, ссылки не спасут вас от негативных последствий обновления ядра Google.
Я уже много раз говорил об этом раньше, но вот еще один отличный пример, говорит Гленн Гейб.
Мощный сайт был разгромлен мартовским обновлением ядра 2025 года.
У сайта 7.7 млн бэклинков почти со 100 тыс. ссылающихся доменов (и более 3 млн ссылок после фильтрации).
Таким образом, ссылки и упоминания с авторитетных сайтов важны, но, опять же, они не спасут вас от удара обновления ядра, если есть другие большие проблемы.
@MikeBlazerX
Марк Уильямс-Кук задался вопросом, будет ли Google продолжать показывать страницу в поисковых результатах (СЕРП), если она возвращает ошибку 404 (не soft 404), но пользователи постоянно кликают на нее, когда она появляется в поиске.
Он уточнил:
— Он наблюдал страницу конкурента, которая возвращала 404
в течение месяца, но все еще отображалась в поисковых результатах
— Он предположил, что это может быть связано с кликами пользователей
— Он подтвердил тестирование с помощью Rich Result Tester
(RRT
) и проверил, что URL
в СЕРПе совпадает с URL
приземления
— Изначально он подозревал клоакинг
— Что касается noindex
, он подчеркнул, что это директива (а не рекомендация), которая должна обрабатываться немедленно, когда она в HTML
— Он никогда не видел, чтобы правильно реализованный тег noindex
не был учтен, если только что-то не было сломано
— Он отметил, что noindex
обычно вступает в силу сразу после очередного краулинга
Мнения сообщества
— Если пользовательские сигналы достаточно сильны и указывают на ценность страницы, Google может оставить ее в индексе и продолжать показывать.
— Идея о том, что страница с 404
статусом и кликами может оставаться в индексе, имеет смысл, особенно учитывая пользовательские сигналы как часть патента оценки качества сайта.
— Пользователи будут продолжать кликать на результат из любопытства, но со временем он должен выпасть, поскольку постоянно возвращает статус 404
.
— Закон Ньютона применительно к поиску: объект в движении остается в движении, пока на него не подействует внешняя сила.
В терминах SEO, эта "поисковая инерция" означает, что после того, как страница была архивирована, проиндексирована и ранжирована, она не исчезает мгновенно, когда начинает возвращать ошибки 404
.
У страницы есть установившаяся инерция в индексе Google.
— Асинхронная природа алгоритма Google означает, что разные системы (краулинг, индексация, архивирование, механизмы ранжирования и сигналы пользовательского поведения) не синхронизируются мгновенно.
— Сигналы пользовательского поведения могут еще не предоставить достаточно доказательств того, что страница бесполезна. Как и физический распад, этот цифровой распад следует естественной прогрессии.
— Статус 410
"Gone
" может быть более эффективной альтернативой для преодоления "поисковой инерции" по сравнению с 404
.
— Пользовательские логоритмические сигналы значительно сильнее в некоторых аспектах, чем алгоритмические сигналы.
— Бот Google перекраулит несколько раз, чтобы убедиться, что статус 410
является намеренным.
Даже со статусом 410
и нулевыми внутренними ссылками страницы все равно могут изредка появляться в поисковых результатах.
— Если Googlebot
может видеть код статуса 404
(чего не произойдет, если URL
заблокирован в robots.txt
), URL
будет удален из индекса Google и не будет показываться пользователям.
— Время, за которое страница с 404
выпадает из индекса, может варьироваться от минут до месяцев, в зависимости от частоты краулинга и приоритета URL
(имеет ли он внутренние ссылки, бэклинки, трафик и т.д.).
@MikeBlazerX
Как DeepSearch
отбирает сниппеты и приоритизирует URL
Факторы, которые они используют:
— Freshness
: Дата последнего обновления контента (HTTP
-хидеры, видимые даты и Schema.org
...).
— Частотность и авторитет домена: Контент, на который ссылаются из множества источников и релевантных доменов.
— Структура пути: URL
, семантически организованные в тематические кластеры.
— Семантическая релевантность: Используют эмбеддинги (jina-embeddings-v3
) и модели ранжирования для определения релевантности вопросу пользователя.
— Late chunking
: Выбирают релевантные фрагменты в длинных документах с помощью техники "late chunking
", которая сохраняет контекст и облегчает выбор самодостаточных сниппетов.
Ничего не напоминает?
Кроме того, они отмечают, что нам стоит избегать контента с ограниченным доступом или пейволами, поскольку они не могут получить к нему доступ, не нарушая ToS
.
Так что, в очередной раз, ничего действительно нового — если ты уже занимаешься SEO, этого достаточно.
@MikeBlazerX
Современное пособие для паразитов: как управлять игорной империей изнутри легального сайта и остаться безнаказанным
В конце прошлого года Esports Insider
был новостным сайтом, обслуживающим растущую аудиторию киберспорта.
Два месяца спустя он превратился в один из крупнейших гемблинг-сайтов на планете, привлекая трафик по конкурентным запросам и направляя посетителей в сеть крипто- и гемблинг-сайтов.
После двух ручных санкций они всё ещё продолжают этим заниматься.
История начинается, когда SEO-специалист Чарльз Флоут замечает что-то странное на сайте.
Веб-сайт, который годами предлагал новости о киберспорте, внезапно начал ранжироваться по гемблинг-запросам.
С почти миллионом бэклинков от более чем 70 тысяч доменов, включая The New York Times, The Los Angeles Times
и BBC, Esports Insider
имел убойные ссылки и хороший авторитет.
По данным Ahrefs
, сайт ранжировался по таким запросам, как "slots
" - чрезвычайно конкурентному ключевому слову - всего за пять дней.Esports Insider
- это паразитная операция, принадлежащая Finixio
, который служит проводником для обширной сети крипто-, гемблинг- и паразитных SEO-операций.
Их план действий: найти сайт с хорошим авторитетом домена, купить его, сохранить существующий контент и структуру, создать новый раздел для гемблинга и направлять трафик в онлайн-казино или криптокошельки под своим управлением.
Первоначальный управляющий директор Сэм Кук ушёл после смены владельца бизнеса, без указания имени покупателя.
Брендинг сайта остался прежним, дизайн похожим, а фокус по-прежнему формально на киберспорте - но с новым пунктом "betting
" в навигационном меню.
На сайте быстро появилась подпапка "gambling
", наполненная контентом от Виолы д'Элиа из Clickout Media
(операционного подразделения Finixio
).
Гайды были нацелены на конкретные ключевые слова и региональные гемблинг-термины - например, "pokies
" для австралийских игроков и шведские страницы, рекламирующие нелицензированные казино.
Они продвигают Best Wallet
- кошелек, рекомендуемый сайтами Finixio
для доступа к криптопроектам, принадлежащим Finixio
.
Когда Google наложил санкции на сайт, они не исправились.
Вместо этого они изменили родительскую папку с "gambling
" на "igaming
" с идентичным контентом.
Дата "последнего обновления" была другой, но от заголовка до подписи автора, это была та же страница.
Когда санкции наложили снова, они опять сменили имя папки на "betting
".
Некоторые гайды находились в разделе /igaming/, но содержали рекомендации, ведущие к /gambling/, в то время как другие вели на URL
типа /lp/fast-withdrawal-casinos
.
Интересно, что затронут был только верхний уровень подпапки - при выборе гайда вы часто оказывались по пути /cc/gambling/xyz.
Паттерны трафика ясно показывают цикл санкций - падение, восстановление, падение, восстановление.
Страницы для конкретных регионов, такие как "casino utan svensk licens
" (казино без шведской лицензии), следуют идентичному паттерну - получают санкции и многократно возвращаются.
Это не первый подобный случай для Finixio
.Techopedia
, одна из их ранних паразитных операций, несколько раз получала санкции, но продолжала восстанавливаться, пока не получила штраф, от которого не смогла оправиться.
Они полностью превратили её в гемблинг-ресурс.
В отличие от Techopedia
, санкции Esports Insider
узко применяются к конкретным подпапкам, игнорируя то, что происходит на уровень ниже.
Без алгоритмического ответа на это злоупотребление паразитное SEO съест интернет.
Глава поиска Google Элизабет Рид недавно назвала отправку трафика на сайты издателей "необходимым злом", от которого Google пытается уйти.
Уже многие медиа-сайты занимаются контентом по принципу pay-to-play
, но подход Finixio
дестабилизирующий и разрушительный.
В конечном итоге все сайты среднего сегмента интернета будут поглощены изнутри, либо Finixio
, либо ещё менее щепетильными подражателями.
https://recleudo.com/the-modern-parasite-playbook-how-to-run-a-gambling-empire-from-inside-a-legit-website-and-get-away-with-it/
Марк Цукерберг
пишет сообщение инженеру Facebook
5 апреля 2012 г.
Марк Цукерберг: "Тут?"
Инженер Facebook: "Да"
Цукерберг: "Если бы можно было купить что-то одно — Instagram
, Foursquare
или Pinterest
, что бы ты выбрал?"
Инженер: "Это сложный вопрос, так как у всех очевидно есть свои плюсы и минусы. Первым делом я думаю о Foursquare
, так как считаю их продукт наиболее привлекательным в том плане, который нам было бы сложнее всего повторить"
Инженер: "Однако, думаю, у них наименьший потенциал массового охвата из всех трёх"
Инженер: "Поскольку он ориентирован на молодых городских людей."
Инженер: "У Pinterest
потенциально самая широкая аудитория, хотя я думаю, что мы могли бы естественным образом развить концепцию пространств в Timeline
, которые выполняли бы ту же функцию курирования, что и Pinterest
, и я не уверен, что их команда была бы таким уж ценным активом"
Инженер: "Я не особо знаком с продуктовой/дизайнерской/инженерной командой Foursquare
"
Инженер: "Также считаю, что есть стратегический вопрос о том, кто ещё может быть заинтересован в покупке этих компаний и готовы ли они вообще продаваться"
Инженер: "например, я думаю, что Instagram
может оказаться важнее Foursquare
с точки зрения защиты, потому что такие компании как Apple
могут использовать их как точку входа"
Инженер: "какие у тебя соображения?"
Цукерберг: "Мне просто нужно решить, будем ли мы покупать Instagram
"
Цукерберг: "Не думаю, что остальные сейчас продаются."
Цукерберг: "Это очень дорого — примерно $1 миллиард."
Цукерберг: "Думаю, они для нас довольно опасны, но не уверен, насколько по сравнению с другими компаниями."
Инженер: "Это большие деньги. В чём, по-твоему, заключается угроза с их стороны? Что-то большее, чем борьба за внимание и контент?"
Цукерберг: "В целом так и есть, но это серьёзный вопрос."
Цукерберг: "То есть, всё зависит от того, насколько большими они станут."
Цукерберг: "Но фото — один из немногих ключевых юзкейсов для нас."
Цукерберг: "Есть разные способы смотреть на сервис."
Цукерберг: "Один — это то, как контент проходит через него: News Feed
, Timeline
, OG
, Search
и так далее."
Цукерберг: "Это функциональная разбивка нашего сайта и того, как мы над ним работаем."
Цукерберг: "Другой — с точки зрения ключевых юзкейсов: отправка сообщений, шеринг фото, игры и так далее."
Цукерберг: "У нас сейчас большая проблема, потому что гейминг уходит от нас на мобильные платформы. Это создаёт негативный момент во многих аспектах: общая вовлечённость геймеров, рекламные траты от геймеров, общая выручка и так далее."
Цукерберг: "Если ещё один ключевой юзкейс уйдёт, думаю, это будет очень плохо для нас."
Инженер: "Да, логично"
Цукерберг: "С другой стороны, получить новый юзкейс теоретически так же ценно, как не потерять существующий."
Цукерберг: "Pinterest
и Foursquare
, вероятно, более ценные рынки, чем фото."
Цукерберг: "Для e-commerce
и локального бизнеса соответственно."
Цукерберг: "Хотя все эти продукты ещё очень сырые"
Цукерберг: "Instagram
может нам серьёзно навредить, даже не став огромным бизнесом. С остальными, если они вырастут, мы просто пожалеем, что не сделали этого раньше."
Цукерберг: "Или мы сможем купить их тогда, или построить что-то похожее по пути."
Цукерберг: "Мы уже работаем над созданием какой-то версии Foursquare
."
@MikeBlazerX
Многие уже забили на традиционное SEO и сфокусировались на LLM-SEO
.
В Beehiiv
мы пошли противоположным путём — мы удвоили ставки на статьи объёмом 1 500-2 000 слов, исследованные и написанные людьми, и увеличили нашу продуктивность с 1 статьи до 2 в день, пишет Эдвард.
Результаты просто нереальные — наша органика не только на рекордном уровне, мы наблюдаем огромную тягу со стороны AI
-инструментов.
ИИ всегда будет брать контент откуда-то, поэтому хорошо ранжируясь традиционными методами, мы будем готовы стать основным источником для выдачи.
Другая часть, которую люди, похоже, не понимают, заключается в том, что 90% SEO вообще не о конверсии.
Люди оплакивают потерю трафика из традиционных СЕРПов, не осознавая, что большинство пользователей, кликающих по вашим ссылкам, не готовы покупать.
Таким образом, когда пользователи взаимодействуют с вашим контентом через AI
-инструмент, результат тот же самый (не считая невозможности ретаргетинга) в том смысле, что они получают узнаваемость бренда.
@MikeBlazerX
Вы ошибаетесь насчет EEAT
!
Большинство сеошников относится к одной из 2 групп:
1) EEAT
описывает факторы ранжирования
2) EEAT
никак не связан с ранжированием
И неважно, какой из этих двух вариантов ты считаешь правильным — ты ошибаешься!
С одной стороны — да, были (и до сих пор есть) люди, которые продвигают EEAT
для ранжирования.
И это несмотря на то, что Google внес поправки в свои доки в прошлом году, говоря "нет", и недавно снова сказал "нет" прямо со сцены.
С другой стороны — есть несколько крикливых личностей, которые до сих пор протестуют, что EEAT
— полная чушь и ничего не дает.
Лично я считаю, что второй вариант более вреден, пишет Lindon NA.
Давайте рассмотрим 2 почти идентичных сайта:
— Одна тема/предмет.
— Одинаковое количество страниц.
— Одни и те же целевые запросы.
Единственная разница...
Сайт А намеренно прошелся по GQRG
(руководство для оценщиков качества Google) и удалил каждый намек на EEAT
со своего сайта.
Сайт Б, напротив, вложил время, усилия и ресурсы в юзабилити, внутреннюю перелинковку, цитирование источников и т.д.
Какой из них, по-вашему, будет лучше ранжироваться через 3/6/9/12 месяцев?
Какой из них, по-вашему, просядет?
Ответ, конечно, — говносайт, который отталкивает пользователей, не удовлетворяет их потребности, создает ненужное трение и, вероятно, оптимизирован каким-то тупым идиотом.
Давайте проясним...
Подавляющее большинство элементов EEAT
НЕ являются прямыми факторами ранжирования.
У Google НЕТ (насколько нам известно) никакого специального алгоритма или набора метрик для таких вещей, как авторы.
Они не дают бонусов за наличие блока или страницы с информацией об авторе (и не наказывают за их отсутствие).
Но люди... обычные пользователи сайта... реагируют на такие вещи.
Иногда сознательно, иногда подсознательно.
И эти реакции можно отследить.
Говносайты/страницы/контент обычно:
— не зарабатывают бэклинки.
— не получают повторный трафик.
— не удовлетворяют пользователей.EEAT
не влияет напрямую на ранжирование, но это не значит, что его следует игнорировать.
В нем содержится куча руководств для создания качественного контента и удовлетворения пользователей.
Так что у тебя есть выбор:
a) Игнорировать EEAT
и, возможно, страдать
b) Придерживаться EEAT
ради ранжирования и, вероятно, немного разочароваться
c) Включить мозг, думать самостоятельно, осознать представленную ценность, внедрить то, что актуально, и быть довольным немного лучшими показателями SEO, юзабилити и коэффициента конверсии.
Выбор за тобой!
@MikeBlazerX
Мы обнаружили корреляцию между переписыванием мета-описаний Google и косинусным сходством между вашими целевыми ключами и предложениями на странице, пишет Дэн Хинкли.
Замечали, что Google переписывает ваши тщательно продуманные мета-дески?
Вы не одиноки.
Google меняет более 70% мета-десков.
Интересно, что Google обычно использует предложения, уже имеющиеся на вашей странице.
Но как Google выбирает эти предложения?
Вполне вероятно, что они делают это с помощью векторных эмбеддингов, Google измеряет семантическую релевантность, определяя наилучшее соответствие.
Почему это важно для SEO?
— Повышение CTR
: Оптимизируйте предложения, которые Google, скорее всего, использует, улучшая кликабельность.
Или убедитесь, что на вашей странице есть предложение, которое может стать мета-деском для вариации ключа, по которому вы ранжируетесь.
— Улучшение релевантности: Приведите ваш контент в более тесное соответствие с целевыми ключами, чтобы повысить потенциал ранжирования.
— Выявление возможностей для оптимизации: Поймите, как Google воспринимает ваш контент, чтобы направлять стратегические правки.
Вот быстрый процесс для прогнозирования выбора Google для мета-описаний:
1 - Вытащите топовые ключи из GSC
.
2 - Перечислите предложения вашей страницы в Google Sheets
.
3 - Рассчитайте оценки косинусного сходства между ключами и предложениями, используя эмбеддинги для ключей и предложений (мы масштабируем их до 10-балльной шкалы для удобства чтения) с помощью нашего внутреннего Google App Script
и движка текстовых эмбеддингов Google.
4 - Примените условное форматирование, чтобы выделить лучшие совпадения для каждого ключа.
После выявления стратегически оптимизируйте эти ключевые предложения для SEO и для привлечения дополнительных кликов.
@MikeBlazerX
Как часто Google изменяет тайтлы и почему?
Исследование проанализировало тысячи запросов и первые 50 страниц результатов поиска Google, сравнив оригинальные теги <title>
с отображаемыми в СЕРП.
Ключевые выводы
— 76.04% всех тайтлов были изменены Google, что больше по сравнению с 61% в 2023 году
— Только 23.96% тайтлов остались неизмененными
— Google удаляет в среднем 2.71 слова и сохраняет только около 35.02% исходного контента
Влияние ключей в измененных тайтлах
— Удаление ключей: 1.57%
— Добавление ключей: 1.01%
— Сохранение ключей, если присутствовали в оригинале: 20.67%
— Отсутствие ключей в обеих версиях: 76.74%
Анализ пользовательского интента
Коммерческие запросы:
— Частота изменений: 75.97%
— Оригинальные тайтлы с ключами: 31.91%
— Тайтлы в СЕРПе с ключами: 31.31%
— В измененных тайтлах: Ключи сохранены 30.17%, удалены 2.23%, добавлены 1.44%, отсутствуют 66.17%
Информационные запросы:
— Частота изменений: 76.17%
— Оригинальные тайтлы с ключами: 5.81%
— Тайтлы в СЕРПе с ключами: 5.67%
— В измененных тайтлах: Ключи сохранены 5.35%, удалены 0.51%, добавлены 0.33%, отсутствуют 93.81%
Анализ типов контента
YMYL-контент:
— Частота изменений: 76.00%
— Наличие ключей в оригинале: 20.83%
— Наличие ключей в СЕРПе: 20.35%
— В измененных тайтлах: Ключи сохранены 19.63%, удалены 1.66%, добавлены 1.03%, отсутствуют 77.68%
Не-YMYL контент:
— Частота изменений: 76.27%
— Наличие ключей в оригинале: 28.01%
— Наличие ключей в СЕРПе: 27.88%
— В измененных тайтлах: Ключи сохранены 26.35%, удалены 1.09%, добавлены 0.92%, отсутствуют 71.64%
YMYL-ниши
— Здоровье: Изменения 76.51%, ключи в оригинале 22.26%
— Юридическая тематика: Изменения 74.94%, ключи в оригинале 19.68%, высший показатель удаления ключей 3.80%
— Финансы: Изменения 74.93%, низший показатель ключей в оригинале 14.57%, высший показатель отсутствия ключей 84.08%
Влияние поискового объема
— Частота изменений растет с объемом: от 75% для низкочастотных до 79.23% для запросов 100k+
— Наличие ключей растет с объемом: 45.99% для запросов 100k+ против 6.86% для запросов 0-100
— Высокочастотные запросы: Больше добавлений ключей (2.25% против 0.44%) и удалений (4.49% против 0.58%)
Почему Google меняет тайтлы
1. Удаление бренда (63.0%): Google удаляет названия брендов, особенно с известных сайтов или для небрендовых запросов
2. Улучшение читабельности/ясности (30.3%): Переписывание тайтлов для большей четкости или лучшего соответствия ожиданиям пользователей
3. Управление длиной (8.3%): Обрезание длинных тайтлов или расширение коротких
4. Соответствие поисковому интенту: Изменение тайтлов для лучшего соответствия предполагаемому интенту
5. YMYL-соображения: Удаление бренда и упрощение распространены в чувствительных темах
6. Добавление конкретики: Улучшение общих тайтлов описательными терминами, релевантными контенту и запросу
Характеристики неизмененных тайтлов
— Оптимальная длина: Короче (в среднем 44 символа/7 слов против 63/10 для измененных), с 84.87% в диапазоне 30-60 символов
— Дружественные пользователю форматы: Вопросительный формат (10.11%), указание года (10.32%), how-to
(5.67%) и списочный формат (4.18%)
— Начало, сигнализирующее об интенте: Фразы типа "как выбрать", "X лучших", "что такое" часто сохраняются
— Лаконичное использование ключей: Естественная интеграция ключей в понятные тайтлы
Основные выводы
— Ожидайте, что Google изменит ваши тайтлы более чем в 76% случаев
— Google приоритизирует ясность, краткость и релевантность тайтлов пользовательскому интенту
— Ключевые слова важны, но Google редко манипулирует ими напрямую
— Коммерческие тайтлы естественно включают ключи чаще, чем информационные
@MikeBlazerX
Комментарии людей из сообщения LinkedIn
трехчасовой давности могут попасть в AI
обзоры и режим AI
.
@MikeBlazerX
Анн Смарти:
Я получила полезное сообщение из GSC
для БРЕНДОВОГО ЗАПРОСА моего клиента (см. основной скриншот к посту).
Кто-нибудь догадается, что изменилось в СЕРПах?
Конечно, они по-прежнему на 1-м месте по своему брендовому имени, НО теперь для него показывается AI Overview
(который, кстати, тоже на них ссылается).
Google может не раскрывать показатели кликабельности из AI Overview
, но это и так очевидно, верно?
54% потеря кликов по их БРЕНДОВОМУ ИМЕНИ без потери позиций или показов. 🤯
Решение, которое я собираюсь предложить клиенту?
Да, вложиться в платную рекламу по их брендовому имени (чего они еще не делают, но теперь будут).
Да, возможно, это и есть цель Google, но честно говоря, я рекомендовала ставить ставки на брендовые запросы всем моим клиентам уже много лет.
Вы наблюдаете ту же тенденцию для запросов, которые вызывают AI Overview
, даже если сайты ваших клиентов цитируются в них?
И да, бренд достаточно уникальный, ему больше 20 лет.
Их брендовое имя достаточно популярно, чтобы иметь достаточно поисковых запросов для срабатывания предупреждения в GSC
, когда эти клики упали.
-
Харприт:
Казалось бы, бренду Quickbooks
не нужен AI Overview
, но вот мы здесь (скриншот)
-
Сайрус Шепард:
Мой сайт ранжируется по этому поисковому запросу в Google практически всеми возможными способами:
— Топовая позиция,
— Featured Snippet
,
— источник для AI Overview
— и Картинки
И всё же трафик упал на 40%, поскольку Google более широко внедряет AI Overview
.
Будущее веб-публикаций будет выглядеть совсем, совсем иначе.
Скриншот
@MikeBlazerX
Новый плагин для сеошников после апдейта Гугла
@MikeBlazerX
"Давайте разместим наш блог на поддомене," говорили они.
Мы видим это постоянно — крупные интернет-магазины размещают свои блоги на поддомене (например, blog.domain.com
).
Разработчики часто настаивают на этом, чтобы избежать неуклюжей настройки блога в Shopify
или чтобы иметь больше гибкости со структурой URL
.
Но вот в чем проблема:
Ваш контент оказывается на изолированном поддомене с нулевыми бэклинками, отсутствием авторитета и — что хуже всего — гейтвей-страницами.
Что такое гейтвей-страница?
Веб-страница, разработанная для высокого ранжирования по определенным ключевым словам в результатах поиска, но с единственной целью перенаправления посетителей на другую страницу сайта.
301
редирект на основной сайт, говорит Джонатан Кикбуш.Ограничения сайтмапов в GSC
У Шона есть 16 000 сайтмапов внутри одного файла сайтмап-индекса.
Несмотря на то, что документация Google предполагает, что это должно работать, GSC
не отображает это корректно.GSC
показывает "ноль деталей о количестве URL
или разбивке сайтмапов" при работе с таким объемом.
Кроме того, GSC
API
полностью отказывается работать при попытке доступа к этим данным.
Официальная документация утверждает:
— Вы можете отправить до 500 сайтмап-индекс файлов на сайт в GSC
— Каждый файл сайтмап-индекс может содержать до 50 000 ссылок на сайтмапы
— Каждый отдельный сайтмап может содержать до 50 000 URL
Теоретический лимит должен быть 50 000, но всё начало "тормозить" ещё до достижения этого числа.
@MikeBlazerX
Хотите понять, как AI Overviews
влияют на эффективность вашего сайта?
Данные о показах и кликах AI Overviews
, смешанные со всеми остальными результатами поиска, усложняют анализ.
Но зная типы запросов, которые обычно вызывают AI Overviews
, Джес Шольц создала регулярку для GSC
, чтобы выявить запросы, которые с высокой вероятностью подвержены влиянию.
Вот базовая регулярка (но обязательно настройте его под свою нишу):
^(who|what|whats|when|where|wheres|why|how|which|should)\b|.*\b(benefits of|difference between|advantages|disadvantages|examples of|meaning of|guide to|vs|versus|compare|comparison|alternative|alternatives|types of|ways to|tips|pros|cons|worth it|best|top)\b.*
GSC
ZipTie
, чтобы подтвердить, какие из них действительно возвращают AI Overviews
(и упоминается ли ваш сайт)