Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Из-за багов Гугла с датами страниц, люди считают, что у CNN
были заранее написанные статьи о крушении самолета в Вашингтоне - за несколько часов до события...
@MikeBlazerX
Когда наконец-то смог купить нормальный дроп
@MikeBlazerX
Релевантность домена и нейминг бренда существенно влияют на позиции в поисковой выдаче в гемблинг-нише и индустрии онлайн-казино.
Практичный способ проанализировать это влияние - методология "тепловой карты релевантности": сравнение конкурирующих доменов в Google таблицах с использованием ctrl+F
для поиска конкретных терминов.
Например, при анализе casino.com
, gambling.com
и casino.org
этот метод показывает, как домены с фокусом на казино обычно ранжируются лучше по слот-запросам по сравнению с доменами про гемблинг - это связано с семантической близостью между играми казино и слотами.
Эта концепция хорошо иллюстрируется кейсом "hung credit
" (что означает "какой кредит" на турецком), где стратегический нейминг может создать более широкую релевантность.
Когда доменное имя содержит различные сущности - как бренд, так и тематический компонент - его можно использовать для различных релевантных поисковых запросов.
Например, базовую фразу вроде "какой кредит" можно естественным образом расширить для таргетинга на связанные термины как "какой займ", "какая кредитная карта" или "какая процентная ставка", создавая сеть релевантных подстраниц при сохранении консистентности бренда.
Семантическая связь распространяется и на стратегии анкор-текстов.
Выбор между использованием пробелов в названиях брендов и EMD
влияет на потенциал ранжирования.
Хотя оба подхода могут работать, сайтам, конкурирующим с несколькими EMD
, часто требуется более высокая доля точных вхождений в анкорах для эффективной конкуренции.
Однако при использовании EMD
с коммерческими терминами (например, "лучшие игры казино"), Google применяет более высокие пороги ранжирования и требует более сильных уровней PageRank
для подтверждения релевантности.
Использование разных вариаций названия бренда в ссылочных анкорах - включая версии с пробелами и без, разные варианты написания, включение или исключение доменных зон - помогает защититься от санкций при ручной проверке, сохраняя потенциал ранжирования.
Стратегия с доменными зонами особенно эффективна - иногда включая, а иногда исключая расширение домена, можно повысить релевантность для 20% запросов, сохраняя фокус на основных ключах.
Передача PageRank
более эффективна с точными анкорами, что объясняет, почему они работают лучше, но также почему привлекают больше внимания со стороны модераторов.
Эта стратегия особенно важна в нишах с высоким CPC
, как онлайн-гемблинг, где Google менее толерантен к агрессивному использованию точных анкоров.
Успешные примеры в гемблинг-индустрии включают такие сайты как playusa.com
, playnevada.com
и playarizona.com
, которые эффективно используют EMD
, поддерживая при этом сильную перелинковку.
Эти сайты демонстрируют, как балансировать оптимизацию под точное вхождение с естественной вариативностью, учитывая как потенциал ранжирования, так и риск-менеджмент.
Когда конкурирующие домены используют точные анкоры, возможно, придется соответствовать или превышать их процент точных вхождений, осторожно оставаясь ниже радара ручных санкций.
Для максимальной релевантности доменные имена можно стратегически выбирать так, чтобы охватывать связанные поисковые запросы и создавать естественную релевантность для разных вариаций запросов.
Такой подход помогает сайтам ранжироваться по множеству связанных ключей, сохраняя сильное присутствие бренда в поисковой выдаче и используя семантические связи между родственными терминами в своей нише.
@MikeBlazerX
Если ты работаешь в Казино Аффилейте и SEO, пора переключаться на центры переработки и утилизации отходов.
Это работа (см. скрин) системы Hidden Gems
(Скрытые жемчужины) от Google на базе ИИ, которая пытается собрать воедино тематику и продвинуть в выдаче альтернативные и малоизвестные страницы.
Система создана для того, чтобы "всплывали" сайты, которые обычно не имеют шансов на ранжирование, но имеют "какие-то" хорошие сигналы.
Это было частью разрушительного и очень деструктивного апдейта HCU
, который уже около 18 месяцев приносит головную боль SEO-специалистам.
Кстати, это НЕ паразитическое SEO - это реальная легитимная страница местного совета Великобритании, которая ранжируется по запросу "Slot Sites
" на основе всего двух слов в тексте!
Полный абсурд.
Клиент: Почему мы ещё не в топе?
SEO-специалист: Эээ, потому что... Google
@MikeBlazerX
diskprices.com
зарабатывает $5K/мес на партнёрском маркетинге.
Сайт страшненький.
И весь утыкан партнёрскими ссылками.
Но пользовательский опыт на самом деле фантастический.
Похоже, что даже Google его любит - сайт практически не пострадал ни от одного алгоритмического обновления.
Довольно редкий случай для партнёрского сайта.
В этом интервью владелец сайта раскрыл свои доходы и рассказал, что операционные расходы очень низкие.
Интервью датировано октябрём 2023 года.
@MikeBlazerX
Ссылайтесь на сайты, которые ссылаются на ваших конкурентов, но при этом имеют более сильные и свежие ссылки на ваш сайт...
Комплексная стратегия линкбилдинга должна адаптироваться в зависимости от того, падает ли трафик сайта или растет.
Давайте рассмотрим проверенный подход, который помог масштабировать проект с 60 000 до 1,5 миллиона ежемесячных кликов за 15 месяцев.
Концепция "естественной релевантности" является фундаментальной для эффективного линкбилдинга.
Этого можно достичь через PMD
или EMD
домены (частичного или полного вхождения) , либо через установление определительных и концептуальных связей.
Главная страница, имеющая самый высокий PageRank
, как правило, ранжируется легче всего, а её анкор-стратегия может быть обоснована присутствием бренда.
Когда сайт испытывает падение позиций несмотря на рост реферальных доменов (как в случае с ForexBrokers.com
), проблема, вероятно, кроется во внутренних факторах, а не во внешних.
При правильно выстроенных внутренних факторах каждая полученная ссылка может иметь эффект нескольких конкурентных ссылок.
Для распределения анкоров:
Главная страница:
— Основной фокус на название бренда из-за естественной релевантности
— Для EMD
допустимы точные вхождения анкоров при подтверждении поведенческими метриками
Внутренние страницы:
— Комбинация названия бренда плюс тематика
— Вариации атрибутов
— Внутренние анкоры ограничены 3 вариациями
— Внешние анкоры ограничены 2 вариациями (кроме EMD
)
— Вариации порядка слов и контекстные изменения
Продвинутый подход включает создание "коррелированных ссылок" - установление связей в более широком ссылочном графе через стратегические паттерны линковки.
Эта продвинутая техника фокусируется на трех ключевых стратегиях линкования:
1. Последовательное наращивание авторитета:
— Сначала ссылаемся на авторитетные источники вроде Википедии, которые уже ссылаются на ваш сайт
— Затем добавляем собственную ссылку, получая выгоду от установленной релевантности
— Это создает естественную ассоциацию между вашим сайтом и доверенными источниками
2. Сети взаимной релевантности:
— Определяем и ссылаемся на качественные сайты, которые уже ссылаются на вас
— Создаем сеть взаимоусиливающих отношений
— Фокусируемся на тематически релевантных сайтах для усиления авторитета в нише
3. Использование конкурентных ссылок:
— Таргетируемся на сайты, которые ссылаются на конкурентов, но имеют более сильные и свежие ссылки на ваш сайт
— Такое позиционирование помогает утвердить ваш сайт как более актуальный и релевантный
— Создает сетевой эффект, где ваш сайт становится все более центральным для темы
Конечная цель - позиционировать ваш сайт в центре релевантного ссылочного графа, максимизируя как стандартный PageRank
, так и тематический PageRank
.
Относительно бренда, домена и названий сайтов:
— Эти три концепции различны и требуют разных подходов
— Важны эмбеддинги символов (например, похожие буквы как 'c
' и 'k
' в частичных совпадениях)
— Соответствие запросу должно быть точным, включая пробелы и регистр букв
— Присутствие бренда должно быть согласовано между Google Business Profile
, schema
-разметкой и контентом сайта
— Фокус на "query bending
" (трансформации поискового намерения для соответствия вашему бренду)
Для EMD:
— Прямые анкоры с названием бренда оправданы при поддержке сильными поведенческими факторами
— Согласованность в написании и пробелах во всех упоминаниях бренда
— Вариации анкор-текстов менее важны, когда анкор является названием бренда
— Цель - закрепить запрос как ваш бренд, а не просто общий термин
@MikeBlazerX
Стоит ли вообще вкладывать деньги в SEO?
Чтобы узнать ответ, Нил Патель собрал данные 314 веб-сайтов... как старых, так и новых, чтобы выяснить, какова была отдача от инвестиций в SEO за 5 лет.
Посмотрите результаты по старым и новым сайтам.
@MikeBlazerX
Не так давно Джон Мюллер из Google сделал заявление о том, что URL
не влияют на ранжирование.
Однако это утверждение, похоже, противоречит наблюдаемым SEO-практикам и результатам тестирования.
Доказательства против утверждения
1. Механизмы переписывания тайтлов
— Google активно использует URL
как один из источников для переписывания тайтлов
— Ключевые слова из URL
используются наряду с анкор-текстами и контентом страницы
— В инструментах отслеживания волатильности выдачи наблюдаются изменения позиций при переписывании тайтлов
2. Результаты практического тестирования
— Страницы могут ранжироваться по ключевым словам, которые присутствуют только в URL
и больше нигде на странице
— Это прямо противоречит заявлению о том, что URL
не дают никакой информации для ранжирования
Как интерпретировать заявление Google
Похоже, это заявление является примером неоднозначной коммуникации:
— Реальное сообщение может заключаться в том, что URL
стали менее важными, чем раньше
— Хотя URL
может и не являются основным фактором ранжирования, они все еще имеют определенный вес
— Формулировка "не получает большого количества информации" не то же самое, что "не получает никакой информации"
@MikeBlazerX
Пока вы наслаждаетесь их чатом онлайн, китайцы DeepSeek собирают всевозможные данные о вас...
Анализ клавиатурного почерка - это поведенческий биометрический метод, используемый для идентификации и аутентификации людей на основе их уникальных моделей набора текста.
@MikeBlazerX
Если вы любите работать с таблицами, то наверняка уже используете функцию rept
(повтор) для создания простых столбчатых графиков прямо в ячейках.
Выглядит это так:
=rept(повторяемый_текст, количество_повторений)
=rept("|",10)
Unicode
-символ полного блока (█) для создания более красивой горизонтальной линии:=rept("█",int(ЗНАЧЕНИЕ_ЯЧЕЙКИ/ДЛИНА_ПОЛОСЫ)) & index({"", "▏", "▎", "▍", "▌", "▋", "▊", "▉", "█"}, in(round((mod(ЗНАЧЕНИЕ_ЯЧЕЙКИ,ДЛИНА_ПОЛОСЫ)/ДЛИНА_ПОЛОСЫ)*8,0), 8)+1)
В конце 2024 ко мне обратился клиент, у которого видимость сайта падала несколько недель, пишет Александр Ауссермайр.
При этом ни внутренняя команда, ни обслуживающее агентство не смогли найти причину проблемы.
Что же произошло?
Сначала я подумал, что, возможно, всему виной одно из алгоритмических обновлений ноября и декабря 2024.
В ходе анализа я наткнулся на казалось бы незначительную, но в итоге очень важную деталь:
— robots.txt
был недоступен и возвращал 404
-ю ответ.
Окей, само по себе это не такая уж большая SEO-проблема, потому что в этом случае Googlebot
просто проигнорировал бы отсутствующий robots.txt
.
(Да-да, теоретически из-за этого могли бы проиндексироваться миллиарды страниц с thin
-контентом или еще что-то, но в данном случае это было исключено.)
Повторный взгляд на данные анализа привел к разгадке этого SEO-квеста:
— В этом конкретном случае при запросе robots.txt
не только возвращалась 404
-я страница, но одновременно с этим отдавался статус-код 500
.
И именно это в итоге привело к тому, что важные страницы постепенно выпадали из индекса, и терялись десятки органических позиций.
ВАЖНО: К сожалению, это стандартное поведение Google в таких случаях.Gary Illyes
подтверждает это в своем посте на LinkedIn
:
Файл robots.txt, возвращающий код состояния 500/503 HTTP в течение длительного периода времени, удалит ваш сайт из результатов поиска, даже если остальная часть сайта доступна для Googlebot. То же самое касается сетевых таймаутов.
Как запустить популярнейшую китайскую языковую модель DeepSeek R1
на своем компе и гонять чаты совершенно бесплатноDeepSeek R1
- это мощьнейшая модель с фунцкией рассуждений, которая превосходит большинство современних LLM
по качеству и эффективности.
1. Установите lmstudio.ai
2. Установите DeepSeek-R1-Distill-Qwen-32B
непосредственно из приложения LM Studio
.
Если у вас больше 36 Гб оперативной памяти, то ставьте 32B
, в противном случае 14B
будет вполне достаточно.
По возможности используйте бэкэнд mlx
, так как он быстрее на процессорах Apple.
Говорят у DeepSeek
нет сензуры.
3. Приятных чатов!
P.S., если LM Studio
не зайдет, попробуйте https://msty.app/ (я не пробовал)
@MikeBlazerX
Провел встречу с руководителем одной из крупнейших и самых известных контент-ферм, специализирующихся на массовом производстве контента.
Они хотел меня в свою команду, пишет Джош Тайлер, поэтому ответил на все мои вопросы о том, как они производят контент.
Для начала надо понимать, что эта компания публикует тысячи статей в месяц и доминирует в ряде ключевых тематик.
Вот как они производят контент, пошагово:
1: У них есть алгоритм (не ИИ), который постоянно мониторит веб на предмет трендовых тем.
Он определяет, какие темы они будут освещать.
2: После выбора темы второй алгоритм сканирует заголовки и статьи, которые другие уже написали по этой теме.
На основе этих данных он формирует заголовок для новой статьи.
3: Этот заголовок назначается случайному копирайтеру из очереди.
Помимо заголовка, алгоритм выдает базовый аутлайн того, что нужно написать.
4: Редактор проверяет готовый материал, вносит мелкие правки, выбирает изображения из предложенных алгоритмом.
5: Статья публикуется.
Этот процесс повторяется снова и снова, генерируя максимально возможное количество статей по выбранной теме, пока они не зафлудят и не захватят топ выдачи, вытесняя конкурирующий контент.
Так что та статья, которую вы только что прочитали от Крупной Медиакомпании X?
Она была спроектирована алгоритмом, а копирайтеры просто заполнили пробелы.
Вы читаете запрограммированный текст, а не чьи-то мысли.
Я пытался докопаться до того, как их алгоритм создает структуру статьи для копирайтера.
Насколько я понял, он по сути просто копирует то, что кто-то другой уже сделал на другом сайте, чтобы создать аутлайн.
Или, возможно, комбинирует несколько разных статей с других сайтов.
Сайты этой компании никогда не попадали под санкции и сейчас показывают лучшие результаты, чем когда-либо, в Google Search
, News
и Discover
.
У них сотни миллионов просмотров в месяц.
Этот метод не только позволяет быстро создавать много контента, но и делает это дешево.
Один редактор может управлять десятками копирайтеров, а копирайтерам платят по ставкам третьего мира, потому что их автоматизированная система превращает написание в "раскраску по номерам", с которой справится кто угодно.
@MikeBlazerX
Всю прошлую неделю, все кому не лень комментировали спад трафика блога HubSpot
.
Но куда же ушел весь этот потерянный трафик блога Hubspot
?
Он ушел к:
— Canva
— Wikipedia
— Microsoft
— Adobe
— DeepAI
— Indeed
— Freepik
— Reddit
— Zapier
— и др.
Вы можете легко увидеть это сами в Ahrefs
:
1. Выгрузите ключи Hubspot
, по которым упал трафик между указанными датами
2. Загрузите их в наш Keywords Explorer
3. Откройте отчет "Traffic share by domain
" - он покажет, кто сейчас получает больше всего трафика по этим запросам
Но ведь намного проще просто заявить, что SEO умерло, да?
-
Они работают в масштабах чистого SEO-фёрст контента на грани спама.
Смотрите этот скриншот.
Забавно, что эти профессиональные сеошники ни разу не пролили слезу по тысячам нишевых сайтов и блогеров, пострадавших за последние 18 месяцев.
Если уж на то пошло, они плясали на их могилах.
-
SEO-комьюнити никогда не упускает шанса поставить диагноз и покомандовать с дивана, как восстановиться известному сайту после санкций.Hubspot
работает в масштабах, которые большинству из нас даже не понять.
Эти реакционные тактические предложения бесполезны и лишены контекста и понимания ситуации.
-
Каждый сеошник - эксперт в оценке работы других сеошников...
Даже когда понятия не имеет о внутренних технических ограничениях, компромиссах и корпоративных решениях того, что оценивает.
-
Знаменитая статья Hubspot
со смайликом-пожиманием плечами ¯\_(ツ)_/¯
— еперь через 302
-й редирект ведет на статью про "Контент-аудиты" - скриншот.
Вы, монстры, со своими непрошеными SEO-советами (да и Google тоже, если честно) портите интернет.
И послушайте, как человек, который много лет занимался SEO публично в Moz
, пишет Сайрус Шепард, я прекрасно понимаю, какое давление испытываешь, когда каждый твой шаг обсирают — особенно когда дела идут не очень.
SEO-команда Hubspot
— настоящие рок-звезды, и любая компания должна считать за счастье иметь таких специалистов.
-
Итак, я использовал node.js
/ Puppeteer
для парсинга Google через функцию TOOLS
> Timeframe
, чтобы получить URL
-ы блога Hubspot
по месяцам с 2013 по декабрь 2024, говорит Дэниел.
Вот как выглядел их ежемесячный контент-аутпут на основе количества выданных результатов (не на 100% точно, но весьма показательно) - скриншот.
Видно, что Hubspot
СТАБИЛЬНО публиковал контент месяц за месяцем более 12 лет.
Немного интересной статистики:
— Я собрал данные за 146 месяцев - за это время накопилось 26 001 результатов
— Это стабильное среднее значение в 178 статей в месяц!
Теперь я выгрузил все URL
-ы с поддомена и с помощью паппетира могу видеть, сколько URL
-ов проиндексировано.
Затем я могу проанализировать чистый трафик и сохранение индексации, чтобы понять, насколько хорошо они удерживают индексацию контента, и не является ли это просто случаем незначительного проседания позиций, которое убило весь трафик.
@MikeBlazerX
Similarweb
опубликовал список 100 самых быстрорастущих сайтов в Интернете за 2024 год:
https://www.similarweb.com/corp/digital-100/
@MikeBlazerX
Директор, который только что закрыл клиента, пообещав топ-1 в СЕРПе и утроение трафика за 30 дней.
И SEO-специалист, которому теперь всё это надо реализовать.
@MikeBlazerX
Новый сервис для сеошнегов пострадавших от апдейтов Гугла
@MikeBlazerX
CF-Hero
- это инструмент разведки, который использует множество источников данных для обнаружения реальных IP
-адресов сайтов, защищенных Cloudflare
https://github.com/musana/CF-Hero
@MikeBlazerX
Алгоритм Google читает сигналы, а не статьи.
@MikeBlazerX
Часто при миграции сайтов изображениям уделяется недостаточно внимания, хотя они могут быть серьезным источником трафика, особенно для e-commerce
проектов.
Что же можно сделать?
У меня был клиент с интернет-магазином, который получал примерно 80 000 кликов по изображениям товаров, пишет Марк.
При редизайне и миграции сайта они планировали заменить все изображения (а значит, и названия/URL
картинок).
Настройка редиректов со старых картинок на новые оказалась слишком сложной задачей, поэтому мы пошли другим путем: просто скопировали директорию с изображениями на новый сайт, сохранив те же URL
.
Какой результат мы получили?
✅ Изображения сохранили свои позиции в выдаче, а когда пользователь кликал на источник, он попадал на нужную страницу благодаря обычному редиректу
✅ Многие новые изображения начали ранжироваться по похожим запросам — в итоге в некоторых случаях у нас было по две картинки в выдаче, что привело к еще большему трафику!
Иногда самое простое решение оказывается самым эффективным
@MikeBlazerX
Кулинарные блоги могут привлекать просто безумный трафик (и генерить тонны $$$).
Ниша еды просто невероятно огромная!
Вот топ 218 блогов о еде/рецептах по трафику
1. AllRecipes.com - 432 852 000 хитов в месяц
По имеющимся данным зарабатывает более $27 000 000 в год.
2. LoveAndLemons.com - 104 241 000 хитов в месяц
Предполагаемый доход: от $10 000 000 до $20 000 000 в год.
3. TheKitchn.com - 97 370 000 хитов в месяц
Примерный доход: $17 500 000 в год.
4. RecipeTinEats.com - 75 025 000 хитов в месяц
5. TasteOfHome.com - 70 619 000 хитов в месяц
6. Food.com - 66 334 000 хитов в месяц
7. SeriousEats.com - 61 218 000 хитов в месяц
8. ThePioneerWoman.com - 60 349 000 хитов в месяц
9. SallysBakingAddiction.com - 59 982 000 хитов в месяц
Посмотреть полный список можно здесь:
https://sitestatsdb.com/top-food-blogs/
Кстати: даже сайт на 218-м месте всё равно получает более миллиона посетителей в месяц
@MikeBlazerX
Сочетание фактической информации с личным опытом и мнениями
В вашем контенте, при ответе на фактологические запросы, например, "Каковы причины рака в зависимости от его типов?", следует избегать модальных слов типа "возможно" или "может быть", так как они вносят неопределенность.
Вместо этого, фразы вроде "повышает вероятность" передают уверенность, сохраняя точность информации. Этот лингвистический прием помогает контенту избежать алгоритмических санкций, при этом доносится то же сообщение.
Например, утверждение "чрезмерное потребление кофе повышает вероятность развития рака" работает эффективнее, чем фраза "может вызывать рак".
В случаях, когда вопросы требуют ответа да/нет, например "Создает ли лазерная резка четкие края на материале X?", ответ должен начинаться с четкого "да" или "нет" перед углублением в условия и переменные.
Такой подход удовлетворяет поисковики, предоставляя четкий ответ сразу, а затем дополнительный контекст.
Например: "Да, лазерная резка создает четкие края, особенно для XYZ материалов при использовании определенных методов".
Включение связанных сущностей, таких как отзывы пользователей или результаты исследований, дополнительно усиливает авторитетность и релевантность контента.
@MikeBlazerX
Google отдаёт явное предпочтение контенту с Reddit
в поисковой выдаче, несмотря на неоднозначную репутацию платформы в плане качества ответов.
Такая приоритизация отражает продвинутый подход Google к оценке контента через ранжирование пассажей (отдельных текстовых фрагментов).
В то время как типичный тред на Reddit
может содержать 80 ответов разного качества, алгоритм ранжирования пассажей от Google оценивает каждый ответ независимо от других.
Ключевой момент: если отдельный пассаж на Reddit
демонстрирует более высокое качество, чем целая конкурирующая статья, именно этот пассаж может определять ранжирование всей страницы.
Это означает, что множественные ответы на Reddit
дают больше возможностей для качественного контента, тогда как традиционным сайтам приходится поддерживать качество на протяжении всего материала.
Подход Google признает, что мнения не могут быть "неправильными" - это просто разные точки зрения.
Например, мнение одного пользователя о туристической обуви может отличаться от мнения другого, но обе точки зрения дают ценную информацию.
Это соответствует заявленной позиции Google относительно контента, основанного на разных точках зрения.
Личный опыт играет важную роль в этой стратегии ранжирования.
Отзыв пользователя о побочных эффектах лекарства может ранжироваться выше, чем профессионально написанная статья, потому что он предлагает аутентичный, основанный на опыте контент, который резонирует с юзерами.
Такой подход также служит стратегии управления рисками Google.
Ранжируя треды с Reddit
, Google может направлять пользователей к множеству точек зрения - если один ответ не удовлетворяет, в том же треде есть еще десятки других для изучения.
Эта уникальная характеристика форумов обеспечивает пользователей комплексной информацией, при этом распределяя ответственность по всей платформе, а не возлагая её на поисковик.
С инженерной точки зрения, эта стратегия оптимально балансирует между удовлетворенностью пользователей и корпоративной защитой.
Она использует естественное преимущество Reddit
в предоставлении разнообразных точек зрения, сохраняя при этом безопасную дистанцию между поисковой системой и потенциально проблемным контентом.
@MikeBlazerX
Знали ли вы, что Bing Search
использует только первые 10 терминов с запроса для вывода результатов поиска?
Ссылка на документацию:
https://support.microsoft.com/en-gb/topic/advanced-search-options-b92e25f1-0085-4271-bdf9-14aaea720930
Все операторы:
https://learn.microsoft.com/en-us/previous-versions/bing/search/ff795620%28v=msdn.10%29
Порядок действий:
https://learn.microsoft.com/en-us/previous-versions/bing/search/ff795639%28v=msdn.10%29
@MikeBlazerX
Крутой SEO-хак: превью-изображение
Это картинка, которая отображается рядом с вашим сниппетом в поисковой выдаче.
Делает ли она сниппет заметно привлекательнее?
О да!
Достаточно просто добавить изображение 1080x1080
на страницу.
Подождите несколько дней/недель, и оно должно появиться в выдаче.
-
Ещё один прикольный SEO-хак: добавление временной метки в поисковую выдачу.
Тим просто добавил небольшой текст на каждую страницу с палитрой:
"цветовая палитра создана {дата}"
Также обернул дату в элемент <time>
.
Спустя пару дней получили таймстампы в выдаче.
@MikeBlazerX
Если у вас высокий PageRank
, вы можете охватывать больше тем и запросов на одной странице.
Однако, если PageRank
ниже, возможно, придется создавать больше отдельных страниц с узконаправленным фокусом, чтобы эффективно ранжироваться.
Такая контент-стратегия требует тонкого подхода, который варьируется в зависимости от уровня авторитетности вашего сайта и стадии его развития.
При принятии таких решений критически важно анализировать шаблоны популярности поисковых запросов и понимать популярность темы, так как поисковики создают индексы на основе схожести запросов и связей между сущностями.
Возьмем в качестве примера сайт о ботанике.
В то время как авторитетный сайт может эффективно объединять темы вроде "как выращивать кукурузу" и "как собирать кукурузу" на одной подробной странице, новому сайту может быть выгоднее изначально разделить эти темы.
Такое разделение обеспечивает более точное соответствие поисковым запросам и лучшую начальную видимость, несмотря на потенциальное "размывание" общего PageRank
между несколькими страницами.
На этом этапе критически важна сильная внутренняя перелинковка между разделенными страницами для поддержания тематической релевантности и авторитетности.
Эта стратегия не подразумевает создание ненужных страниц под каждый минимальный вариант темы.
Вместо этого она фокусируется на создании отдельных страниц только для действительно различных и важных предикатов или сущностей, демонстрирующих значительный поисковый спрос.
При использовании одной и той же сущности на разных страницах предикат должен быть различным и обоснованным паттернами пользовательского поведения.
Например, в нише потребительских кредитов, термины "потребительский кредит" и "план погашения потребительского кредита" могут заслуживать отдельных страниц из-за высокого поискового объема и различного пользовательского интента, даже несмотря на их тесную связь.Document clustering
(кластеризация документов) играет решающую роль в этом процессе принятия решений.
Когда Google идентифицирует большие кластеры документов с высоким PageRank
вокруг определенных тем, он формирует новые индексы.
Такое поведение индексации в сочетании с размером документных кластеров и их совокупным PageRank
часто указывает на необходимость создания отдельных страниц для конкурентной видимости.
Долгосрочная стратегия часто включает последующую консолидацию.
По мере роста авторитетности сайта и PageRank
, объединение ранее разделенного контента может увеличить ценность каждой страницы и улучшить общую эффективность в поисковых системах.
Такая консолидация снижает вычислительные затраты для поисковых систем и потенциально приводит к лучшему ранжированию при более широком охвате темы.
Для тех, кто управляет существующими сайтами с установившимся PageRank
, остается валидным традиционный подход: начинать с микро-разделов и расширяться на основе показателей эффективности.
Ключевой момент — сохранять гибкость и адаптировать структуру контента на основе данных о производительности и меняющихся поисковых паттернов.
@MikeBlazerX
Под удар от обновлений ядра и спама часто попадают похожие группы ключевиков, пишет Лили Рей.
Несмотря на то, что такие страницы часто приносят большую часть органического трафика сайта, они часто попадают в категорию того, что Google называет "контент, написанный для поиска", что может привести к падению видимости всего сайта.
Владельцам сайтов бывает сложно осознать - почему контент, который приносит так много органического трафика, может быть одновременно проблемой для всего сайта?
ИМХО, всё сводится к целевому назначению контента; обычно он лишь косвенно связан (если вообще связан) с основной целью сайта и его ключевым предложением.
Поэтому Google может рассматривать это как контент, существующий исключительно ради SEO, а не как действительно полезный материал для пользователей, помимо генерации трафика и просмотров страниц.
Посмотрите, как изменилась выдача за год по запросу "quotes about life".
Сейчас там практически полностью новый набор ранжирующихся страниц и компаний.
@MikeBlazerX
Google проиндексировал огромное количество чатов с Grok
, но знают ли об этом пользователи, что их диалоги с Grok
могут быть видны другим через поисковую выдачу Google?
@MikeBlazerX
Гайз, писать мне в личку с тем что нравится канал еще не повод дальше спамить ваш оффер.
Я на такое не ведусь
@MikeBlazerX