7404
Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Nofollow - это подсказка, а не директива!Do-follow также является подсказкой, поскольку ссылки могут быть легко обесценены.
-
В доказательство этого, гляньте что пишет Чарльз Флоат:
У нас есть ссылка на главную страницу с Ahrefs.
Ссылка является NoFollow.
Мы уже ранжируемся по нескольким ключевым словам, связанным с Ahrefs.
На сайте есть 1 упоминание о Ahrefs.
(За скриншотами следуйте сюда)
@MikeBlazerX
CuriousSEO:
Мы заметили странную проблему после редиректа домена приобретенной компании.
Корпорацию Б поглотила Корпорация А, и corporationb.com теперь редиректит на corporationa.com.
Однако, тайтлы Корпорации А в СЕРПах изменились и теперь отображают название бренда Корпорации Б.
Это произошло в двух разных случаях поглощения у разных клиентов.
На сайте Корпорации А нет упоминаний названия Корпорации Б.
Схема полностью корректна.
Может, старые бэклинки вызывают это, хотя на все них тоже настроены редиректы?
-
Джон Мюллер:
Вам нужно использовать доменное имя как запасной вариант в разметке schema.org.
Гугл почти всегда использует именно это.
Через некоторое время (год? не знаю) попробуйте снова использовать название компании.
-
CuriousSEO:
То есть вы предлагаете что-то вроде этого на данный момент?
{
"@context": "https://schema.org",
"@type": "Organization",
"url": "https://www.corporationa.com",
"name": "corporationa.com",
// ... другие свойства
}
Стив Джобс был одержим наймом "лучших людей".
Но как на самом деле распознать исключительный талант?
Вот 10 неочевидных сигналов для поиска высокоэффективных сотрудников:
1. Им не нужен менеджмент.
Стив говорил: "Лучшим людям не нужно управление".
Как только они знают цель, они сразу берутся за дело.
Спросите:
"Какое крутое достижение вы реализовали без указаний сверху?"
Слушайте про самостоятельность и находчивость.
2. У них загораются глаза, когда вы говорите о вашей миссии.
Джобс показывал кандидатам прототип Мака.
Если они не загорались энтузиазмом, он их не брал.
3. Они самоучки.
Стив нанимал людей, одержимых обучением.
Дипломы переоценены.
Спросите: "Какому навыку вы недавно научились сами — и почему?"
Исключительные люди никогда не перестают учиться.
4. Они терпели неудачи.
Серьёзные неудачи.
Настоящие таланты не боятся рисковать — и с треском проваливаться.
Стив ценил людей, способных подняться и стать сильнее.
5. Они вызывают полярные мнения.
Лучшие люди имеют твёрдую позицию.
Они яростно спорят — но меняют мнение, когда их переубеждают.
Стив обожал хорошие дискуссии.
6. Они художники, а не профессионалы.
Джобс хотел видеть людей, которые относились к своему делу как к искусству.
Именно они доводят, улучшают и совершенствуют до состояния "безумно крутого".
7. Они упрощают хаос.
Стив говорил: "Простое может быть сложнее сложного".
Исключительные люди превращают хаос в ясность.
Это их суперсила.
8. Они притягивают таланты.
А-игроки нанимают А-игроков.
Они как магниты для других исключительных людей.
9. Они одержимы деталями.
Детали имеют значение.
Джобс мог зациклиться на внутренностях продуктов — даже если их никто не видел.
Великие люди глубоко заботятся о мелочах.
10. Они стремятся к величию.
Высокоэффективные люди отказываются довольствоваться "достаточно хорошим".
@MikeBlazerX
Google внезапно решил неправильно интерпретировать локализованные страницы веб-сайта — выбирая французскую версию как каноникал для немецкой, немецкую для испанской и так далее.
Естественно, неканонические версии выпали из индекса Google, что вызвало болезненное падение трафика.
Все эти страницы оказались в категории "Дубликат, Google выбрал другой каноникал, чем пользователь".
Поэтому я сделала то, что сделал бы любой сеошник: тройную проверку каноникал и hreflang тегов, пишет Ксения Демченко.
Они были абсолютно в порядке.
Так... что же на самом деле помогло?
Мы продублировали каноникал теги в HTTP-хидере (хотя они уже были правильно реализованы в HTML-коде и остались там).
Это вроде как противоречит рекомендациям, поскольку Google рекомендует использовать только один вариант.
Но в моём случае это сработало, и проблема исчезла навсегда.
@MikeBlazerX
Как быть заметным одновременно в поисковиках и LLM (часть 2/2)?LLM не видят слова, а видят эмбеддинги, причем сущности с похожими значениями располагаются ближе друг к другу.
Это помогает в обработке неоднозначности и сохраняет контекст в длительных разговорах.
Для видимости в LLM нам следует:
— Использовать язык, богатый сущностями
— Строить семантические связи через линкбилдинг
— Оптимизировать структурированные данные на основе сущностей
— Фокусироваться на семантическом поиске, а не только на ключевых словах
Косинусная близость
Когда LLM получает запрос, она вычисляет косинусную близость между эмбеддингом запроса и эмбеддингами сохраненного контента.
Более высокая косинусная близость означает более близкие эмбеддинги и более высокую вероятность выбора для генерации ответа.
Косинусная близость действует как показатель релевантности и помогает с устранением неоднозначности сущностей.
Она позволяет LLM понимать связанные сущности, даже если они не упоминаются напрямую.
Для увеличения косинусной близости:
— Укрепляйте кластеры сущностей, пиша о связанных концепциях
— Используйте естественный язык со структурированными данными
— Создавайте контент, отражающий кластеры с высокой близостью
— Включайте семантические вариации
Значимость сущностей
Значимость сущности указывает, какие сущности наиболее важны в контенте.
Когда ключевые сущности последовательно появляются в важных структурных элементах и поддерживаются семантически связанными терминами, они становятся высоко значимыми, улучшая косинусную близость с релевантными запросами.
Чтобы повысить значимость, стратегически структурируйте контент с сильными вступлениями, которые подчеркивают ключевые сущности, включайте детальные описания и усиливайте сущности, используя связанные термины везде с внутренними ссылками на релевантный контент.
Моносемантичность
Моносемантичность относится к словам или концепциям, имеющим единственное, однозначное значение в контексте.
Эта ясность облегчает обработку для LLM и увеличивает косинусную близость между эмбеддингами.
Для оптимизации моносемантичности:
— Укрепляйте кластеры эмбеддингов сущностей, упоминая связанные термины вместе
— Используйте разметку Schema для устранения неоднозначности
— Увеличивайте "плотность" контекста с более конкретной информацией
— Усиливайте внутреннюю перелинковку для закрепления взаимоотношений
Мультимодальная оптимизация
Семантическая структура применима и к мультимодальной видимости.
Косинусная близость работает для разных типов эмбеддингов (текст, изображения, видео).
Мультимодальный контент улучшает моносемантичность, увеличивает косинусную близость через усиление контекста, улучшает пользовательский опыт и соответствует тому, как люди обрабатывают информацию.
Оптимизируйте с помощью:
— SEO для изображений и визуального поиска
— Использования Schema разметки для мультимедийного контента
— Обогащения контента различными форматами медиа
Упоминания бренда и структурированные данные
Упоминания бренда важны не потому, что они напрямую повышают "авторитет", а потому что укрепляют позицию бренда как сущности в более широкой семантической сети.
Ценные упоминания контекстуально релевантны, появляются вместе со связанными сущностями и появляются в авторитетном, тематически релевантном контенте.
Структурированные данные остаются критически важными, даже если LLM не обрабатывают их напрямую.
Поисковые системы используют структурированные данные для понимания сущностей и отношений для Графов Знаний, которые влияют на обучающие данные LLM.
Структурированные данные помогают разрешить полисемию, улучшают семантическую близость для RAG-систем и питают AI Overviews.
В итоге, наличие сайта, оптимизированного для всего поискового пути и нескольких поисковых функций, создает основу для видимости в LLM, потому что такой подход соответствует тому, как LLM структурируют свои знания.
https://www.iloveseo.net/a-guide-to-semantics-or-how-to-be-visible-both-in-search-and-llms/
@MikeBlazerX
Учебник для основателей бутстрап-проектов в $1 млн
Делай:
— провиди исследование рынка. Проверь, есть ли достаточный спрос (соцсети, отзывы или поисковый трафик)
— создавай MVP с помощью ноукода, бойлерплейтов, ИИ, форков или вайтлейблов
— когда накопишь достаточно знаний, перепиши с нуля используя код
— расти через соцсети, SEO и листинги
— когда получишь 100 платящих пользователей, забудь про рост
— сфокусируйся на том, чтобы сделать этих пользователей супер-счастливыми для запуска сарафанного радио
— когда сарафан заработает, переключись на масштабирование маркетинговых каналов
— найми людей, чтобы всё работало на автопилоте
— запусти новый продукт для той же аудитории
— делай перелинковку и бандлы продуктов
— улучшай маржинальность, используя одних и тех же людей (дизайн, поддержка, разработка) для обоих продуктов
— запускай директории как преимущество для привлечения дополнительного трафика
— направляй весь трафик на свои продукты, увеличивай продажи
— автоматизируй всё что можно, чтобы убрать людей из процесса
Не надо:
— не создавай второй продукт, пока первый не стал успешным
— не трать деньги на рекламу до PMF
— не двигайся медленно, потому что скорость инноваций - это 90% успеха
— не отдавай на аутсорс до получения тракшена (подтверждения жизнеспособности продукта на рынке)
— не думай, что количество фич важнее качества
— не рассчитывай на легкую прогулку
— не увольняйся с работы ради полного погружения, если у тебя нет сбережений на 5 лет
— не нанимай людей до получения тракшена
— не ищи читкоды и короткие пути
— не копируй других без существенных улучшений
— не делай B2C
— не делай одно и то же снова и снова, надеясь на лучший результат
Я делал то, о чём проповедую, говорит Джон Раш.
Жаль, что я не знал этого раньше и потратил десятилетие, делая неправильные вещи.
Это работает.
Я не знаю, сработает ли это у вас.
Не следуйте слепо; лучше используйте это, чтобы отточить свою мудрость и найти свой путь.
P.S. PMF, это Product-Market Fit - состояние, когда продукт полностью соответствует потребностям рынка и имеет стабильный спрос среди целевой аудитории.
@MikeBlazerX
GeeksforGeeks получил ручник ...
Этот сайт имел почти 70 миллионов ежемесячного трафика по данным Semrush.
-
GeeksforGeeks: Статьи GeeksforGeeks пропали из поиска Google! 🚨
Недавно мы заметили, что статьи GeeksforGeeks не появляются в результатах поиска Google, из-за чего пользователям сложно получить доступ к нашему ценному контенту.
Мы хотим связаться с представителями Google, чтобы понять проблему и найти решение.
-Geeks For Geeks следует придерживаться своего програмного контента - похоже, они решили, что могут писать обо всем на свете, и Google будет их ранжировать.
Скриншот 1, Скриншот 2
Они буквально штампуют контент типа - "Имя известного человека + все об их жизни, браке или детях".
Что случилось с обучающими програмными материалами?
Скриншот 3
-
Злоупотребление масштабированным контентом.
Намеренное или непреднамеренное.
Как запрос "how many kids does rihanna have" относится к сайту GeeksforGeeks?
Скриншот 4
-
Сейчас в индексе всего 10 их страниц.
-
Пострадали не только GeeksforGeeks, несколько других также получили ручные санкции 1 апреля.
@MikeBlazerX
Субдомен субдомена субдомена субдомена
@MikeBlazerX
Как контент выглядит для владельца сайта и как он выглядит для посетителя сайта
@MikeBlazerX
Получи даты контента для твоих URL в G`oogle Sheets` за секунды!
Сделать это до глупости просто - достаточно занести список URL-адресов ваших сайтов в лист Google.
Перейдите на страницу и найдите нужный вам элемент, например DATE, щелкните правой кнопкой мыши на тексте и нажмите INSPECT.
Когда откроется devtools, он автоматически покажет вам выделенный HTML-элемент.
Щелкните правой кнопкой мыши, COPY > Full XPATH.
Затем вставьте XPATH в эту формулу
=IMPORTXML(A2, "Вставьте сюда свой полный xpath")
=IMPORTXML(A2, "/html/body/main/section/div[2]/div[2]/span[2]")
CASCADE по всем УРЛам.URL-адресам, дайте разрешение и запустите снова.URL-адрес и просмотрите исходный кодdatePublished", если он отображается в исходном тексте.function getDatePublished(url) {
const html = UrlFetchApp.fetch(url).getContentText();
const match = html.match(/"datePublished":"([^"]+)"/);
return match ? match[1] : "Not found";
}EXTENSIONS > APPS SCRIPT, вставьте скрипт, сохраните и запустите, дайте разрешения.=getDatePublished(A2)
VLOOKUP, чтобы сопоставить ваши URL-адреса с данными поисковой консоли за последние 3, 12 и 16 месяцев, загруженными в лист.AHREFS - все, на которые есть внешние ссылки, URL-адреса 301, те, на которые нет ссылок, удаляют контент и HTTP 410 URL-адреса, чтобы устранить их.
Бинг выдача с 9 рекламами!!!
Представьте, что LLM-ки ходят в Бинг за инфой и скликивают рекламу...
Оли так и пишет: "Когда мы тестировали OpenAi Operator, он использовал Bing и кликал по объявлениям."
@MikeBlazerX
Исправления технического SEO не могут восстановить трафик, если само техническое SEO его не сломало.
Резкое падение органического трафика крайне маловероятно из-за того, что что-то на сайте сломалось с точки зрения технического SEO.
В редких случаях я видел, когда техническое SEO становилось причиной значительного падения SEO-трафика, но это происходило из-за чего-то конкретного, например, неправильного robots.txt, сломанных каноникал директив или неудачного внедрения технических изменений, пишет Эли Шварц.
Обычно эти проблемы можно выявить быстрым просмотром исходного кода нескольких страниц или уточнением, были ли недавно какие-то серьезные технические изменения.
Тем не менее, многие люди сначала пытаются устранить проблемы с SEO, ища технические проблемы, тратя ценное время, которое следовало бы посвятить поиску реальных причин.
Каждые пару недель компании просят меня порекомендовать им агентство для аудита их сайта из-за внезапного (или даже постепенного) падения трафика, и я стараюсь быстро оценить, может ли техническая проблема вообще быть виновником, прежде чем позволить им совершить эту ошибку.
@MikeBlazerX
Все в восторге от траффикового потенциала ChatGPT.
Вот почему я настроен скептически, пишет Эндрю Чарльтон.
Для одного из наших клиентов, переходы из ChatGPT составили всего 0.0031% от общего трафика в феврале.
И это характерно для большинства моих клиентов (даже тех, кто сильно зависит от информационного трафика)
На первый взгляд, рост еженедельной активной аудитории ChatGPT - с 50 миллионов в январе 2023 до 400 миллионов к февралю 2025 - должен изменить ситуацию.
Но когда прогнозируешь рост рефералов, цифры остаются непримечательными.
Вот как это выглядит в конкретных числах:
Потенциальный рост еженедельной активной аудитории ChatGPT:
2025: 400 млн пользователей (текущее состояние)
2026: 800 млн пользователей (рост в 2 раза)
2027: 1.6 млрд пользователей (рост в 2 раза)
2028: 2.4 млрд пользователей (+50%)
2029: 3.36 млрд пользователей (+40%)
Прогноз доли реферального трафика (при пропорциональном росте):
2025: 0.0031% (текущее состояние)
2026: 0.0062%
2027: 0.0124%
2028: 0.0186%
2029: 0.0248%
Даже при агрессивных предположениях о росте пользователей, рефералы от ChatGPT будут составлять едва ли 0.025% от общего трафика через пять лет.
Это вряд ли можно назвать переломным моментом, если только Google полностью не утратит хватку в поиске.
Стоит отметить, что эти проценты предполагают пропорциональный рост всего остального - что в случае Google маловероятно, учитывая продолжающееся снижение кликов.
И, конечно, это только если реферальный трафик будет масштабироваться пропорционально росту пользователей (я ожидаю, что процент рефералов от пользователей вырастет, как объясню ниже).
Как и Google, OpenAI в конечном итоге потребуется как-то стимулировать создателей контента.
Модель Google, вознаграждающая сайты трафиком в обмен на парсинг их контента, успешно работала десятилетиями - авторы получают клики, а Google поддерживает свой поисковый индекс.
Если OpenAI хочет, чтобы качественный, свежий контент продолжал поступать в ChatGPT, компании, вероятно, придется усилить это соотношение.
Сейчас баланс нарушен, слишком много контента используется без достаточного вознаграждения.
Чтобы это изменилось, количество кликов должно увеличиться.
Так что, возможно, в долгосрочной перспективе рефералы из ChatGPT вырастут.
Но пока они едва заметны в общей статистике.
@MikeBlazerX
Техническое SEO не имеет значения для маленьких сайтов?
Мы сделали всего одно (1) изменение в загрузке контента, пишет Бет Вудкок.
Страницы, которые застряли в лимбо "Обнаружено - в настоящее время не проиндексировано", наконец проиндексировались и начали приносить как клики, так и показы.
Никакого обширного аудита, полного пустых слов.
Никакого 200-страничного отчета, набитого бесполезными оптимизациями.
Только одно целевое исправление.
Дело не всегда в бесконечных чек-листах или техническом жаргоне.
Иногда достаточно просто знать, за какой рычаг нужно потянуть.
На данный момент мы наблюдаем увеличение сеансов на сайте на 30% — это все данные, которые я могу видеть прямо сейчас.
В чем заключалось изменение?
Удаление эффекта постепенного появления текста (fade-in) на новых шаблонных страницах.
Весь контент был в исходном коде, но Гугл явно не оценил, что не мог видеть контент с переходом от "белого к черному" без скроллинга!
Как я пришла к выводу, что проблема в fade-in текста?
При проверке через GSC текст отображался очень светлым белым, а на "скриншоте" его не было.
Также я сравнила исходный и рендеренный код, чтобы увидеть, какие конкретно теги были добавлены для эффектов - весь контент присутствовал в HTML.
Взяла пару страниц, с индексацией которых были проблемы, отключила эффект появления текста, попросила Google проиндексировать их, и бум!
Практически мгновенная индексация!
@MikeBlazerX
Ян Шимечик:
Ребята, безопасно ли запускать редизайн сайта (полностью переработанный код, обновленный контент, но те же URL) в середине обновления ядра?
Или лучше подождать, пока оно завершится?
-
Джон Мюллер:
Просто запустите, когда/если он будет готов. Обновление ядра основано на данных за более длительный период времени.
В нем нет ничего, что могло бы повлиять на новый сайт, поскольку для нового сайта нет данных.
-
Джереми Старк:
В прошлом году мы запустили 2 сайта в середине обновления ядра, на одном сайте было много изменений URL... никаких проблем не возникло ни с одним из них.
@MikeBlazerX
Я перенес страницу с сайта, который пострадал от Google HCU, на другой домен и видимость выросла на 216% по сравнению с пиком до HCU, пишет Джеймс Брокбэнк.
Как и многие другие, я давно подозревал, что HCU на самом деле не связан с качеством самого контента страницы.
Полгода назад у меня появилась возможность самому провести тест: взять страницу с контент-сайта, пострадавшего от HCU, и опубликовать ее в блоге "реального бизнеса" (то есть не контент-сайта) в той же нише.
На самом деле я хотел создать тот же материал для бренда, с которым работаю, и вспомнил, что именно эта тема уже освещалась на контент-сайте, с которым я работал в 21/22 годах.
С согласия и понимания владельцев обоих сайтов я перенес пост с домена А на домен Б.
Оригинальный сайт до сих пор работает.
Это был отличный контент, написанный человеком, разбирающимся в теме.
Он заслуживал высоких позиций.
В контент были внесены небольшие изменения (внутренние ссылки изменены, упоминания бренда и экспертов заменены, добавлен СТА для бизнеса), но ничего существенного.
Я даже использовал те же изображения.
Я НЕ делал 301 редирект со старого URL на новый.
Это был на 99% тот же самый контент, просто на другом домене.
На оригинальном домене (на пике): 538 ежемесячных органических сессий.
На новом домене: 1700 ежемесячных органических сессий.
Это увеличение на 216%.
Это не призвано доказать, что изменение домена для контента, пострадавшего от HCU, заставит его снова ранжироваться.
Это был просто изолированный тест, который я провел из любопытства; у меня была идеальная возможность перенести контент на тематически релевантный домен (принадлежащий "реальному" бизнесу).
Но это, безусловно, интересно.
Если HCU "не понравился" контент (он исчез из топ-100), теоретически он не должен снова ранжироваться.
Сегодня он ранжируется по 400+ ключевым словам, включая множество позиций на первом месте и много featured сниппетов.
Фактически, он занимает первую позицию по основному целевому запросу.
Если верить каждому слову Google, этот контент не является полезным и не должен ранжироваться 🤷♂️
@MikeBlazerX
Корай Тугберк Гюбюр говорит, что просто потому, что Google краулит URL, не значит, что он сразу полностью обрабатывает или понимает контент.
Он ссылается на заявления Панду Найака, главного по ранжированию в Google, упоминая два важных момента:
1. Google не запускает RankBrain (свой продвинутый алгоритм ранжирования) для страницы, если она еще не попала в первые 20 результатов поиска.
2. Google не применяет свой алгоритм NavBoost к страницам, которые не получают кликов.
@MikeBlazerX
Как быть заметным одновременно в поисковиках и LLM (часть 1/2)?
Вам нужны семантика и SEO.
Позвольте представить вам Tratos, моего клиента из индустрии промышленных кабелей, пишет Джанлука Фиорелли.
Моя SEO-стратегия обычно следует таким тактическим шагам:
1. Определение онтологии домена клиента (промышленные кабели).
2. Определение связанных сущностей (обслуживаемые отрасли, такие как горнодобывающая промышленность, телеком, поставщики энергии, продукты и компоненты).
3. Использование Google как инструмента для получения запросов, связанных с нашими сидами сущностей, из таких функций как фильтры по темам, People Also Ask, People Also Search for и т.д.
4. Проведение анализа распознавания именованных сущностей (Named Entity Recognition) для запросов из СЕРПов Google.
5. Определение таксономии на основе поиска по сущностям.
6. Анализ путей поиска целевой аудитории (обнаружение, оценка и принятие решений)
7. Кластеризация фаз поискового пути через внутреннюю перелинковку, усиление тематического авторитета.
8. Проведение анализа эмбеддингов и косинусной близости для выявления контентных пробелов.
9. Использование этих инсайтов для обновления существующего контента и создания нового, с фокусом на значимость сущностей и ясность языка.
Дополнительный пункт включает анализ СЕРПов для понимания паттернов отображения Google для наших важных сущностей и запросов, что влияет на форматирование контента с изображениями, видео или специфическим форматированием текста.
Благодаря этой методологии, сфокусированной на семантике, видимость Tratos стабильно и значительно увеличилась.
Они начали конкурировать за запросы типа "[тип кабеля]" и "[тип кабеля] + manufacturer", а также за более общие информационные запросы, связанные с промышленными кабелями, например "What is voltage rating".
Их видимость расширилась в избранных сниппетах, People Also Ask, Things to Know, блоках изображений в поиске и даже в брендированных People Also Search For.
Что важно, их семантически оптимизированный контент, сгруппированный в тематические хабы, стал видимым для многих вариаций запросов, которые не были явно таргетированы.Затем мы заметили, что контент сайта постоянно цитировался и на него ссылались как на источники для ответов `LLM, связанных с темами промышленных кабелей, в ChatGPT, Perplexity, Gemini и AI Overview.
`
Так как же это произошло без специальных действий по оптимизации для LLM?
Ответ — семантика.
Понимание причин видимости сайта в LLM
Большая языковая модель (LLM) похожа на суперзаряженную функцию автозаполнения, прогнозирующую и генерирующую текст на основе паттернов, изученных из огромных объемов текста.
Она выбирает слова на основе вероятности, разбивая предложения на более мелкие части, анализируя контекст и вычисляя вероятность следующего слова.
Поиск по сущностям
Поиск по сущностям — ключевой фактор того, как LLM понимают контекст.
Сущность — это любой конкретный человек, место, вещь или концепция, которая даёт контекст языку.
Когда задается вопрос, LLM идентифицируют ключевые сущности и их взаимоотношения, используя контекст для устранения неоднозначности.
Классическое SEO фокусировалось на ключевых словах, но LLM и современные поисковые системы выходят за рамки совпадения ключевых слов, чтобы понять значение через сущности и взаимоотношения.
SEO на основе сущностей оптимизирует контент, чтобы поисковые системы и LLM понимали:
— Форматирование контента (формат обзора, формат списка и т.д.)
— Значимость сущностей (обсуждение связанных концепций)
— Чёткие контекстуальные сигналы (например, геолокализация)
Эмбеддинги
Эмбеддинги позволяют LLM "понимать" язык и контекст в масштабе.
Они преобразуют слова, фразы и сущности в математические представления (векторы), которые отражают их значение и взаимоотношения.
Похожие значения группируются близко друг к другу в этом многомерном пространстве.
Конец 1-ой части.
Продолжение следует...
@MikeBlazerX
Дэнни Салливан недавно пояснил, что у них нет "системы ранжирования брендов".
Он также сказал:
Это означает, что если вы создали бренд (любого размера - моя местная пиццерия как локальный бренд, который я узнаю), что-то узнаваемое, что-то, что люди целенаправленно ищут и которому доверяют до такой степени, что, возможно, ищут вас напрямую или приходят к вам напрямую, вы, вероятно, хорошо справляетесь с удовлетворением потребностей людей в целом.
И наши системы ранжирования пытаются вознаграждать сайты, анализируя множество сигналов, которые, по нашему мнению, согласуются с этим.
Так что если вы сайт, который хочет выделиться среди других сайтов, которые могут предлагать похожие вещи, стандартную информацию или что-то ещё — вы один в море вариантов, понимание того, как выделиться и построить свой бренд (любого размера, большого, маленького и т.д.) — это в целом хорошая идея... полностью независимо от поиска...
И делая это, вы, вероятно, соответствуете тому, что поисковые системы хотят вознаграждать.
Если в интернете доступно 155 000 рецептов жареной курицы, очень сложно понять, какие из них действительно лучшие. Но если ваш бренд узнаваем, это становится сильным сигналом в поиске.
Create Event...
Карты сайта передают PageRank 🔥
Согласно формуле PageRank, каждая страница изначально имеет базовое значение PageRank.
Это означает, что даже без входящих ссылок страница имеет минимальное значение PageRank, которое она может передавать другим страницам.
В патенте PR не говорится явно, что какие-то типы страниц будут передавать PR, а какие-то нет.
Это значит, что не исключено, что XML-страницы (например, карты сайта) тоже могут передавать PageRank 🙂.
И именно поэтому сеошники сообщают, что карты сайта с 10к или даже 1к страниц работают лучше, чем те, в которых 50к страниц... 😄
@MikeBlazerX
Меня только вчера подключили к клиенту, сообщает Кэтрин Вотье Онг.
Их отдел закупок работает вечность, поэтому, хотя мы работали вместе в прошлом году, оформление контракта заняло 6 месяцев.
За это время они перенесли свой сайт без моего участия, и он работает на Angular JS 18, причем все страницы, кроме главной, выдают 404-ую ошибку.
Теперь (на 2-й день сотрудничества) их разработчики (с которыми я еще не встречалась) выложили стейджинг в продакшн без защиты паролем и без noindex.
*вздох
@MikeBlazerX
Вот, оказывается, кому достаются все сливки...
@MikeBlazerX
SEO совет: забытое искусство управления картами сайта, которое позволяет предоставлять дополнительную информацию о странице.
Здесь можно применить различные дополнительные теги в зависимости от типа сайта, например, включить теги для страницы, связанной с видео, новостной статьей или изображениями.
Из этих трех вариантов мой любимый связан с включением тега, который часто дает значительное преимущество для более эффективной индексации контента на основе изображений, пишет Броди Кларк.
При тестировании этого подхода для различных типов сайтов, будь то интернет-магазины, онлайн-маркетплейсы или издатели всех видов, использование этих поддерживаемых Google тегов становится очевидным выбором.
В случае индексации и ранжирования изображений или видео во вкладках "Картинки" или "Видео", исходным URL на самом деле является страница (а не URL изображения/видео).
Из-за этого может показаться, что предоставление такой информации через сайтмапы не дает особой пользы, но мой опыт показывает, что польза выходит за рамки индексации и помогает Google лучше понимать эти ресурсы, по сути напрямую подключая их к поисковику.
Существует множество особенностей, связанных с такой реализацией, например, возможность использовать в карте сайта изображения, размещенные на внешних CDN, или принятие решений в случаях, когда на странице находится несколько изображений или видео.
Если вы управляете крупным сайтом, на котором регулярно публикуется важная информация в виде новостей, изображений или видео, обязательно используйте этот недооцененный инструмент, который поддерживается и рекомендуется Google.
@MikeBlazerX
Можно ли объединить 2 страницы и получить больше лидов и трафика, чем приносили раньше?
Да, и вот как!
Если ваши страницы конкурируют между собой, Google не знает, какую из них ранжировать.
И в результате – вы получаете трафик немного на одну и немного на другую.
Немного коммерческого трафика и немного информационного.
Так было у этого клиента.
Вместо сильной страницы про ABC Development Services, у них было три:
🔹 Сервисная ABC Development Services
🔹 Информационная статья - How to Develop ABC Development
🔹 Ещё статья - ABC Development Best Practicies
Что мы сделали?
1️⃣ Смерджили всё в одну страницу → перенесли информацию в блоки FAQ + обновили структуру
2️⃣ Удалили дублирующий контент → оставили только ту страницу, которая лучше всего конвертировала (важно!)
3️⃣ Добавили внутренние линки → чтобы другие страницы сайта передавали авторитет именно на этот лендинг
На сайте клиента была статья "... ABC App Development", которая ранжировалась в топ-3.
Но проблема – с неё не приходило ни одного лида.
Почему?
🔹 Google воспринимал её как основной результат для запросов про ...ABC App Development.
🔹 Из-за этого коммерческая страница оставалась в тени.
Если SEO трафик не конвертирует – проблема может быть в том, что Google ранжирует "не ту" страницу, а у людей другой интент.
Результат:
🔹 Коммерческая страница вышла в ТОП 3-10
🔹 x5 переходов на сервисную страницу
Поэтому самое время убрать полностью каннибализацию и даже пожертвовать не конверсионным трафиком!
Также ищите вчерашний пост чтобы прочитать ещё что было сделано!
@MikeBlazerX
Обычно SVG-изображения хороши для веб-производительности 🚀
Когда вы находите огромный SVG-файл, это обычно не из-за самого векторного изображения... а скорее из-за растровых изображений, встроенных внутрь него.
Я только что нашел страницу, загружающую два SVG по 17 мегабайт, сообщает Мэтт Зейнерт.
@MikeBlazerX
Оказывается, частое размещение постов в социальных сетях - отличный способ быть процитированным в LLM.
Вы можете использовать LLM, чтобы резюмировать то, что кто-то (кто активно общается в социальных сетях) сказал на заданную тему...
Это может стать хорошей отправной точкой для написания статьи, создания видеоролика и т. д.
@MikeBlazerX