7404
Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer
Я купил Unicorn Platform за $0.8M в 2022 году, пишет Джон Раш.
С тех пор платформа выросла с 25 000 до 250 000 юзеров, но большинство маркетинговых экспериментов провалились, пока я не нашел работающие методы.
Все мои маркетинговые неудачи и успехи:
1. Партнерство с инкубаторами
Связался со всеми известными стартап-инкубаторами и договорился разместить юникорн как "перк".
Думал, это станет пассивным источником юзеров, но не получил даже одного платящего клиента.
2. Платная реклама
Слил кучу денег впустую.
Какой бы таргетинг ни пробовал, всегда получал абсолютно нерелевантную аудиторию.
Позже понял, что просто рекламировать продукт никогда не работает.
Нужно либо создавать халяву, либо быть гением креативов.
3. SEO
Не занимался этим до апреля прошлого года - это была моя главная ошибка.
Сейчас использую микс AI-генерированного контента с человеческой модерацией.
В декабре планирую заняться pSEO и SEO через бесплатные инструменты для дальнейшего роста.
4. Кросс-промо с партнерами
Вложил много сил, но оказалось, что фаундеры не особо умеют колабиться.
Видимо, у всех завышенное ЧСВ.
До сих пор единственный успешный колаб - с HuntedSpace.
5. SMM
Нанял девушку и вложил кучу времени и денег в развитие её личного бренда, но её переманил конкурент.
Пришлось начинать самому с нуля подписчиков.
Получилось лучше, чем ожидал - сейчас суммарно 100к фолловеров.
6. Инфлюенс-маркетинг
Пробовал платить инфлюенсерам.
В целом неплохо.
Но 90% инфлюенсеров - фейки, и их подписчики тоже.
Если инфлюенсер реальный, то ROI был неплохой при малых бюджетах ($100).
На больших масштабах ($1000) вообще не зашло.
7. Собственный подкаст
Хорошо сработало для построения бренда и доверия.
Но вложил около $40k.
Это недешево.
Сейчас рынок подкастов перенасыщен.
8. Конференции и выступления
Участвовал во многих программах как ментор, где продвигал Unicorn Platform.
Выматывает, но приводит юзеров.
Не масштабируется, поэтому делал в начале и потом прекратил.
9. Спонсорство
Спонсировал хакатоны, преподавателей и веб-директории.
Все три варианта хорошо отработали.
Легко масштабируется.
Планирую делать больше такого в будущем.
10. Реклама в рассылках и баннеры
Пробовал Product Hunt, Indie Hackers и многие другие.
Все провалилось.
Много заплатил, но результата ноль.
Также пробовал баннерную рекламу на Product Hunt - худшие деньги, потраченные на маркетинг.
11. Внутренний кросс-промо
Минимум 10% всех юзеров пришли из моих других продуктов.
Так что иметь несколько сайд-проектов - неплохая идея.
Даже бесплатных (например, директории).
12. Гостевой постинг
Написал много статей на популярных площадках (hackernoon, devto и другие).
Приносило трафик только когда статья становилась вирусной.
В остальных случаях - пусто.
13. RedditReddit давал огромный трафик даже без прямых ссылок в постах.
Реддиторы более активны, чем пользователи Twitter.
14. LinkedIn
Начал использовать LinkedIn год назад.
Хоть и скучная платформа, но дает отличный трафик с лучшей конверсией.
15. YouTube
Вложился в YouTube, но безрезультатно.
Продакшн сложный, но попробую снова.
16. Instagram, TikTok, Facebook
Эти платформы оказались пустой тратой времени для моей B2B no-code аудитории.
17. Холодные письма
Несмотря на найм профи, холодные письма не дали результатов.
Как и с рекламой, нужно прятать продукт за халявой.
18. Директории
Директории - один из лучших каналов, приносящий трафик на автопилоте.
19. Листинги в других директориях
Еще один пассивный источник трафика - размещение Unicorn в различных директориях.
20. Партнерская программа
Афилиатка хорошо пошла после повышения комиссии с 15% до 33%.
21. Кампании
Гивы и LTD не сработали и даже навредили бренду.
Больше не буду их делать.
@MikeBlazerX
Высокий уровень краулинга, например, 40 000 раз в день для сайта на 400 страниц, говорит о том, что сайт попал в "первый уровень индексации". Это значит, что Гугл ценит этот сайт.
Такой приоритет от Гугла может привести к повышенной видимости в поисковых фичах, таких как фичеред сниппеты, блоки "Люди также спрашивают" и панели знаний.
Шеринг контента на платформах типа TikTok и YouTube Shorts может увеличить количество краул-запросов.
Эти платформы были замечены в реферальных URL, что намекает на то, что Google переходит по этим ссылкам обратно на сайт.
Социальные сигналы, такие как лайки и комменты, играют роль в оценке качества контента, особенно на таких платформах, как Reddit.
Более высокие показатели краулинга могут ускорить обработку контента и его связь с другими сайтами, что потенциально влияет на ре-ранкинг.
Поддержание активного присутствия в соцсетях важно для привлечения внимания Гугла и обеспечения того, чтобы контент продолжал обрабатываться на более высокой скорости, что может повлиять на ре-ранкинг.
@MikeBlazerX
Обнаружение низкокачественных веб-страниц с помощью сжатия
Поисковики могут использовать степень сжатия веб-страниц как сигнал качества для выявления некачественного контента.
Сжимаемость показывает, насколько можно уменьшить размер файла, сохранив при этом его основную информацию.
В компьютерных технологиях сжатие работает путем определения повторяющихся паттернов, слов и фраз внутри файла и замены их более короткими кодами.
Этот процесс уменьшает размеры файлов, сохраняя при этом важную информацию.
Для поисковых систем эта возможность служит двойной цели: экономит место для хранения и помогает выявлять проблемный контент.
Важное исследование Microsoft 2006 года подробно изучило эту концепцию.
Исследование показало, что страницы с коэффициентом сжатия 4.0 или выше с вероятностью 70% являются спамным контентом.
При использовании только метода сжатия удалось выявить 27.9% спамных страниц, но при этом было 12.0% ложных срабатываний.
Однако настоящий прорыв произошел при комбинировании анализа сжатия с другими сигналами качества.
Такой мультисигнальный подход показал впечатляющие результаты: 95.4% общей точности в обнаружении спама, при этом правильно определялось 86.2% спамных страниц со значительным снижением фолс-позитивов.
Важно отметить, что только около 1.5% всех страниц показали высокие коэффициенты сжатия, что говорит об эффективности этой метрики для выявления определенных типов проблемного контента.
Этот метод остается актуальным и сегодня для обнаружения распространенных спам-техник, таких как дорвеи, дубли контента и переспам ключевыми словами.
https://dl.acm.org/doi/abs/10.1145/1135777.1135794
@MikeBlazerX
Список из 50 сайтов, которые дают обратные dofollow-ссылки на любой сайт.
Идеально подходит для повышения SEO, авторитета домена и привлечения органического трафика на ваш сайт.
В этом списке:
— Оценки авторитета
— Ссылающиеся домены
— IP-адреса
— Dofollow и Nofollow ссылки
— Ссылки с текста, изображений, форм и фреймов
— Статистика посещаемости сайта
🔗 Скачайте сейчас и повысьте уровень своего SEO:
https://seo.london/wp-content/uploads/2024/02/local-seo-2024.xlsx
@MikeBlazerX
Проверка одного из сайтов, пострадавших от HCU
Ключи, по которым они потеряли больше всего трафика — это имена знаменитостей.
Раньше они ранжировались на позициях 1-3, сейчас опустились ниже, но все еще в выдаче.
Их места заняли официальные инстаграмы селебрити и свежие новостные статьи о них.
Эти позиции им уже не вернуть.
Они и не должны ранжироваться выше официальных сайтов селебрити или новостей о них просто по запросу имени.
Вы не должны обгонять личный инстаграм Дженны Ортеги по запросу "Дженна Ортега" — хотя какое-то время этот сайт действительно это делал.
По данным SEMRUSH, самый большой спад за год был по запросу "рост человека".
Они упали с первого места на 4-е, пропустив вперед обсуждение на реддите и два сайта, специализирующихся на росте знаменитостей.
Контент у них неплохой, но те сайты гораздо более узкоспециализированные по этой теме, чем их одна статья.
4 паттерна:
1. Кластеризация запросов.
Сайты, которые теперь ранжируются выше них, имеют более четкие кластеры запросов.
Эти сайты более тематически сфокусированы.
2. Навигационные запросы.
У выигравших сайтов в сторонних инструментах показывается больше навигационных/брендовых запросов, чем у проигравших.
3. Раздражающая реклама.
Понятно, Google говорил, что реклама сама по себе не проблема — но она точно не помогает.
Крупные сайты имеют более сильные сигналы, которые перевешивают плохую рекламу.
У маленьких сайтов таких сигналов нет.
4. Они не заслуживали высоких позиций.
Многие потеряли трафик по запросам, где пользователь искал хэштег, а не сайт, или по "контенту", который по сути является общедоступной информацией.
Или по именам селебрити и т.д.
Эти позиции не вернуть.
-
Гипотеза по HCU / СПАМ.
Google не будет ссылаться на НЕЗДОРОВЫЕ или СЛАБЫЕ сущности, но их контент живет как ПАМЯТЬ в ИИ после того, как его зарубил апдейт HCU + СПАМ; поэтому он появляется в AI-обзорах (естественно, без указания авторства и источников).
Нездоровая сущность будет иметь слабые (ослабленные) бизнес-сигналы и потенциально могла попасть под HCU.
"Нездоровый" — это путь к состоянию "слабый".
@MikeBlazerX
Как отслеживать приоритет краулинга Гуглботом...
...без единого лог-файла.
Каждая страница в отчете об индексировании страниц в GSC имеет статус охвата (coverage state).
Статус охвата страницы показывает, почему страница либо проиндексирована, либо нет (например, "Прокраулено - сейчас не индексируется" и "отправлено и проиндексировано").
НО статус охвата страницы может меняться в обратную сторону.
Статус индексации страницы может откатиться назад с "отправлено и проиндексировано" до состояния, когда Гугл сообщает, что URL "неизвестен".
Например, обычно страница проходит следующие этапы:
⬇️ "URL неизвестен Гуглу"
⬇️ "Обнаружено - сейчас не индексируется"
⬇️ "Прокраулено - сейчас не индексируется"
✅ "Отправлено и проиндексировано"
Но со временем статус той же страницы может откатиться назад:
⬇️ "Отправлено и проиндексировано"
⬇️ "Обнаружено - сейчас не индексируется"
⬇️ "Прокраулено - сейчас не индексируется"
❌ "URL неизвестен Гуглу"
Это происходит потому, что статусы охвата отражают приоритет краулинга Гуглботом.
Чем меньше "важности" присваивается URL страницы со временем, тем больше она откатывается назад в процессе краулинга и индексации.
И тем больше меняется статус индексации с течением времени.
Такие статусы индексации как "Обнаружено - сейчас не индексируется" и "URL неизвестен Гуглу" для ранее проиндексированных страниц являются явными признаками того, что Гугл активно считает эти страницы низкокачественными.
@MikeBlazerX
Я добавляю комменты, сгенерированные ИИ, на свой блог, чтобы раскачать обсуждение с реальными читателями (ведь никто не хочет быть первым комментатором), говорит Niche Site Lady
А мне нравится, что они туда даже антивеганских троллей подмешивают!
Супер реалистично 😂AI-боты отвечают друг другу, а потом подтягиваются реальные юзеры, ха-ха.
Плагин называется "Comment Goblin".
@MikeBlazerX
Гуглобот упорно краулит сайт Даррена на Next.js только по HTTP/1.1, в то время как другие боты (например, Bing) используют HTTP/2+.
Это приводит к гораздо более медленному среднему времени ответа (776мс против 91мс на других сайтах), что влияет на эффективность краулингового бюджета.
Несмотря на наличие Cloudflare, HTTPS, HSTS-хидера, поддержки HTTP/2 и HTTP/3, а также TLS 1.2, Google делает около 25,000 краулов в день, но всегда по HTTP/1.1.
Дейв Смарт:
1. Метрики времени ответа в GSC не эквивалентны TTFB - они показывают время до последнего байта
2. Сетевой уровень гуглбота работает иначе, чем браузеры:
- Браузеры фокусируются на быстром отображении страницы
- Гуглбот приоритизирует эффективный краулинг в масштабах интернета
- Ресурсы ставятся в очередь и краулятся не обязательно одновременно
3. Преимущества HTTP/2 вроде мультиплексирования не критичны для краулинга/рендеринга/индексации
4. HTTP/2 создает дополнительную нагрузку как для сайта, так и для клиента
5. Для сайтов с менее частым краулингом или сильно кэшируемых сайтов HTTP/1.1 может быть эффективнее
6. Нет корреляции между HTTP/2 и улучшением позиций в выдаче
Джон Мюллер:
1. Google регулярно проверяет хосты на поддержку и эффективность HTTP/2
2. Для гуглбота основные преимущества HTTP/2:
- Мультиплексирование
- Сжатие хидеров
3. Критерии для перехода на HTTP/2:
- Сервер должен отвечать достаточно быстро
- 900мс для HTTP-страницы считается медленным
4. Главный фокус должен быть на улучшении скорости сайта
5. Более быстрое время ответа может привести к переходу на HTTP/2
6. Увеличение краул-способности не обязательно означает увеличение краулинга
7. Рекомендуется проверить SSR (Server Side Rendering) и отдачу кэша как возможные причины колебаний времени загрузки
@MikeBlazerX
Когда я ищу в гугле, как починить что-то в своей машине, мне не нужно гребаное AI-резюме, мне нужен 57-летний парень, который все еще выглядит ужасно неловко перед камерой после того, как отснял 3 000 видео по ремонту автомобилей. (Брайан Асман)
@MikeBlazerX
Больше никогда не буду продавать костюмы для Хэллоуина на Amazon, говорит Ярек Льюис.
Утро после праздника, а я уже получил больше 100 заявок на возврат.
Почти во всех причина указана "купил по ошибке".
Как можно "случайно" купить костюм за 200 баксов?
Это просто бесит!
@MikeBlazerX
"Это не общесайтовые санкции, это понижение на уровне страниц, которое применяется к каждому URL на одном домене"
@MikeBlazerX
9 "Скучных" проектов, которые приносят хорошие деньги
1. Расширение для Chrome, сканирующее CSS-свойства. Бизнес одного человека. Первые пользователи из групп в Facebook. Монетизация через разовые платежи. Выручка $70,000.
Getcssscan.com - Скриншот - Источник
2. Бесплатный сайт для проверки IP-адреса. Бизнес одного человека. Входит в топ-3,500 самых посещаемых сайтов в мире. Монетизация через Google AdSense. Оценочная выручка $1 миллион в год.
Whatismyipaddress.com - Скриншот - Источник
3. Онлайн-бизнес по созданию музыки для домашних животных. Бизнес одного человека. Рост через SEO. Приносит семизначную прибыль. Продан за восьмизначную сумму.
Musicforpets.co - Скриншот - Источник
4. Бизнес, помогающий людям писать резюме. Самостоятельный бизнес. Рост через рефералов. Монетизация через платный сервис. Приносит $10 тысяч в месяц.
Nodegree.com - Скриншот - Источник
5. Софт для учета рабочего времени для малого бизнеса. Полностью самостоятельный бизнес. Начинался как личный проект. Монетизация через подписки. Приносит $5 миллионов в год.
Ontheclock.com - Скриншот - Источник
6. Софт для выставления счетов для сантехников. Разработчик-одиночка. Маркетинг через SEO. Монетизация через подписки. Продан за шестизначную сумму.
Invoiceowl.com - Скриншот - Источник
7. Парсер email-адресов из соцсетей. Независимый бизнес. Нетехнический основатель. Монетизация через подписки. От $0 до $4,600 MRR за 5 месяцев.
Socleads.com - Скриншот - Источник
8. Софт для управления репутацией в медицине. Самофинансируемый B2B-бизнес. Монетизация через подписки. Генерирует $20 млн в год.
ReviewWave.com - Скриншот - Источник
9. Конструктор кастомных страниц оформления заказа. Самофинансируемый проект, начат как сайд-проект. Монетизация через подписки. Приносит $13,000 в месяц.
CheckoutPage.co - Скриншот - Источник
@MikeBlazerX
В рынке определённо есть ниша для продуктового SEO-консалтинга, специализирующегося на аудите работы агентств для клиентов, которые вообще не понимают, за что платят каждый месяц.
Текст со скриншота:
Я плачу SEO-компании 7000 в месяц за продвижение.
Я работаю в высококонкурентной нише, и мой DR сейчас на уровне 5.
Когда я только нанял эту компанию, показатель был нулевым, и они обещали поднять его до 10 в течение года.
Этого так и не произошло.
И тут со мной связывается эксперт и обещает поднять DR до 15 за три месяца или даже быстрее.
Вроде бы я верю, что он сможет это сделать, но...
💡 Если использовать слэш в конце урлов страниц - тогда можно создавать ресурсы в GSC даже на уровне отдельных страниц.
-
Как легко добавить несколько ресурсов в GSC с Python ?
Верификация всех возможных структур папок как отдельных ресурсов в GSC может занять много времени.
Чтобы упростить и масштабировать этот процесс, я использую простой Python-скрипт, который работает через API GSC.
Для начала убедитесь, что вы являетесь верифицированным владельцем основного домена, иначе вы не сможете массово добавлять ресурсы на основе URL-префиксов.
После этого настройте oAuth.
Простого API-ключа будет недостаточно, так как вам понадобится больше, чем просто функции для чтения.
После настройки API и авторизации в Google Cloud создайте ключ для сервисного аккаунта.
Скачайте JSON-файл с вашими ключами.
Для простоты перейдите на Google Colab и загрузите туда JSON.
Затем запустите следующий скрипт:
https://colab.research.google.com/drive/1vkEQe1DVuYaSMNlGm-IX7muja3TpSM9S?usp=sharing
Измените имя файла на ваш JSON-файл с ключами.
И запускайте!
Возможно, вам потребуется настроить таймаут, если вы хотите добавить несколько сотен ресурсов.
Квоты определены тут.
Вы также можете запустить Python-скрипт локально на своем компьютере, вот этот скрипт.
@MikeBlazerX
A/B тест по добавлению слова "best" в тайтлы товарных листингов показал значительный прирост в органической выдаче.
Эксперимент на одном e-commerce сайте продемонстрировал увеличение органического трафика на 11% с доверительным интервалом 95%.
Суть теста была простой - добавили слово "best" в начало тайтлов для тестовой группы страниц.
Гипотеза заключалась в том, что этот модификатор сигнализирует об авторитетности и качестве, при этом лучше соответствуя пользовательскому интенту.
Слово "best" часто используется в поисковых запросах при поиске товаров, что делает его отличным вариантом для повышения кликабельности в СЕРПах.
Положительные результаты говорят о том, что использование высокоинтентных модификаторов вроде "best" может улучшить как понимание релевантности страницы поисковиками, так и поведенческие факторы за счет лучшего соответствия поисковому поведению пользователей.
Для рынков, где цена имеет решающее значение, лучше могут сработать модификаторы типа "cheap" (дешевый) или "affordable" (недорогой).
https://www.searchpilot.com/resources/case-studies/adding-best-to-title-tags
@MikeBlazerX
Разные возрастные группы по-разному взаимодействуют с различными форматами контента.
Например, миллениалы предпочитают вебинары, а бумеры больше любят email-рассылки.
И хотя все возрастные группы потребляют короткие видео, не все из них любят читать блог-посты.
Поэтому, в зависимости от вашей целевой аудитории, возможно, придется адаптировать формат контента, чтобы привлечь нужную аудиторию.
Вот какие форматы контента предпочитает каждая возрастная группа:
@MikeBlazerX
SEO - это не спринт и не марафон...
SEO - это беличье колесо!
@MikeBlazerX
Редиректы не всегда работают так, как ожидается, особенно если страница не соответствует поисковому интенту пользователей.
Это подтверждает пример медицинского сайта, где страница хорошо ранжировалась по коммерческому запросу, связанному с медицинскими тестами, но пользователи ожидали возможности купить тесты напрямую, а не оформлять страховку.
Несмотря на высокий показатель отказов и очевидное несоответствие пользовательскому интенту, владельцы сайта отказались менять страницу — например, добавить ссылки на товары или обновить контент.
В результате было принято решение о редиректе страницы оформления страховки на страницу с розничными продуктами.
Однако это решение привело к неожиданным последствиям: вместо того чтобы ранжировать новую страницу с товарами, Google выбрал совершенно другую страницу из раздела о здоровье.
Это вызвало значительное падение позиций и трафика.
Особенно озадачивающим было то, что конкуренты успешно занимали топовые позиции с аналогичными товарными страницами.
Этот случай показывает, что Google оценивает страницы не только по содержимому, но и по их типу и назначению в контексте поисковой выдачи.
Когда первые позиции занимают товарные страницы, это означает, что конкуренция идет именно за эти места и важно учитывать сигналы как своего сайта, так и сайтов конкурентов.
Вместо внедрения редиректов более эффективным решением могла бы стать переработка страниц для устранения возможной каннибализации ключевых слов и улучшение внутренней перелинковки между связанными страницами.
Это помогло бы Google лучше понять релевантность каждой страницы для конкретных запросов и обеспечило бы пользователям удобную навигацию к нужному контенту.
@MikeBlazerX
Рабочая схема привлечения тысяч посетителей на блог через Facebook от Алекса Хокера
Система простая работает как часы.
1. Используем ChatGPT для генерации вопросов по вашей тематике, которые можно задать аудитории.
Вопросы должны быть провокационными или вызывать бурное обсуждение.
Цель - получить максимум комментариев.
При этом ответы должны легко конвертироваться в контент для блога.
Пример для тревел-блога:
"Какие главные ошибки совершают туристы, впервые приезжая в город X?"
Публикуем как текстовый пост на цветном фоне.
Придется поэкспериментировать с разными вопросами.
Не все из них получат одинаковый отклик.
2. Берем комментарии из самых обсуждаемых постов, загружаем в ChatGPT и создаем статью для блога.
Также используем ChatGPT для генерации 10 вариантов кликабельных заголовков.
3. Ищем вирусную картинку по теме поста.
В идеале - это должно быть вирусное изображение с вашей страницы (или хотя бы то, что набрало больше лайков), либо чужое.
Накладываем заголовок на картинку через Canva.
4. На этом этапе у вас есть проверенное изображение, которое привлекает внимание, и тема, которая точно цепляет аудиторию.
Заголовок может быть таким:
"Топ-10 ошибок, которые совершают все новички при посещении Нью-Йорка"
Публикуем пост в Facebook, а в первом комменте размещаем ссылку на статью в блоге.
@MikeBlazerX
80+ сигналов E-E-A-T, полученных из 40+ источников Google и патентов
E-E-A-T на уровне документа
🟡 Оригинальность контента
🟡 Полнота охвата темы
🟡 Релевантность альтернативным запросам
🟡 Качество грамматики и верстки
🟡 Объем контента
🟡 Частота обновлений
🟡 Разнообразие типов контента
🟡 Исходящие ссылки на авторитетные ресурсы
🟡 Связь с узнаваемыми сущностями в контенте
🟡 Использование релевантных n-грамм
🟡 Использование релевантных паттернов совместного появления сущностей
🟡 Долгосрочные поведенческие факторы документа (кликабельность, время на странице)
🟡 Согласованность между ссылками, тайтлами и контентом
🟡 Доверие, основанное на знаниях (соответствие общепринятому мнению)
🟢 Использование релевантных n-грамм
🟢 Частота обновлений
🟢 Разнообразие типов контента
🟢 Объем контента
E-E-A-T на уровне домена
(по всему сайту, разделу или сумме тематического контента)
🟡 Фактическая точность
🟡 Наличие неприемлемого контента
🟡 Долгосрочные поведенческие факторы по сайту
🟡 Соответствие доменного имени названию бизнеса
🟡 Сеть взаимосвязанных документов
🟡 Использование тематического словаря по сайту
🟡 Возраст домена и контента
🟡 Упоминания сущностей
🟡 Тематический фокус и оригинальность контента
🟡 Свежесть контента
🟡 Широкая vs нишевая направленность
🟡 Релевантность контента
🟡 Полнота охвата темы
🟡 Уникальный первоисточник
🟡 Частота тематических n-грамм
🟡 Долгосрочные поведенческие факторы по сайту/разделам (CTR, время на сайте)
🟢 Связь с подтвержденной бизнес-информацией
🟢 Меньшая потребность в выводах
🟢 Чистые ссылочные профили
🟢 Близость к доверенным сайтам
🟢 PageRank и разнообразие ссылок
🟢 Стабильно высокие позиции
🟢 Регулярное определение как навигационного ресурса
🟢 Узнаваемость бренда
🟢 Наличие неприемлемого контента
🟢 Широкая vs нишевая направленность
E-E-A-T на уровне источника
🟢 Качество окружения
🟢 Аутентификация авторов
🟢 Проверенные полномочия
🟢 История репутации и авторитетности
🟢 Тональность упоминаний и оценок
🟢 Влияние и одобрение коллег
🟢 Доверительные отношения между сущностями
🟢 Метрика вклада
🟢 История репутации и авторитетности
🟢 Последовательность контента
🟢 Подтвержденные полномочия
🟢 Упоминания сущностей
🟢 Метрика наград
🟢 Частота цитирования контента
🟢 История публикаций
🟢 Метрика вклада
🟢 Узнаваемость бренда
🟢 Присутствие в авторитетных структурированных онлайн-базах и энциклопедиях
🟢 Частота цитирования
🟢 Долгосрочная стабильность
🟢 Метрика заметных типов (Notable Type)
🟢 Связь автора с темами
🟢 Количество публикаций источника по теме
🟢 Популярность источника
🟢 Количество бэклинков/упоминаний источника
🟢 Доля контента источника в тематическом корпусе документов
🟢 Релевантность тематики
🟢 Паттерны поведения пользователей
🟢 Данные пользовательских сессий
🟢 История публикаций
🟢 Актуальность темы
🟢 Время с последней публикации источника по теме
-
🟡 внутренние факторы
🟢 внешние факторы и пр.
https://www.kopp-online-marketing.com/how-google-evaluates-e-e-a-t-80-signals-for-e-e-a-t
@MikeBlazerX
Почему SEO не получает больше бюджета: Десятилетие провальных SEO-стратегий
Что клиенты хотят получить от SEO: увеличение прибыли.
Что клиенты получают от SEO: контент для блога.
Даже сегодня я вижу, как SEO-специалисты только и говорят о контенте, контенте и ещё раз контенте.
Есть масса причин создавать контент.
Но он не влияет на продажи так, как многие думают.
Вот что происходит на самом деле.
Потребители делают то, что свойственно людям...
потребляют информацию.
Если я планирую купить новую ванную комнату, я буду долго изучать информацию о ванных комнатах.
Стили, советы, типы, изображения, фотографии, гайды и так далее.
В процессе потребления контента я постоянно буду менять своё мнение и взгляды.
Это называется "информационной средой".
Мы постоянно находимся в состоянии информационных потребностей, основанных на внутренних или внешних триггерах.
Однако в какой-то момент я решу купить новую ванную комнату.
Опять же, это происходит из-за внутренних или внешних триггеров... например, когда жена решает, что хочет новую ванную к определённому сроку.
Тогда мы входим в то, что специалисты по информации называют "средой задач".
Здесь у нас есть цель, проблема или задача.
Когда мы находимся в среде задач, мы входим в так называемое проблемное пространство.
Здесь у нас есть начальная ситуация - стартовое состояние.
И конечная ситуация - целевое состояние.
Часто нам приходится выполнять множество поисков решений для достижения желаемой цели.
Для новой ванной комнаты мне нужно найти подходящий вариант у надёжного продавца.
Возникают другие вопросы о цене, установке, гарантии и так далее.
И, конечно, в зависимости от товара или услуги, некоторые поиски решаются за минуты, другие - за месяцы.
Именно здесь SEO-стратегия проваливалась годами.
Слишком много SEO основано на создании контента для "информационной среды".
Часто когда эта информация уже существовала.
Всё делается с идеологией, что это позже повлияет на решение о покупке.
Трафик, трафик, трафик.
Вот только это не влияет на поведение при покупке.
Нет привязанности к бренду, и вас не запомнят.
SEO-специалистам стоит сфокусироваться на среде проблем.
Создавать контент, который говорит о проблемах, которые вы решаете.
Если посмотреть на самые успешные бренды в органическом поиске, вы увидите эту стратегию в действии.
2 примера:
— Топовые страницы Canva решают проблемы людей.
— Топовые страницы Veed решают проблемы людей.
Конечно, вы увидите, что топовые бренды создают много контента.
Это происходит по нескольким причинам.
Создание полезного контента для аудитории.
Штатные сотрудники хотели показать KPI хоть за "что-то".
Люди не знали, что ещё делать.
Дело в том, что есть 1000 способов рассказать о проблемах, которые вы решаете.
Некоторые продукты, как Canva, решают множество проблем.
Но если SEO-специалисты хотят получать лучшие и большие бюджеты, нам нужно стать более эффективными, целенаправленными и ориентированными на прибыль.
Оставьте рекламу рекламщикам.
Сфокусируйтесь на решении проблем ваших клиентов, и вы удвоите или утроите свою прибыль.
Вот это настоящее SEO.
@MikeBlazerX
Основной поисковый запрос для этой страницы изменился из-за того, как люди СЕЙЧАС ищут основную тему контента.
Изначальный контент использовал старую формулировку запроса.
Контент был качественным, но просто не соответствовал актуальной формулировке запроса.
На скриншоте - данные из GSC по запросу, отражающие как люди ищут контент СЕЙЧАС...
Страница всё ещё ранжировалась до обновления контента, но позиции были очень нестабильными.
Контент обновили, чтобы отразить новую формулировку в тайтле, в заголовке первого уровня (H1), и везде по тексту, где упоминалась эта тема.
По сути, просто убедились, что в контенте больше не используется старая формулировка.
Посмотрите, насколько стабильными стали позиции по этому запросу сразу после обновления страницы.
Буквально в тот же день, когда внесли правки.
Это напоминание о том, что нужно следить за такими вещами.
С качеством контента всё было в порядке.
Страница просто нуждалась в использовании правильной и актуальной формулировки запроса.
Опять же, просто, но эффективно.
@MikeBlazerX
Я обновил Nomads.com до PHP 8.2 с включенным Opcache, что позволило сократить загрузку страницы с 1000-2000 мс до ~250 мс (таким образом, в 4-8 раз быстрее), сообщает Levelsio.Opcache кэширует PHP-файлы целиком в оперативной памяти.
Я хакнул его забавным способом: чтобы держать весь датасет Nomads постоянно в оперативке сервера.
Поскольку весь сайт построен на данных о городах/странах (от страниц городов и списков стран до профилей юзеров с их маршрутами), критически важно, чтобы эти данные были всегда доступны и загружались БЫСТРО.
Без Opcache загрузка всего датасета занимала около секунды, а с включенным Opcache это происходит буквально менее чем за 1мс (1/1000 секунды).
Особенность сайта в том, что в отличие от других проектов, нельзя просто взять и выбрать ОДИН город из БД для показа - нужны ВСЕ данные, потому что это рейтинг городов/стран по всему миру.
При этом база данных Nomads.com просто огромная и содержит миллионы постоянно обновляемых (каждую минуту) показателей:
— температура,
— качество воздуха,
— уровень безопасности,
— криминальная статистика,
— удобство для пешеходов,
— лайки/дизлайки пользователей,
— отзывы,
— анализ тональности отзывов,
— и даже курсы валют (которые влияют на стоимость жизни!).
Каждый час робот (PHP-крон) сжимает эту базу данных в один датасет с финальными значениями: например, есть более 100 показателей скорости интернета в городе, он вычисляет их медиану и определяет, что в Бангкоке скорость интернета должна быть 45 Мбит/с.
Затем этот робот записывает PHP-файл, который буквально представляет собой финальный датасет в виде PHP-массива, и этот файл загружается при каждой загрузке страницы.
Обновление происходит каждый час, поэтому данные и рейтинги всегда свежие.
Этот датасет используется на каждой странице Nomads для разных целей:
1. показа лучших городов для жизни и удаленной работы,
2. возможности супербыстрой фильтрации без миллионов обращений юзеров к БД.
А с Opcache все это постоянно находится в оперативке.
@MikeBlazerX
Почему SEO-специалистам из агентств сложно перейти в инхаус?
Вот несколько различий в ожиданиях от агентских и инхаус сеошников, которые могут усложнить этот переход:
1) Ожидания по KPI
От агентских сеошников обычно ждут "Улучшения позиций" и/или "Увеличения трафика".
Поскольку агентства работают вне компании, им сложно отвечать за конверсию и выручку с органического поиска.
От инхаус сеошников ожидают роста выручки, и они могут влиять на это изнутри компании.
Работая с другими командами и даже выступая в роли продакт-менеджеров, создающих страницы под поисковый трафик, они могут напрямую влиять на конверсию и выручку.
2) Поддержка стейкхолдеров
Агентства обычно нанимаются одной конкретной командой.
Когда другим стейкхолдерам нужна помощь, они либо её не получают, либо попадают в конец списка приоритетов.
Команды даже могут нанимать разные агентства, которые работают друг против друга.
Инхаус сеошники работают на благо всей компании.
Все в компании нацелены на рост выручки.
Этот рост обычно влияет на их бонусы.
Поэтому в их интересах поддерживать все команды в организации, чтобы показать общий рост выручки с органического трафика.
3) Отчётность
Хотя некоторые агентства ведут отчётность для компаний, большинство выполняют конкретные работы, обещанные в контракте.
Такие агентства фокусируются на отчётах по выполненным работам, а не на регулярной отправке общих SEO-отчётов.
Инхаус сеошники обычно отвечают за весь органический поисковый трафик компании и должны отчитываться за всё.
Отчёты обычно отправляются группе стейкхолдеров ежемесячно, еженедельно и/или (да, даже) ежедневно.
Отчёты часто включают данные по выручке и объяснения, почему трафик и/или выручка растёт или падает.
Инхаус сеошник часто тратит 30-40% времени на поиск цифр и причин до (или после) отправки регулярных отчётов.
4) Продвижение SEO внутри компании
Большинство агентских контрактов чётко описывают выполняемые работы и ожидаемый результат.
Поскольку агентские специалисты не работают внутри организации, коммуникация ограничена, и им сложно влиять на команды, чтобы те выполняли необходимые для SEO изменения.
Поэтому большинство агентств обещают только предоставить рекомендации.
Если компания не делает работу, то это (к сожалению) их проблема.
От инхаус сеошников ожидают тесных связей с командами, на которые влияет SEO, и умения убедить эти команды делать необходимую для роста работу.
Продвижение SEO через общение - обязательное условие успеха инхаус сеошника.
-
Есть еще много чего, но это не влезет в рамки поста.
Расскажите в комментариях, какие различия заметили вы?
@MikeBlazerX
Выжимка из текста со скриншота:
Основа:
— Создал olly.bot - ИИ-ассистента, работающего через iMessage и SMS
— Фичи: интеграция с ChatGPT, поиск по вебу и напоминалки
— Метрики роста:
* Достигли 250К юзеров всего
* Пик - 70К WAU (еженедельных активных пользователей)
* В лучший месяц прирост составил 35К юзеров
* Особенно зашло в странах, где ChatGPT под баном
Бизнес-модель:
— Сначала все было бесплатно
— Использовали Azure-кредиты от Microsoft Startups (150К баксов)
— Ежемесячные расходы меньше 500$
— Поначалу рост 50% месяц к месяцу
После внедрения монетизации:
— WAU упал с 70К до 9К
— Только ~400 платящих юзеров по 4$ в месяц
— Рост просел в 10+ раз
— Разраб ушел с работы 4 месяца назад
— Висит ипотека
— Сейчас проблемы с удержанием и ростом юзербейса
-
Разница между бесплатными и платящими юзерами примерно в 1000 раз, основываясь на моем опыте, пишет Levelsio.
Набрать 100К бесплатных юзеров может каждый.
Но при конверсии в платящих, делите число фри-юзеров на ~1000 и получите около 100 платящих юзеров.
(примерные цифры)
Поэтому у компаний с венчурным финансированием такие огромные базы юзеров.
У Nomad List около 40К платящих юзеров - это было бы 40 миллионов, будь сервис бесплатным!
У Photo AI было 20К платящих юзеров - значит было бы 20 миллионов!
Хороший способ сравнивать перформанс венчурных и инди-стартапов.
@MikeBlazerX
Легаси SEO-инструменты прикручивают ИИ-чатботов к своим продуктам
@MikeBlazerX
У тебя очень специфическая проблема
Гуглишь
Находишь пост на Реддите 10-летней давности с точно таким же вопросом
0 комментариев
@MikeBlazerX
Самый низкий RPM (доход от рекламы на тысячу показов) в последнее время дает Google.
Но почему?
@MikeBlazerX