Что нужно сделать для внутренней оптимизации сайта. Обязательный список
Сегодня я решил собрать вам простой, но полезный чек-лист для самостоятельного аудита сайта. Всё это – обязательные действия перед запуском вашего продукта.
1. Карта сайта. В больших проектах без карт – никуда. Рекомендую настроить автообновляемую карту, куда будут записываться все новодобавленные URL.
2. Ошибка 404. Обращайте внимание на то, чтобы 404-я страница отдавала 404-й код, проиндексированные страницы не отвечали 404-й ошибке, а на всех типах страниц код был корректен.
3. Проверка robots.txt. Это осуществляется в панели GSC. Также вы можете проверить любую страницу на открытость или закрытость для роботов.
4. Зеркало сайта. У сайта должен быть только один адрес. Дублирование с «www» может плохо сказаться на основном домене.
5. Индексирование. Посмотрите на выдачу индексированных страниц в разных поисковиках. Если разница весомая, значит есть проблемы. Первым делом проверьте наличие важных страниц в индексе.
Пример: site:serpstat.com
6. Технические дубли. Чтобы устранить дублирование, нужно настроить 301 редирект и атрибут «rel=canonical» с дубля на целевой адрес и использовать метатег «robots= noindex,nofollow». После этого не забудьте закрыть дубль.
7. Сохраненная копия страницы. Проверьте видимость текста в сохраненной копии, навигационных ссылок и наличие каких-либо не показанных пользователю элементов.
8. Микроразметка. Важно посмотреть корректность разметки на всех страницах разного типа, ведь именно разметка «schema» дает подробную информацию о сайте, влияет на CTR.
9. Мобильная адаптация. Адаптация под «мобилку» – просто обязательна. Проверяйте все страницы вручную со смартфона, рекомендую даже использовать несколько операционных систем.
10. ЧПУ адресов. Урла больше 100 символов быть не должно, важно, чтобы не было подчеркиваний, кавычек и пробелов, а все символы только в нижнем регистре.
11. Цепочка редиректов. Чаще всего используют постоянное и временное перенаправления (301 и 302 редиректоры). О редиректах я писал здесь.
12. Скорость загрузки. Стремитесь к показателю в 200 мс. Для проверки используйте специальные инструменты (вот линк 1, линк 2, линк 3).
––––
Напишите в комментах, кто пользовался чек-листом и было ли это полезно. Может кто поделится другими версиями оптимизации?
@gelo_seo
Как бесплатно проверить производительность сайта
С самого начала стоит понимать разницу между производительностью и скоростью. Часто встречаю мнения, что эти два понятия относят у одному и тому же. Это не так. Производительность только отчасти зависит от скорости. Здесь также стоит знать и о других факторах: архитектура кода, рендеринг контента.
Проверка с помощью Performance
Google Chrome DevTools Performance — классный инструмент, который поможет разобраться с производительностью. Инструмент сложный, зато бесплатный (поэтому кто не хочет платить, погружайтесь в тему).
Как начать проверку
Для проверки доступны несколько опций — CPU и Network. Первая опция тормозит процессор, а вторая занижает скорость интернета. Здесь может возникнуть вопрос: для чего стоит всё замедлять? Именно на медленном соединении и частоте можно лучше увидеть проблемы сайта.
Анализируем сайт
1. Измеряем плавность отрисовки. Эта функция измеряется в количестве кадров в секунду. Оптимальное значение — 60 кадров за секунду. Если же есть проблемные места, то на графике отображается красная полоса.
2. Измеряем нагрузку на процессор. Этот параметр измеряет CPU. И если на графике имеются участки с максимальной нагрузкой, то это звоночек для оптимизации.
3. Скриншоты этапов загрузки. Самый лучший вариант, если сперва загружаются элементы первого экрана. Также можно увидеть проблемы в коде сайта.
————
Performance даёт возможность проверить любую страницу. Программа непростая, зато если разобраться, можно выявить много дефектов сайта. Удобно то, что инструмент находит конкретный проблемный участок в коде.
Пользовался ли кто Performance? Может кто-нибудь использует другие инструменты?
@gelo_seo
Мануал по EAT-факторам в Google
С 2018 года к сигналам асессоров прибавились EAT-факторы (“Expertise, Authoritativeness, Trustworthiness” или “Экспертность, Авторитетность, Доверие”).
Помимо YMYL-сайтов (финансы, новости, здоровье, безопасность и т.д.), EAT-факторы влияют на ресурсы, которые не относятся к данной тематике, но на них есть статьи на YMYL-темы. Поэтому важно понимать и своевременно адаптировать сайт под высокую оценку по EAT-факторам.
Вкратце расскажу об EAT:
Экспертность – Google предпочитает контент, написанный компетентными авторами в своей нише, и этот контент должен находиться на соответствующем тематике ресурсе.
Авторитетность – это репутация автора, контента и домена в целом.
Доверие – это надежность и безопасность сайта, а также достоверность контента
Как же получить высокую оценку по EAT-факторам?
Google говорит, что работа над EAT – постоянная долгосрочная задача, поэтому помимо компетентности, нужно запастись терпением. При этом, кое-что можно менять прямо сейчас. Вот пару рекомендаций.
1. Качественно проработайте раздел “О нас”
Полные сведения о компании (проекте, бренде и т.д) – это ключевой фактор получения высокой оценки от Google, поскольку правильно оформленный “О нас” отвечает всем критериям EAT. Можете посмотреть, как это сделали мы.
2. Старайтесь приобрести положительную репутацию
Очевидно, что положительная репутационная оценка основана на внешних сигналах – упоминания, ссылки на ваш ресурс, отзывы. В Serpstat реализовали это просто вынеся в отдельный раздел на сайте. Наращивайте ссылки и упоминания пропорционально своему росту и вы увеличите шанс на хорошую оценку.
3. Демонстрируйте заслуги и достижения
Это могут быть награды или клиенты с громким именем. Для клиентов такой раздел на сайте – показатель профессионализма и компетенции, для асессоров – это сигнал о доверии и авторитете. Вот так сделали мы.
———
Конечно, в каждой нише (e-commerce, edtech и т.д.) будут свои нюансы, но общие правила для всех одни. Не могу сказать однозначно внедрение EAT-факторов в ранжирование сайтов это хорошо или плохо, но нам, SEOшникам, остаётся только с этим мирится и адаптировать ресурсы под вышеупомянутые критерии.
@gelo_seo
Сложность фразы
В основном, все считают сложность фразы какой-то метрикой зависящей от количества ссылающихся доменов или ссылок у конкурентов, которые находятся в топе по этой фразе, но этот подход не совсем правильный.
Мы рассчитываем новую "сложность" и она учитывает кроме ссылочного ещё другие параметры, а именно — насколько сильно в ранжировании по другим фразам находится конкретный урл из топа, какие это фразы (коммерческие или некоммерческие) и много других параметров, которые относятся к самой странице.
То есть, сначала мы высчитываем сложность страницы, а затем мы считаем сложность фразы.
* Если вы хотите выйти в топ по конкретной фразе, то вам нужно стать лучше, чем урлы конкурентов по отдельно взятой фразе.
@gelo_seo
Как проще всего анализировать ссылки и что сделать в первую очередь
Когда анализируете донора и у него много ссылающихся доменов, смотрите что это за домены и какое количество среди ссылающихся доменов на blogspot, это самая распространённая ситуация, когда определённые домены, PBN спамят blogspot и используют как источник ссылок.
Заходите в список внешних ссылок домена и сортируете по кол-ву исходящих ссылок, соответственно вы найдёте страницы, которые больше всего переспамленны, посмотрите их кол-во, так как часто бывает что большая часть ссылок, которые ведут на домен донора, ведут с переспамленных страниц.
Аналогичным образом можно найти страницы, с которых нужно убрать ссылки и отправить в disallow, заходите на список ссылок входящих и сортируете по количеству от большего к меньшему и первые ссылки будут, как правило с переспамленных доменов.
Что такое переспамленные домены? Те домены, которые имеют более 500 внешних ссылок, явно нужно убирать.
Распределение семантики на несколько страниц не всегда полезно
Иногда, при высокой конкуренции, следует собрать семантику на одну страницу, а не раскидывать её по многим.
Как это проверить?
Достаточно просто: посмотрите, сколько страниц ранжируются по определённой группе запросов у ваших конкурентов, а сколько у вас.
Это можно сделать в нашем инструменте «Мониторинг позиций». Закидываете фразы с большого кластера, которые вас интересуют → добавляете конкурентов → заходите в раздел «страницы» и анализируйте, количество ваших страниц по запросу и страниц конкурентов.
Исходя из этой информации можно принимать решение о том, стоит ли объединять страницы или лучше идти по стратегии «один кластер = одна страница»
t.me/gelo_seo
Как проанализировать реальных конкурентов по урлам
Нелегкая задача, это найти те урлы, с которыми действительно конкурируете. Просто анализировать статистику по топ урлам и смотреть с кем вы конкурируете это не совсем то, потому что на самом деле семантика по запросам будет большая и те страницы в основном категорийные
Лучший вариант решения, это зайти в SEO анализ "страницы лидеры" по вашему целевому запросу и выбирать статистику не по супер высокочастотным и не слишком низкочастотным, так будет более актуальная картина. Там можно увидеть те урлы конкурентов, с которыми вы действительно конкурируете и посмотреть приблизительно количество ключевых слов у них, а также какой примерный трафик и соответственно сделать выводы.
Я считаю что это очень недооценённый функционал и поработав с ним можно добиться хороших инсайдов для своего продвижения.
+ тут есть шеры по Facebook и если вы анализируете информационный портал, то четко узнаете какой контент лучше шериться и расходиться в массы.
<a href="mysite">ЕБПТСПАМТУТ</a>
Простой и прикольный совет как быстро проверить переспамленость анкор-листа. Особенно этот совет поможет проанализировать большие анкор-листы с десятками тысяч анкоров.
Нужно выгрузить анкор-лист с сервиса анализа ключевых слов, допустим: Serpstat и проверить частотность этих фраз и стоимость в CPC.
Таким образом можно быстро определить сколько из тех анкоров в твоем листе коммерчески привлекательны и соответственно насколько заспамлен анкор-лист.
Важно: Если в анкор-листе много коммерчески привлекательных фраз — можно попасть под фильтр поисковой системы.
Частый вопрос: сколько Nofollow должно быть?
Так как nofollow не передают ссылочный вес, то вроде они и не особо нужны. Но их задача несколько иная, они помогают уменьшить вероятность спама.
Предлагаю взглянуть на диаграмму, на ней показаны проекты которые не покупают ссылки (жёлтый столбец), то есть у них естественная ссылочная масса. Ua коммерческие, успешные проекты (явно покупают) и вообще все сайты. Итого диапазон nofollow - от 10 до 20 % это норм.
При этом я посмотрел, что у проектов, которые успешно развиваются на начальных этапах nofollow ссылок может быть до 50% и затем это соотношение постепенно снижается.
Важно: Вся эта разбавка ссылочного профиля нужна только для одного, для того чтобы уменьшить вероятность что ваш ссылочный профиль посчитают спамом и если уменьшать такую вероятность, то ссылки лучше работают.
Привет, меня зовут ‒ Олег Саламаха.
В оптимизации сайтов я со времен, когда можно было прописать Keywords и все уже отлично работало :)
В 2005 году во время учебы на факультете прикладной математики, начал активно интересоваться и заниматься оптимизацией, а также интернет-рекламой. Вскоре увлечение переросло в нечто большее и стало основой для начала карьеры, как специалиста в сфере SEO.
Спустя 15 лет я являюсь основателем многофункциональной SEO-платформы Serpstat, которая насчитывает уже более 400 тыс пользователей.
По роду своей деятельности я часто сталкиваюсь с интересными кейсами и процессами, которые обычно остаются "под капотом".
Теперь буду делиться ими в этом канале. Кратко и по делу.
Как оценить работу SEO-специалиста и какие есть этапы
Качество выполненной работы часто определяет точность поставленного ТЗ. Согласны?
Отсюда два вопроса:
1. Как правильно поставить ТЗ?
2. Как измерять качество?
Начать стоит с того, что в начале работ SEO-специалиста над проектом, сам проект может быть на разных этапах его развития.
Я обычно определяю три основных этапа:
1. Сайт только запущен
На этом этапе перед SEO специалистом стоят такие задачи:
‒ Первичный аудит сайта на наличие технических ошибок и их исправление.
‒ Работа с сбором и кластеризацией семантики.
‒ Проработка структуры сайта.
‒ Регулярный мониторинг ошибок на сайте и их исправление.
‒ Оптимизация индексации страниц сайта.
‒ Проверка нагрузки, которую может выдержать сайт.
‒ Оптимизация страниц по основным факторам поисковых систем.
‒ Оптимизация скорости загрузки сайта.
Сайт можно добавить в аудит и мониторить его ошибки, а для контроля специалиста, в общем, смотреть количество ошибок до\ после работ, также важно обращать внимание на "критичность" ошибок.
В целом этот этап включает в себя общую подготовку и оптимизацию сайта для последующей работы с наращиванием ссылочного веса, выхода в топ и закрепления полученных позиций.
На этом этапе не стоит ждать трафика и продаж, так как в первую очередь сайт должен быть готов к тому чтобы он мог конкурировать с другими сайтами в выдаче поисковой системы.
2. Этап наращивание статического веса сайта
На этом этапе:
‒ Работа с созданием контента на сайт. ( семантика + тз на статьи как пример, оптимизация контента, другие типы страниц)
‒ Линк-билдинг.
‒ Мониторинг позиций, сравнение с конкурентами в выдаче.
‒ Распределение ссылочного веса, работа с перелинковкой.
‒ Регулярный аудит сайта на наличие ошибок и их исправление.
Вышеописанные задачи включают в себя множество этапов и очень вариативны, так как стратегия и подход будет отличаться в зависимости от проекта.
На этом этапе SEO специалист должен максимально проявить свои навыки, проработать стратегию и создать четкий "флоу" работы над проектом, и найти путь в "топ" 🙂
Также тут уже можно считать не только начатые и выполненные задачи, но трафик.
3. Стратегия и укрепление позиций
После выхода в топ 3 по основным ключам проекта, следует переходить к удержанию этих позиций. На этом этапе проект уже получает регулярный трафик, имеет ссылочный вес, его страницы быстро попадаю в индекс, можно четко выделить конкурентов в разрезе источника трафика.
Очень важный этап, к которому к сожалению добираються не многие, именно тут важно не сохранить и регулярно поддерживать получение результаты.
Важно смотреть как наш сайт ведет себя относительно конкурентов, обязательно мониторим позиции + смотри долю рынка относительно конкурентов, также регулярно оптимизируем страницы, ведем работу с контентом и ссылочным весом.
На этом этапе SEO маркетинг может больше внедряться в бизнес процессы, так расширяя продуктовую линейку например, можно получать новую семантику, позиции, трафик, продажи.
Или тестировать новые стратегии получения трафика, контент-маркетинга, добычи ссылок, оптимизации.
Все такими же стабильными метриками остаються:
1. Трафик на сайт
2. Качество трафика
3. Поставленные/выполнение задачи
———
Чтобы правильно поставить техническое задание SEO-специалисту, нужно:
‒ провести диагностику текущего состояния сайта.
‒ определить метрики и задачи, с которыми будем работать.
‒ замерить их значения перед началом работ.
‒ поставить цели – спрогнозировать оптимальные значения, которых можем достичь.
SEO-специалист поработал хорошо, если динамика позитивная, то есть:
‒ Целевой трафик растет.
‒ Сайт получает топ позиции и удерживает их.
‒ Стоимость посетителя падает.
‒ Прибыль по источнику organic > Затрат на SEO (включительно с рекламой).
Эффективность работы SEO-специалиста оцениваем по изменению контрольных метрик «до» и «после».
А еще, можно воспользоваться готовым списком задач для SEO аудита сайта.
@gelo_seo
Как защититься от парсинга и не потерять позиции в поисковой выдаче
Парсинг – автоматический сбор данных с различных ресурсов. В общих чертах это работает так: программа-бот обращается к странице целевого сайта, разбирает на части его HTML-код и забирает из него нужную информацию.
Чаще всего этот прием применяют конкуренты: если парсить одну и ту же группу сайтов, можно получать постоянно обновляемые данные о ценах, товарных запасах, изменениях в товарной группе. Также парсится и внутренняя часть сайта: семантика, элементы кода, метатеги и т.д.
Доступ ботам к сайту можно заблокировать. Но поисковые системы также являются своего рода парсерами – они отслеживают новую информацию и индексируют ее. Потому подобная блокировка может привести к потере позиций в поисковой выдаче.
4 способа защиты от парсинга без последствий для SEO
1. Добавление ссылки. При копировании контента в тексте появляется ссылка на источник. Метод не защищает от кражи информации. Но если посмотреть обратные ссылки на свой сайт, можно увидеть, кто сделал копипаст. В теории копипастер ссылку может удалить, но часто ее просто не замечают.
2. Персонализированный контент. Чем чаще в тексте будет упоминаться бренд, название продукта и его уникальные характеристики, тем сложнее и дольше будет правиться копипаст. Если текст будет скопирован ботами, узнать копипастера можно будет с помощью Google Alerts, настроив его под уникальный запрос.
3. Ловушки для ботов – «honeypot». Приманки, представляющие собой ссылку, по которой не будут переходить пользователи, но будут переходить боты. Это позволяет собрать данные о методах сбора роботами информации, чтобы в дальнейшем их блокировать по определенным параметрам.
4. Использование сервисов DMCA protected, CloudFlare, Distil Networks.
Что НЕ нужно использовать для защиты:
1. Капча (captcha). Запрос на ввод перенаправляется на сторонний ресурс, где капчу вбивают вручную, после чего запрос перенаправляется обратно. Для парсеров обход капчи не является проблемой, но раздражает пользователей и добавляет проблемы с индексацией.
2. Запрет на выделение текста или его копирование в буфер. Защищает контент только от ручного копирования, но не защищает от кражи контента из HTML-кода.
Важно! Все эти методы в большей степени направлены не столько на защиту контента, сколько на то, чтобы определить копипастера. Если кража контента зафиксирована, в первую очередь попробуйте договориться с ним об удалении контента напрямую. Это сэкономит деньги и время.
Не получилось – обратитесь к хостерам, а также в поддержку поисковых систем. На международном уровне можно воспользоваться законом DMCA, суть которого – защита авторского права в области цифровых технологий. Действует в США, но могут подать жалобу и нерезиденты.
@gelo_seo
Какой метод закрытия от краулинга используют чаще?
Есть сайты, которые закрываются от краулинга ссылочными индексами, а конкретно закрываются от сервисов наподобие Serpstat, Ahrefs, Semrush и прочих.
Из-за закрытия от краулинга довольно сложно определить количество таких сайтов, и все же нам удалось просканировать определённую массу сайтов и построить статистику, которая демонстрирует, каким именно методом они закрыты от сканирования.
Так выяснилось, что около 60 тысяч сайтов закрыты в robots.txt и около 200 тысяч сайтов закрыты c помощью http access.
Определили выбор большинства, а какой метод выбирать вам и какой более надёжный, оставлю на ваше собственное рассуждение :)
@gelo_seo
Индексация и ранжирование, в чём разница?
Одна из ошибок новичков это непонимание разницы в ранжировании и индексации.
Ранжирование и индексация - это два разных процесса и они независимы. Если ваша страница есть в индексе, не факт что она участвует в ранжировании.
Особенно если это молодой сайт и недавно залетевшая в индекс страница.
То есть отправка на переиндексацию добавит вашу страницу в индекс (если добавит), но это не гарантирует добавление в ранжирование.
Закрепим:
Ранжирование сайта — сортировка сайтов в поисковой выдаче, применяемая в поисковых системах.
Индексация сайта — процесс добавления сведений о сайте роботом поисковой машины в базу данных.
Ранжирование высококонкурентных запросов.
Иногда все пути, которые работают для стандартных запросов не работают для высококонкурентных.
На первый взгляд, всё вроде хорошо, всё в топе, а какие-то высокочастотные запросы никак не залезут в топ. Это может касаться не только высокочастотных, но и среднечастотных запросов в зависимости от тематики.
Если ваша страница ну никак не хочет зайти в топ, то в этой ситуации нужно посмотреть интенты страниц, которые есть в топе по вашим ключевым словам.
В основном в высококонкурентных тематиках топ распределён на несколько интентов, то есть какая-то группа сайтов отвечает на одну группу запросов, другая группа сайтов отвечает на другую группу запросов. Это относится к запросам, которые без явного интента.
Пример:
Запросы с явным интентом: купить ноутбук.
Без явного интента: ноутбуки.
Когда человек вводит такой запрос - непонятно что он хочет сделать. Поэтому тут нужно зайти в списки сайтов в топе и посмотреть интент страниц, которые находятся в топе, как это сделать ?
Запросов таких немного, поэтому нужно поработать руками, это самый надёжный способ. Выписывайте вопросы, на которые отвечает анализируемая страница, так делайте для всех страниц в топ 10.
Итог:
После такой ручной пробивки вы найдёте группы интентов, которые подойдут для продвижения своих страниц в топ. Как правило, часть страниц будет отвечать на запрос "купить", часть страниц будет отвечать на информационные запросы.
Как распределены домены в индексе google Ukraine
Каждый может узнать количество ключевых фраз для конкретного домена.
Мы знаем общее количество фраз в базе google Ukraine ( 306.1M )
Но, информация о том как распределено это количество ключевых фраз среди доменов, — малодоступна.
Мы сделали статистику о том, как распределены ключевые фразы среди доменов, то есть, сколько доменов занимают верхушку списка по кол-ву фраз, сколько в середине и т. д.
Получилось весьма интересно, есть статистика по топ 100 и отдельно сделали статистику по топ 10.
Несколько нюансов о X-Robots-Tag
Есть три способа закрыть страницу от индексации
1. Через файл robots.txt.
2. В мета тегах.
3. X-Robots-Tag.
О третьем способе расскажу подробнее. Вы можете отправить специальный тег, X-Robots-Tag в хедере страницы и собственно в этом хедере вы можете прописать индексировать страницу или нет, тег аналогичен meta robots.
В чем опасность? Дело в том, что не так часто сеошники заглядывают в хедер и обнаружить что страница закрыта от индексации в X-Robots-Tag достаточно сложно, поэтому вы должны знать что существует такой тег и проверять его если индексация у вас вызывает какие-то сомнения.
По исследованию имеющихся данных, выявил что около 3% сайтов таки используют X-Robots-Tag, но напомню, самый надежный и быстрый способ убрать страницу из индекса ‒ отдавать в хедере 404 (так делать не ок, но это быстро поможет скрыть страницу вместе с удалением по запросу из вебмастерки)
Чем полезен Bing Webmaster Tools сеошнику?
Google search console привычный инструмент для работы сеошника, но сегодня расскажу о аналогичном, но не таком популярном в СНГ SEO инструменте как Bing Webmaster Tools.
Эта тулза на самом деле очень полезна, так как позволяет:
1. Быстро отследить все ошибки ресурса без множества платных аудитов, а система аналитики ускоряют индексацию сайта в разы.
2. В отличие от похожих проектов, в ней существует возможность без подтверждения собственности использовать инструменты для получения аналитических сведений о ресурсе. Это позволяет получить необходимые отчеты не только о своем сайте, но и площадках конкурентов.
3. Можно увидеть подробную информацию о структуре своего сайта.
4. Доступна информация о обратных ссылках. Хоть их тут не так много, как видит google, все же это хороший источник информации.
Какая польза от редиректов?
Хочу начать с часто обсуждаемой темы редиректов, иными словами, с дроп-доменов и использованию их для того чтобы придать вашему домену больше траста.
Дроп-домен - это домен, у которого истек срок регистрации и используется двумя способами:
1. Для создания PBN сети.
2. Для создания редиректов на целевой домен.
Про редеректы поговорим подробнее. Основной смысл такой, регистрируется домен у которого уже есть ссылки и этот домен редиректится на основной домен, соответственно ссылочный вес редиректа перетекает на целевой домен, а это повышает траст.
Факт:
Сеошники в этой теме делятся на два лагеря:
1. Те, кто говорит что редиректы работают.
2. Те, кто яро доказывает что это бессмысленно.
Я не буду вставать ни на чью сторону и делать выводы, а просто покажу вам стату топ 5 сайтов которые используют редиректы настроенные с других доменов.
Статистика собрана по локальных рынках, сайтах с доменной зоной .ru .ua, а выводы насколько это успешно уже сможете сделать сами ;)
Я выкинул со статистики домены хостеров, потому что в основном они редиректят истекшие домены на себя и выходят в топ по редиректам.
Топ 5 по .ru, .ua по входящим редиректам с других доменов
1. storeland.ru
2. aviasales.ru
3. tiu.ru
4. prom.ua
5. besplatka.ua