Шон Патрик Си из Seo Hacker решил поделиться опытом, как он определяет низкокачественные страницы на сайте.
Для начала вспомним, что есть качественная страница для Гугла:
1. Содержит уникальный контент.
2. Представляет уникальную ценность. Т.е. какую ценность несет страница помимо уникального текста, чем она отличается от остальных.
3. Ссылки на страницу. Входящие ссылки говорят ПС, что на эту страницу стоит ссылаться.
4. Ссылки с высококачественных страниц. Гугл смотрит не только на наличие входящих ссылок, но и на качество страниц, с которых идут ссылки.
5. Страница отвечает запросу. Если страница полностью закрывает поисковую потребность пользователя, и он возвращается на поиск, чтобы решить уже другую задачу, то ПС считает, что такая страница полностью ответила на запрос.
Добавляем к сигналам еще 6 вполне очевидных пунктов:
6. Страница должна быстро загружаться.
7. Должна быть оптимизирована под десктоп и мобайл.
8. Не должна содержать грамматические ошибки.
9. Нетекстовая информация должна содержать текстовую расшифровку. Так метатег alt должен быть прописан у изображений, видео сопровождается транскрипцией и т.д.
10. Контент должен быть хорошо написан и структурирован.
11. Есть релевантная внутренняя перелинковка.
Как не стоит определять качество страницы:
1. Проведенное время на сайте. Такой параметр может сбивать с толку, ведь люди могут больше времени проводить на сайте вследствие многих причин. Кто-то любит тщательно все вычитывать, кто-то никак не найдет крестик, чтобы закрыть баннер и мучается с этим, кто-то вычитал всю информацию на странице, но ответа так и не получил, даже переходя по внутренним ссылкам, и пошел снова на выдачу.
2. Показатель отказов. Высокий показатель отказов приемлем в тех случаях, когда страница отвечает на простой запрос или же вы варитесь в тематике, где дальше одной страницы пользователи не ходят.
3. Ассоциированные конверсии. Страница не конвертирует пользователя согласно вашим целям. Но это не значит, что она низкокачественная.
Лучше смотреть на следующие параметры и показатели:
1. Общее количество визитов.
2. Количество просмотренных страниц на 1 визит.
3. Количество входящих ссылок.
4. Число ссылающихся доменов.
5. Количество расшариваний в социальных сетях.
6. CTR на поиске.
7. Не является дубликатом в глазах ПС.
Я намеренно пропустил некоторые пункты, потому как посчитал их слишком сомнительными и необоснованными.
Пора подойти к факторам ранжирования. Что именно учитывают поисковые системы, смотрите в следующем уроке курса "Введение в SEO за 30 дней": https://youtu.be/tJ_iLMNmtxo
Читать полностью…Очень сложно быть популярным и одновременно независимым. По крайней мере сейчас. Павел Дуров рассказал, как на него давили ФБР и предположил, что творится с IT-компаниями в США. Google и Apple - две американские компании, продукты которых использует весь мир. И мы совершенно не знаем, что творится за кулисами https://vc.ru/p/durov-usa-pressure
Читать полностью…Как поисковые системы оценивают качество поиска и кто такие асессоры, какие задачи они выполняют? Об этом вы узнаете из следующего урока: https://youtu.be/v6_IQw_NWJs
Читать полностью…В 5 уроке по seo мы поговорим о том, как поисковые роботы видят сайты, какие документы сканируют и на что обращают внимание, что делать, если ваш сайт написан на яваскрипте или имеет флеш-навигацию: https://youtu.be/2jjUAxJ-xZk
Обязательно комментируйте и оценивайте каждый урок, был ли он для вас полезен.
Сегодня традиционный вебинар по семантике. Поговорим об инструментах сбора lsi фраз и какой из них я считаю пока что лучшим:
https://youtu.be/w_f5Ko1LgcE
Про LSI я рассказываю давно и за это лето ко мне обратились за комментариями минимум трое разных представителей рынка, которые создают свои инструменты. Ребята, хватит планировать и комментировать, просто сделайте! )
Как устроен поисковый краулер и что можно сделать для ускорения индексации своего сайта. Смотрите в следующем уроке: https://youtu.be/SlXkgda24g0
Читать полностью…Второй урок курса "Введение в SEO за 30 дней" посвящен поисковой выдаче и типам запросов. Что и зачем из запросов извлекает поисковая система и что должны выделять оптимизаторы: https://youtu.be/XTW3LtGrmNs
Читать полностью…До сих пор есть удивительные в своей наивности люди, которые верят отзывам, публикуемым на всяких форумах или в агрегаторах. (Есть, конечно, особые случаи типа booking.com, где отзыв можно оставить только о гостинице, где ты реально побывал, но речь не о закрытых системах)
Индустрия фейковых заказных отзывов - довольно развитый сегмент. И вот по нему нанёс неожиданный удар всё тот же машинный интеллект: теперь отзывы о ресторанах он пишет совершенно неотличимые о тех, которые оставляют в Yelp белковые пользователи. Некоторая часть SMMщиков могут остаться без заказов. Собственно, на этих отзывах, подчас эмоциональных, и шло обучение - и прошло успешно: в статье по ссылке отличные примеры текстов. Поскольку делали это ученые, тестирование "достоверности" и "полезности" сгенеренных отзывов было серьёзным - на реальных людях через Mechanical Turk. Этот вариант "теста Тьюринга" алгоритм прошёл - люди не могли отличить, какие отзывы машины, а какие людей. Впрочем, они признали отзывы и те и те одинаково малополезными ;))
https://www.theverge.com/2017/8/31/16232180/ai-fake-reviews-yelp-amazon
А сама научная работа, посвящённая атакам на публичные агрегаторы отзывов - https://arxiv.org/pdf/1708.08151.pdf Понятно, что владельцы систем теперь начнут тренировать свои алгоритмические защиты, и, как с прочим спамом, в итоге будет война алгоритмов друг с другом ;)
Заметка о том, как фейсбук заставляет проводить больше времени на сайте за счет небольших интерфейсных изменений. Дальше, рассказывается о «темных паттернах» и в конце поднимается вопрос об этичности такого поведения. Статья написана больше для недизайнеров, но в ней задается разумный вопрос.
P.S. У самого Quartz есть бесконечная подгрузка статей после прочитанной, что по сути является одним из способом удержания пользователя.
https://qz.com/1058674/facebook-news-feed-design-and-dark-ux-are-turning-us-into-sleep-deprived-internet-addicts/
Маженто выпустили бесплатный инструмент для кластеризации запросов (по топу Яндекса), аналог известного KeyAssort с возможностью импорта данных из KeyCollector. Нужны лишь лимиты yandex.xml. Обещают скластеризировать ядра любых объемов. Подробности и сама программа для скачивания здесь: https://ln2.in/KduWpHU
via @devakatalk
Когда работаю со структурой сайта, обязательно использую формат интеллект-карт. Это помогает лучше визуализировать дерево, согласовывать узлы и продумывать для каждого его свойства, и как связать узлы между собой перелинковкой. Держите краткий вебинар про mindmap для работы со структурой:
https://www.youtube.com/watch?v=avZzeyhdFPo
Пока вы измеряете эффективность рекламных каналов, другие договариваются с лидерами мнений, например, чтобы те добавили в название своего продукта нужный бренд. Причем, лидеры мнений это не только блоггеры, но также актеры или другие бренды. Так недавно произошло с Oreo и Android: https://vc.ru/n/android-oreo-present
Не удивлюсь, если сегодня Яндекс анонсирует новый алгоритм, названный в честь своего партнера.
Мир никогда не будет прежним. Бренды повсюда, и даже в emoji 🍟 Скоро нас ждут социальные льготы, если своих детей будем называть Редбул, Айфон или Мегафон. )) Люди всегда работали с лидерами мнений, чтобы иметь влияние на нужную группу людей, но сейчас это особый тренд в маркетинге. А тренды грех не использовать в бизнесе!
SeoProfy продолжает работу над новыми частями NaZapad. 30 августа выпуск 7й серии:
https://devaka.ru/events/nazapad-7
Основные темы дискуссии:
— Стратегии продвижения на запад для контентных проектов.
— Как находить и анализировать ниши.
— Что самое важное в создании контентного проекта под Amazon.
— SEO в Дубаи и ОАЭ, Австралии и Турции.
— Как делать линкбилдинг на запад без бюджета.
— Как массово анализировать топы, искать дропы и чужие наработки.
— Что можно автоматизировать при работе с сетками web 2.0
— Как использовать дроп-домены для построения сетки сайтов.
— Как получать органический трафик в Yelp.
Хорошая возможность прокачаться в зарубежном SEO. Участие бесплатное!
Было бы круто иметь инструмент, где мы указываем запрос и отправляем текст, а он нам показывает степень соответствия текста этому запросу, или среди множества текстов выбирает самый лучший в плане текстовой релевантности. Но такой инструмент сделать, к сожалению, невозможно. Так как текстовых составляющих очень много, и в поиске они участвуют не в линейной формуле, а обучают систему находить более весомые и качественные документы. Мы можем разве что посчитать BM25 и попробовать учесть словоформы и позиции слов, но это будет далеко не показатель.
Что такое текстовая релевантность и какие составляющие текста учитываются в поиске, смотрите в следующем уроке https://youtu.be/8xya4V9rJO8
Как легко спалить накрутку поведенческих факторов, кроме перечисленных здесь способов https://devaka.ru/articles/fake-behavior-detection
Поисковик знает о корреляции между рядом сигналов. Например, что хорошо сжимаемые тексты часто находятся на спамных сайтах, или что на более популярные сайты чаще ссылаются. Как только сигналы начинают выделяться, не соответствуя среднестатистической картине, на это можно обратить внимание.
Представьте старый сайт (более 5 лет), на который сослалось за все время всего несколько десятков ресурсов, на котором редко появляются новые страницы и посещаемость из поиска - это самый приоритетный источник (то есть, почти нет других каналов трафика). И в один момент его начинают больше любить/выбирать (увеличивается кол-во кликов), хотя при этом не увеличивается количество брендовых запросов, прямых переходов или ссылок. Ни один из дополнительных сигналов не подтверждает рост кликов на выдаче (причем, чисто по коммерческим запросам).
К тому же, накрутка ПФ резко меняет ранк сайта, в таких случаях Google включает функцию перехода между ранками, Яндекс может его полностью обнулять. Если вы что-то решили накрутить, то накручивайте всё сразу, вместе с кликами: качество и удобство сайта, его размер, качество и количество ссылок, количество прямых переходов и заходов из соцсетей, бредового поиска и отзывов ¯\_(ツ)_/¯
Хорошая статья для тех, кто планирует купить подержанный домен. 10 пунктов, на которые нужно обратить внимание перед покупкой: https://ln2.in/YBaXlrj
Читать полностью…Помните, я как-то писал про краулинг-игры одного знакомого? /channel/devakatalk/644
Так вот, сегодня вышло продолжение истории. Сергей просканировал 201 млн. доменов для сбора статистики. Самое интересное, что популярные зарубежные сайты далеко не всегда используют белое SEO, а просто склеивают домены.. и можно выявлять все сетки, в том числе закрытые от Ahrefs. Подробнее смотрите у Сергея на фб: https://ln2.in/LvBGnB8
Стоит ли каждый день выкладывать на канале ссылку на новый выпуск видео?
Да, я слежу – 405
👍👍👍👍👍👍👍 65%
Недельной подборки достаточно – 171
👍👍👍 28%
Не интересно/другое – 25
▫️ 4%
Публикуй после полной записи курса – 19
▫️ 3%
👥 620 people voted so far.
Сегодня речь пойдет о принципе работы поисковой системы. Какие этапы здесь существуют и что мы можем оптимизировать на каждом этапе? https://youtu.be/WHBxL_y9IeA
Читать полностью…Сентябрь традиционно стал для нас началом учебы. В связи с этим я запускаю новый курс "Введение в SEO за 30 дней". В течение последующего месяца каждый день будут выходить короткие видео-ролики, описывающие важные аспекты SEO, формируя целостную систему. Изучая данный курс, вы сможете с нуля разобраться, как работают поисковые системы, какие существуют алгоритмы, что включает в себя оптимизация документов и многое другое. Это хорошая возможность войти в тему, чтобы устроиться на работу джуниором или лучше понимать ваших подрядчиков. Курс полностью бесплатный и изложен простым языком.
Первый урок посвящен важнейшему вопросу, из-за которого, собственно, и появились поисковые системы — информационной потребности пользователя:
https://www.youtube.com/watch?v=leHtlYEWT1Q
Вчера проходила конференция nazapad, поэтому следующий выпуск вебинара мы выкладываем сегодня. Речь в нем об оптимизации документов под смешанные запросы, по которым в выдаче и коммерция и информационники. Нужно ли под эти запросы создавать страницы на статейнике? Игорь разбирает подробно.
https://www.youtube.com/watch?v=YK1loZn8B4U
Хрестоматийный пример, что такое современный крауд-маркетинг: http://ifoxy.ru/viewtopic.php?p=84592
Там же можно покликать на авторов и найти сети крауд-маркетологов. Как такое приживается на форумах, неясно:
http://ifoxy.ru/search.php?author_id=9572&sr=posts
Кому интересна эффективность подобных постов в плане SEO или трафика, проанализируйте продвигаемые ими сайты и активность веток. Кстати, видимость этого форума по серпстату всего 0.01, а посещаемость по симиларвебу около 150-200 чел/сутки из поиска при количестве страниц в индексе более 50к.
Devaka Digest #8 — свежая подборка полезных ссылок.
https://devaka.ru/articles/digest-8
🤖 Как Яндекс научил искусственный интеллект понимать смысл документов
https://ln2.in/uOqv1uI
✡️ Как Китай строит цифровую диктатуру
https://ln2.in/mQrmfdN
🆒 Обзор сервисов проверки уникальности текста
https://ln2.in/OmvHdcz
☄️ 13 неочевидных и практически применимых SEO-фишек
https://ln2.in/mbUGZFa
См. полный дайджест: https://devaka.ru/articles/digest-8
via @devakatalk #digest #дайджест
Только что в Яндеке запустили новый алгоритм — Королёв. Своеобразное продолжение "Палеха", только теперь учитываются не только связанные слова в загловках, но и весь текст.
Трансляцию смотрите по ссылке: https://www.youtube.com/watch?v=7rCKBf2dBwc
Через 5 минут будет мой доклад на SEODay про рабочие и нерабочие seo-стратегии.
Трансляция: https://webpromoexperts.com.ua/seoday/
Презентация: https://www.slideshare.net/sevasjack/seo-78949585/
B2B и B2C - разные секторы, с разным поведением пользователей. Соответственно, seo-стратегии для этих секторов также должны разниться. В чем именно разница SEO для B2B и B2C? Кратко рассказать сложно, поэтому читайте подробно в новой статье от гостевого автора, Елены Колесник, специалиста Penguin-Studio:
https://devaka.ru/articles/b2b-vs-b2c
Хорошие новости! Спустя несколько лет, ребята из Нетпик все-таки заканчивают разрабатывать MacOS версию программы Netpeak Spider. Жду ещё Люстика с KeyCollector. Официальный комментарий:
https://devaka.ru/pr/netpeak-spider#comment-40859
Если кто-то из вас занимается разработкой софта — делайте его мультиплатформенным уже при рождении. Это хорошая практика и гарантированный успех!