Расширенный поиск Google 🤓
Заметил в расширенном поиске Google такой селект с операторами, и вы все еще думаете, что Гугл не анализурет то, что вы видели в сливах? 😁
#google #слив
Слив внутренней инженерной документации Google Search API - часть 5
Про утечку читайте предыдущие посты по хештегу #слив 😉
Новые факты:
1. Google, возможно, игнорирует ссылки из контента, который не имеет отношения к делу (не релевантный контент).
2. Важны ссылки с сайтов в той же стране, что и ваш (об этом я уже писал в посте критерии при отборе доноров).
3. Google помечает ссылки, поступающие с высококачественных новостных сайтов.
4. Содержимое, окружающее ссылку, помогает ей придать контекст.
5. Ссылки с начальных сайтов или те, которые ссылаются с них, вероятно, имеют больший вес.
6. "Надежные источники" могут использоваться при определении вероятности того, что страница является спамом.
7. Ссылки со страниц с трафиком, вероятно, более эффективны, чем ссылки без него.
8. Ценность ссылки зависит от того, насколько Google доверяет главной странице сайта.
9. Если вы получаете ссылки на контент, который не является актуальным, есть вероятность, что эти ссылки игнорируются и, следовательно, не влияют на ваш рейтинг.
10. Google использует набор "надежных исходных сайтов", таких как New York Times и другие.
11. Ссылки с этих "высококачественных новостных сайтов", по определению Google, способны в некоторой степени повысить авторитет сайта.
12. Google может ссылаться на общее количество ссылок из надежных источников по определенному URL, значение "true" или "false", присваиваемое ссылкам, которые поступают из надежных источников, и, что интересно, на количество ссылок из надежных источников с текстом привязки, который соответствует условиям рассылки спама.
13. Google использует расчет, основанный на количестве ссылок из надежных источников по сравнению с теми, которые таковыми не являются, для определения вероятности того, что страница является спамом.
14. Самый важный, наиболее доступный и регулярно обновляемый контент хранится во флэш-памяти.
15. Менее важный контент хранится на твердотельных накопителях.
16. Еще менее важный или устаревший контент хранится на стандартных жестких дисках, что подтвердил Гэри Иллиес.
17. Наличие атрибута SourceType определяет качество источника ссылки в соответствии с уровнем, на котором существует контент.
18. Свежесть ссылок помещает источник ссылки в группу "высококачественных".
19. Google использует количество переходов на страницу, чтобы определить, на каком уровне она находится.
20. Если страница не получает кликов, она переводится на уровень "низкого качества".
21. При большом количестве кликов страница будет переведена на уровень "высокого качества".
22. Ссылки со страниц низкого качества не проходят уровень PageRank. Следовательно, эти ссылки не способствуют повышению рейтинга или показателя качества страницы.
23. Высококачественные новостные сайты относятся к категории полностью надежных.
24. Google придает большое значение свежему, актуальному контенту.
Источник:
https://digitaloft.co.uk/what-does-google-documentation-leak-mean-for-digital-pr/
#google #слив
Слив внутренней инженерной документации Google Search API - часть 4
По сливу читайте предыдущие посты по хештегу #слив 😉
Еще факты:
1. Эта утечка не вырвана из контекста, не устарела и не является неполной информацией.
2. Navboost, основанный на данных о кликах, чрезвычайно важный фактор ранжирования в поиске, и теперь благодаря этой утечке мы знаем, что это исходит от Chrome.
3. Существуют токсичные обратные ссылки, с документами связана функция badbacklinksPenalized.
4. Есть штрафной вызов за плохие обратные ссылки.
5. Google может ограничивать количество сайтов определенного типа, появляющихся в результатах.
6. Слова или фразы, которые ассоциируются с объектом могут повлиять на рейтинг в поисковых системах так же, как это делают ссылки (сразу вспоминается кейс от Михаила Шакина, где он говорил, что гостевой пост с брендом, но без ссылки показал хороший результат).
7. Существует оценка соответствия заголовка для сайта, а не только для отдельных страниц.
8. Соответствие заголовка страницы — важный фактор.
9. Google может указать ограничение результатов для каждого типа контента. Другими словами, они могут указать только количество X сообщений в блогах или количество Y новостных статей, которые могут появиться для данной поисковой выдачи.
10. Модуль QualityTravelGoodSitesData имеет функции, которые идентифицируют и оценивают туристические сайты, предположительно, чтобы дать им преимущество перед неофициальными сайтами.
11. Google определяет, какой контент можно или нельзя использовать из Knowledge Graph с LLM.
12. Возможно, Google с помощью LLM прогнозирует темы видео.
13. Google пытается определить количество усилий, затрачиваемых при создании контента. Основываясь на определении, мы не знаем, оценивается ли LLM таким образом весь контент или это просто контент, который, как они подозревают, создан с использованием генеративного ИИ.
14. Значимость обновления страницы влияет на то, как часто страница сканируется и потенциально индексируется. Раньше вы могли просто изменить даты на своей странице, и это сигнализировало Google о ее свежести, но Google ожидает более значительных обновлений на странице.
15. В модуле блога BlogPerDocData есть подражатель без определения, но привязанный к docQualityScore, скорее всего, это мера дублирования сообщений в блогах.
16. Механизм выборки робота Googlebot способен выполнять не только запросы GET. В документации указано, что он также может выполнять запросы POST, PUT или PATCH.
17. Google определяет, насколько коммерческая страница.
18. Успехом также считается поиск, при котором происходит клик и пользователь проводит на странице 5 минут, прежде чем вернуться в Google.
19. Ценность ссылок выше на страницах, которые имеют более высокий приоритет в индексе.
20. Twiddlers — это алгоритмы переоценки, которые работают между крупными обновлениями и сменой рейтинга в поисковой выдаче.
21. Чрезмерно оптимизированный якорный текст, особенно если он постоянно используется для ссылок на ваш сайт со стороны третьих лиц, похоже, вызывает спам-понижение этих ссылок.
22. Плохая навигация и домены с точным соответствием могут снизить ваш рейтинг.
23. У Google есть показатель наполнения ключевыми словами.
24. Google отслеживает срок действия доменов, поэтому они либо уже могут, либо скоро смогут обнаружить злоупотребления в отношении просроченных доменов.
25. Нет четкого упоминания внутренних ссылок как атрибута.
Источники:
1. https://sparktoro.com/blog/11-min-video-the-google-api-leak-should-change-how-marketers-and-publishers-do-seo/
2. https://searchengineland.com/how-seo-moves-forward-google-leak-442749
3. https://sheknowsseo.co/google-search-algorithm-leak/
#google #слив
Google подтверждает утечку результатов поиска, но призывает к осторожности 🫡
Мы предостерегаем от неверных предположений о Поиске на основе вырванной из контекста, устаревшей или неполной информации. Мы поделились обширной информацией о том, как работает Поиск и какие факторы учитываются в наших системах, а также работаем над защитой целостности наших результатов от манипуляций.
RU версия 14.000 строк описаний из слива документации Гугла
https://docs.google.com/spreadsheets/d/15XN1OwBtBZkU7XWewL7IKxeRSEAQpRwlO4MKg6QCGIM/edit?usp=sharing
#google #слив
Слив внутренней инженерной документации Google Search API - часть 2
Алгоритмы из слива:
1. Trawler – система сканирования веб-страниц. Он имеет очередь сканирования, поддерживает скорость сканирования и понимает, как часто меняются страницы.
2. Alexandria – основная система индексации.
3. SegIndexer – система, которая помещает документы уровней в уровни индекса.
4. TeraGoogle – вторичная система индексирования документов, которые долго хранятся на диске.
5. HtmlrenderWebkitHeadless – система рендеринга страниц JavaScript.
6. LinkExtractor – извлекает ссылки со страниц.
7. WebMirror – система управления канонизацией и дублированием.
8. Mustang – основная система подсчета очков, ранжирования и обслуживания.
9. Ascorer – основной алгоритм ранжирования, который ранжирует страницы перед любыми корректировками повторного ранжирования.
10. NavBoost – система повторного ранжирования на основе журналов кликов о поведении пользователей.
11. FreshnessTwiddler – система изменения рейтинга документов на основе свежести.
12. WebChooserScorer – определяет имена функций, используемые при оценке фрагментов.
13. Google Web Server (GWS) — это сервер, с которым взаимодействует интерфейс Google. Он получает полезные данные для отображения пользователю.
14. SuperRoot – это мозг Google Search, который отправляет сообщения на серверы Google и управляет системой постобработки для повторного ранжирования и представления результатов.
15. SnippetBrain – система, которая генерирует фрагменты результатов.
16. Glue – система объединения универсальных результатов на основе поведения пользователя.
17. Cookbook – cистема генерации сигналов. Есть указание на то, что значения создаются во время выполнения.
18. SiteFocusScore – фиксирует, насколько сайт придерживается одной темы.
Источники:
1. https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/ (работает под VPN)
2. https://ipullrank.com/google-algo-leak
#google #слив
Несколько примеров как можно клоачить 🫣
Клоакинг — это метод обмана поисковых систем, при котором посетителю сайта показывается одно содержимое страницы, а роботам поисковых систем — другое.
Apple получила от Google $20 млрд 🤑
За то, чтобы оставить поиск компании в браузере Safari по умолчанию. Сделку провели еще в 2022 году 😎
Вот он, настоящий монополист который душит за платные ссылки, дропы и паразитное SEO 👺
#google
Давайте коротко по апдейту в Гугле 🙌
1. Если просели позиции - это не значит, что они просели на совсем, Гугл будет постоянно мешать выдачу юузерам и работать над ее качеством (даже если вы сегодня встали в ТОП-1 по запросу, через некоторое время он покажет по этому же ключу другой сайт для сбора своих оценок).
2. Если позиции просели - смотрим какие документы сейчас встали в ТОП (но только для аналитики, не нужно принимать резких действий на сайте). Было такое, что после апдейта Гугл «докручивал свои гайки».
3. Если позиции просели - смотрим, не сменились ли релевантные страницы на вашем сайте.
4. Чтобы более менее оценить эффект апдейта - снимайте выдачу каждый день в течении всей следующей недели (где-то был кейс, как снимали выдачу каждый час на протяжении нескольких месяцев и результаты серпа все время были разные).
5. Если с прошлого апдейта по текущий ваш сайт каждый месяц был в плюсе, то с большей вероятностью он продолжит идти вверх (если на сайте введутся корректные работы).
Ну и небольшой совет, смотрите не только на позиции, но и на трафик/конверсии в целом:
- за месяц
- за квартал
- за год
Если трафик и конверсия все время растет, то беспокоится не стоит 😉
Есть вопросы? Го к нам в чат.
Как надо SEO +шить не надо 🔥
#google #update
Уже не первый раз просят об этом 🤫
Не палить темы (или не писать более сложные и технические посты). Поэтому с этого момента останавливаем развитие SEO-индустрии и накидываем каках на этот пост 💩
А у меня было для вас еще столько тем и идей для постов. Что-ж, будем деградировать 😅
Как надо SEO +шить не надо 🔥
Проверка на реального бота ПС 🤖
Чтобы проверить является ли бот реальным, а не была произведена подмена User-agent при парсинге вашего сайта, просто выполните reverse dns.
Reverse DNS (или обратный просмотр DNS) - это обращение к особой доменной зоне для определения имени узла по его IP-адресу c помощью PTR-записи. (источник).
Если простыми словами, через Reverse DNS можно узнать домен зная с какого ip-адреса был сделан запрос к вашему серверу.
Для этого достаточно прописать в консоле команду ping -a ip
Пример запроса:
ping -a 5.255.255.55
👆Пост ночью писал, если найдёте еще опечатки, дайте знать 🤣
А вообще, те кто меня знают лично, я просто без ума от плова 😍
🔘🔘 Нейропоиск дает рекомендации как крутить ПФ
Для накрутки ПФ в Яндексе можно использовать:
Сервисы
Биржи
Google больше не будет сканировать сайты через Googlebot Desktop 🪦
После 5 июля 2024 года мы будем сканировать и индексировать эти сайты только с помощью Googlebot Smartphone. Если контент вашего сайта вообще не доступен с мобильного устройства, он больше не будет индексироваться.
Олег Шестаков сделал видео на канале по разбору факторов из слива Гугла 😎
Делюсь ссылкой 👇
https://youtu.be/QKfyZSxCbRQ?si=-aeF8xdRoEpujWEH
#google #ютуб #слив
Поиск по Title 🔎
В прошлом посте про цитатный поиск для быстрой проверки куска текста на релевантность. Был хороший актив по реакциям и репостам. Решил сделать еще 2 простых скрипта, которые помогут вам быстро найти Title открытой страницы браузера в Яндексе и Гугле.
Воспользоваться поиском Title вашей страницы можно для того, чтобы убедиться в наличии текстовой оптимизации на проверяемой странице и отсутствии на ней фильтров. При поиске заголовка страницы - она должна находится в ТОП-10 (а лучше в ТОП-1).
Поиск Title в Google:
javascript:(function() {var pageTitle = document.title; if (pageTitle !== "") {var query = encodeURIComponent(pageTitle); window.open("https://www.google.com/search?q=" + query, "_blank");} else {alert("Не удалось получить заголовок страницы. Автор: /channel/ulianoov");}})();
javascript:(function() {var pageTitle = document.title; if (pageTitle !== "") {var query = encodeURIComponent(pageTitle); window.open("https://yandex.ru/search/?text=" + query, "_blank");} else {alert("Не удалось получить заголовок страницы. Автор: /channel/ulianoov");}})();
Слив внутренней инженерной документации Google Search API - часть 3
Для самых коропотливых - ловите ссылку на документацию по сливу: https://hexdocs.pm/google_api_content_warehouse/api-reference.html (сами файлы с гитхаба уже удалены).
Вся информация в модулях 😉
#google #слив
Слив внутренней инженерной документации Google Search API - часть 1
Факты из слива:
1. Navboost и использование кликов, CTR, длинные и короткие клики и пользовательские данные.
2. Использование статистики кликов браузера Chrome для улучшения поиска в Google.
3. Белые списки сайтов в сфере путешествий, Covid и политики.
4. Использование отзывов оценщиков качества.
5. Использование данных о кликах, чтобы определить вес ссылок в рейтинге.
6. У Google есть функция, которую они вычисляют, под названием «siteAuthority» для оценки сигналов качества, которые хранятся отдельно для каждого документа.
7. Оказывается, песочница все-таки есть в Google.
8. Google сохраняет авторов, связанных с документом, система также пытается определить, является ли объект на странице ее автором.
9. Уровень индексирования влияет на ценность ссылки.
10. Google использует только последние 20 изменений для данного URL-адреса при анализе ссылок.
11. PageRank домашней страницы учитывается для всех страниц.
12. Размер шрифта терминов и ссылок имеет значение.
13. Данные об отклонении ссылок не связаны с основными системами ранжирования.
14. Короткий контент оценивается за его оригинальность. Вероятно, поэтому тонкий контент не всегда зависит от длины.
15. Title по-прежнему оценивается по запросам.
16. Длинные Title неоптимальны для увеличения количества кликов, но они хороши для повышения рейтинга.
17. Даты документа очень важны (дата публикации, дата изменения).
18. Если более 50% страниц сайта содержат видео, сайт считается ориентированным на видео, и к нему будут относиться по-другому.
19. Существуют документы золотого стандарта.
20. Your Money Your Life имеет специальную оценку.
21. Google специально векторизует страницы и сайты и сравнивает встраивания страниц с встраиваниями сайтов, чтобы увидеть, насколько страница не по теме.
22. У Google есть специальный флаг, который указывает, что сайт является «небольшим персональным сайтом».
23. SiteFocusScore – фиксирует, насколько сайт придерживается одной темы.
Источники:
1. https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/ (работает под VPN)
2. https://ipullrank.com/google-algo-leak
#google #слив
Небольшой опрос рынка SEO-специалистов в найме ✅
Анкета в Google формах займет пару секунд (полностью анонимная) 👉 https://forms.gle/r2cUdpRkVEeqD8br6
Статистика по опросу будет опубликована позже (если наберется больше 100 ответов).
Rush Agency ищут Middle SEO-специалиста 🔥
Не работал в Раше, но честно скажу, хотел к ним попасть. Щас уже не ищу работу 😁
Поэтому помогу ребятам чем смогу, если вы в поиске крутого агентства, ловите вакансию: https://www.rush-agency.ru/jobs/middle-seo-speczialist/
Возможно это ваш шанс, прокачаться и стать более сильным спецом! Контакт HR: /channel/katya_ce
Как надо SEO +шить не надо 🔥
#вакансия
Подборка бесплатных сервисов от Ahrefs 😘
Заходим через VPN 👌👇
1. Backlink чекер - https://ahrefs.com/backlink-checker
2. DR, кол-во входящих и исходящих ссылок - https://ahrefs.com/website-authority-checker
3. Трафик сайта, топ страниц, топ запросы - https://ahrefs.com/traffic-checker/
4. SERP Google - ТОП10 - https://ahrefs.com/serp-checker
5. Сложности ключа в Google - https://ahrefs.com/keyword-difficulty
6. Чекер AI контента - https://ahrefs.com/ru/writing-tools/grammar-checker
7. Потерянные ссылки - https://ahrefs.com/broken-link-checker
8. Поисковые подсказки - https://ahrefs.com/keyword-generator
9. Проверка позиции по ключу - https://ahrefs.com/keyword-rank-checker
Как надо SEO +шить не надо 🔥
#сервисы #бесплатно
Скрипт на Python для массовой проверки Reverse DNS 🔎
Для работы со скриптом вам понадобится:
1. Сам питон - качаем от сюда https://www.python.org/downloads/
2. Рабочая среда (я использую PyCharm) - скачать можно здесь https://www.jetbrains.com/ru-ru/pycharm/download/?section=windows
3. Пакетный менеджер pip (в командной строке пропишите pip install). Или установите по гайдам
4. Библиотека openpyxl для работы с Excel (в командной строке пропишите pip install openpyxl)
Порядок действий следующий:
1. Скачиваем скрипт на рабочий стол
2. Скачиваем файл ip.txt также на рабочий стол
3. В файл ip.txt вставляем айпишники из логов серверов
4. Запускаем скрипт
5. Если все сделали правильно, на рабочем столе должен появиться эксель файл
Скрипт и txt файл с примером ip-адресов будет в комментах под этим постом 😉
Как надо SEO +шить не надо 🔥
#техничка #python #скрипты
Ладно, больше не буду спамить 🤫
Сегодня или завтра пост по техничке сделаю. Как палить реальных ботов поисковых систем 🔥
+ будет пара бонусов 🎁
Как всегда быть на плаву в SEO? 🤓
Как вы знаете, SEO - это область, которая постоянно развивается и идет только вперед. Например, у поисковых систем выходит очередной апдейт или патент и нужно всегда иметь актуальную информацию, но и не забывать старую.
Для этого важно правильно фиксировать для себя новую и полезную информацию и периодически возвращаться к ней.
❌ Хранить все в одном чате/доке
✅ Кластеризовать информацию
У меня это разбито на 2 вида 👇
1️⃣ Мои закрытые телеграм группы с актуальной инфой про SEO 🤪
Общие чаты:
- Про Яндекс
- Про Google
Тематические чаты:
- Сайты услуг
- Интернет магазины
- EEAT
- Санкции
- Микроразметка
- Алгоритмы ПС
- Конверсии
- Гугл Таблицы (формулы и скрипты)
- ПФ
- Black Hat
- Ранжирование
- Скрипты на Python
- Бурж SEO
- Wordpress (PHP скрипты, шаблоны, плагины)
- Апдейты ПС
- Ссылки
- Дорвеи
- Тесты и эксперименты
- Интент
- Кейсы
- Техничка
- Индексация
- Аналитика
- Клоакинг
- Записи SEO-эфиров (не публичные)
- ИИ для SEO
- PBN
- Дропы
- Семантика
- Чеклисты
- Тексты
- Интересное из Ютуб
- Информационники
В эти группы попадает контент из:
- телеграмм каналов и чатов
- ютуба (не просто ссылки на видео, а их выжимки)
- других социальных сетей
- прочих ресурсов (статьи, блоги)
- курсов
- собственного опыта
2️⃣ Свои структурирование Гугл Документы (в каждом несколько десятков страниц) 📝
- Про ссылки
- Про дропы
- Про PBN
- Про тексты
…
В эти документы попадает уже уникальный и структурированный контент в более подробном (а иногда в сжатом) виде из моих телеграмм чатов. Это позволяет мне очень быстро вернуться к нужной мне инфе, если что-то вылетело из головы 🧠
А как вы храните информацию о SEO и храните ли вообще? 🫣
Как надо SEO +шить не надо 🔥
#опыт #советы
Нейро доступен! 😏
Но пока только в браузере на мобильных устройствах, а вы уже успели затестить данный революционный ИИ продукт, который "значительно обновил свой поиск"?
- Сколько ног у лошади?
- У лошади 8 ног