🔻Ищите Качественные SEO Услуги 🔻 MTPremium
#предлагаю #ссылки #крауд #seo
‼️ТИПЫ ССЫЛОК:
✅Аутрич;
✅Крауд;
✅Сабмиты ( профили, каталоги);
✅GSA.
📍Крауд Маркетинг📍
✅ Текст пишется нейтивом
✅ Качественные, модерируемые площадки
✅ Гарантия на ссылки в течении года.
✅ Ссылки проставляются постепенно(drip-feed).
✅ 50% DF
✅ DR средний 50+
✅ Топики исключительно релевантные под ваш сайт, не заспамленные.
US🇺🇸, GB🇬🇧, AU🇦🇺, DE🇩🇪,FR🇫🇷, IT🇨🇮, IN🇮🇳,ES🇪🇸…
Подберём соответствующую цену для вашего запроса + от нас скидка 10%
📍Outreach Guest Posting📍
Мы подберём лучшие ссылки под ваш бюджет. Работаем за фиксированную цену и более того, вы сами оплачиваете напрямую рекламодателю.
Есть и 📍SEO Услуги📍 SEO AUDIT.
US🇺🇸, GB🇬🇧, AU🇦🇺, DE🇩🇪,FR🇫🇷, IT🇨🇮
Наш контакт @mtpremium
На старый дроп с 200 страницами в индексе, залил 4к новых страниц. Интересно посмотреть выплюнет яша их обратно или нет. Тематика контента близкая к исходной. На дропе со старым контентом были единичные показы и клики в выдаче.
Читать полностью…Неужели это законно: накажут ли за ссылки и накрутку ПФ?
Спорная статья от Ильи Исерсона, с многими тезисами я не согласен, но зацепили забавные видео, из-за этого читается и смотрится веселее.
Если вкратце, в статье объясняется как работает ссылочный спам и накрутка ПФ, после чего делается вывод что наказаний за такой спам не существует (кроме ручных), так как такие наказания провоцируют волну атак на конкурентов.
Здесь много спорных вопросов:
- как в случае со ссылками, так и в случае с ПФ, 1-2% крайних ситуаций всегда можно отрезать алгоритмически, чтобы напугать всех остальных, при этом никто не заставляет это делать на регулярной основе. Один раз побанили алгоритмически тех, кто слишком увлекся ссылочным - для поддержания должного уровня паранойи этого будет достаточно, а погрешность вряд ли будет большой.
То же самое, к слову, и с ПФ: показательные порки в принципе популярны во всем мире как управленческий метод;)
Так что здесь я бы с Ильей поспорил, но, это разумеется вопрос точки зрения: https://vc.ru/marketing/830980-vse-delayut-eto-molcha-pravda-o-ssylkah-i-pf-dlya-seo
Вот так выглядит фильтр МПК в яндексе. Пока что не удалось понять как и именно сайты попадают под фильтр т.к. сайты абсолютно разные, в том числе коммерческие-белые. Ждем стабильной ситуации.
🕯 Качество является главным фактором при индексировании
Согласно обсуждению в недавнем подкасте, качественный контент является основным фактором, влияющим на решения Google по индексированию и сканированию.
При этом:
🔠 Качество влияет на все в поиске, особенно на индексацию.
🔠 Однако качественный контент не гарантирует высокий рейтинг.
🔠 Удаление контента низкого качества может помочь улучшить восприятие сайта Google.
В ходе разговора выяснилось, что планировщик сканирования Google использует сигналы качества для определения приоритета URL-адресов для сканирования. Если Google знает, что у него есть X URL-адресов для сканирования с сайта, он пытается создать упорядоченный список на основе его прогнозируемого качества.
Качество сайта может повлиять на процесс сканирования, даже если это новые сайты. Например, если новая страница обнаружена с помощью файлов Sitemap, Google оценит качество ранее просканированной домашней страницы, чтобы решить, сканировать ли новую страницу.
Иллиес объяснил, что качество может быть специфичным для разных частей веб-сайта.
Например, если одна часть сайта постоянно предоставляет высококачественный контент, к ней могут относиться иначе, чем к другой, известной контентом более низкого качества.
С другой стороны, если определенные части сайта постоянно содержат контент низкого качества, эти области могут сканироваться реже.
Пользовательский контент (UGC) был приведен в качестве примера, качество которого может варьироваться. Если в разделе пользовательского контента обнаружена тенденция к контенту более низкого качества, это может повлиять на поведение сканирования Google для этой конкретной части сайта.
Иллиес заверил слушателей, что они могут улучшить качество своего сайта, даже если раньше он содержал контент низкого качества. Он призывает владельцев сайтов удалять некачественный контент, чтобы улучшить остальную часть сайта.
Удаление некачественного контента может улучшить восприятие сайта Google, что может повлиять на то, как Google сканирует и индексирует оставшиеся страницы.
Хотя качество контента само по себе не гарантирует высокий рейтинг, выделение ресурсов для создания ценного, уникального контента, скорее всего, повысит позиции сайта в поиске.
#DrMax #SEO #Google #QualityContent
Немного не про SEO, но мне кажется, что материал, а точнее методология очень полезная для владельцев проектов.
"Безумцы прокладывают пути, по которым следом пройдут рассудительные."
Истрия про то, что не нужно выдумывать какую-то невиданную хрень, надо просто брать успешную бизнес модель и копировать ее, концентрируясь и улучшая 1 ключевую функцию.
https://vc.ru/services/839662-koroche-keys-kak-indrive-postroil-biznes-na-1-2-mlrd-a-nachinal-s-gruppy-vk-v-yakutii
✅ Как быстро спрогнозировать объем потенциального трафика в нише (New).
1. 👉 Идем в keys.so или mutagen (тут правда поменьше база)
2. Делаем отчет по своему сайту "трафик с поиска" в рамках поисковой системы и региона.
3. Смотрим данные по органическому трафику (сверяем со своими данными, чтобы получить коэффициент, который будем использовать для данных конкурентов) Например, трафик в keys.so в 1,5 раза ниже/выше чем реально по метрике. Делаем предположение, что в рамках вашей ниши такой коэффициент будет по всем схожим проектам.
4. Смотрим отчет по конкурентам в органике, где выбираем проекты с показателем "похожесть" > 40%
5. По этим проектам смотрим органический трафик, который умножаем на коэффициент из пункта (3.)
6. Получаем примерный объем трафика в нише у аналогичных сайтов.
Дополнительно я бы обращал внимание на:
▫️ Упущенную семантику, которую можно получить в групповом отчете по конкурентам.
▫️ Дерево страниц - для анализа структуры конкурентов и куда именно идет трафик.
▫️ Количество точек входа на сайты конкурентов, отчет "Страницы сайта"
В этой методике есть нюансы, если сайт мультирегиональный т.к. отчеты строятся в разрезе ПС и региона.
Можно более детально отобрать конкурентов по ассортименту, региону, возрасту и сделать все по красоте, а для быстрой оценки подойдет и этот вариант.
Многочисленные методики прогнозирования на данных wordstat - очень сомнительная затея учитывая то, что в этих данных львиная доля ботов.
Еще 11 сервисов, где можно анализировать траф конкурентов (примерный)
https://pr-cy.ru/
https://spymetrics.ru/
https://metrica.guru/
https://spywords.ru/
https://mutagen.ru/
https://www.similarweb.com/
https://ahrefs.com/
https://www.semrush.com/
https://neilpatel.com/ubersuggest/
https://www.webfx.com/
https://www.spyfu.com/
-------------------------------
✔️ Кравцов Виталий - @vakravcov
👉 Канал про SEO: @seopraktika
Делюсь с вами очень полезным постом👆🏻 который нашел на канале «Ашманов и партнёры» - одного из первых digital-агентств в РФ. Они более 20 лет занимаются SEO и ORM, PPC, проводят конференции Optimization, eTarget, ежегодно выпускают исследование по факторам ранжирования поисковых систем.
В своём канале рассказывают, например,
- Как контролировать все задачи и процессы по проекту с помощью всего одного документа
- Как отличаться от конкурентов и вызывать доверие у клиентов с помощью репутации в B2B
- Проводят вебинары по рекламным инструментам
Подписаться на канал можно тут: /channel/praima
⚡️ Вакансия: SEO- специалист, руководитель проекта удаленно.
Компания Drauflos занимается производством и продажей электроинструмента для сада\огорода\дома и пр., насосов дренажных, компрессором и прочего оборудования.
Обязанности:
Полный контроль над продвижением и разработкой проекта:
- SEO оптимизация сайтов
- Составление стратегии продвижения сайтов.
- Работа над продвижением в топ органической выдачи Яндекс и Гугл
- Работа с программистами – контроль и постановка задач по сайтам.
- Работа с семантическим ядром – сбор, обновление, оптимизация
- Контроль исправности технического состояния сайта и своевременное реагирование на любые проблемы.
- Прочие задачи связанные с вышеупомянутыми.
Требования:
- Положительный опыт (только белые методы) в оптимизации и продвижении коммерческих сайтов.
- Готовность уделять время нашим проектам столько сколько нужно для оперативной работы и качественного результата. Во вменяемых рамках конечно же.
- Готовность показать кейсы с URL проектов где были достигнуты положительные результаты. Ваше участие в проекте, кейс которого вы показываете, должно быть не далее как 6 месяцев назад.
- Непрерывный опыт SEO-специалистом (не джуном а мастером) должен быть не менее 3 лет.
Дополнительно:
- Поиск копирайтеров и других исполнителей в задачи не входит
- Мы оплачиваем отдельно услуги и найм сторонних исполнителей для:
покупки ссылок,
работы программистов,
работы контент менеджера,
других задач при необходимости и после согласования.
- Это может быть как полная занятость так и еще один проект которому нужно уделить много времени.
Что мы предлагаем:
- Постоянная работа удаленно. Локация: вся Россия
- Свободный график
- Адекватные бюджеты на продвижение
- Оплата инструментов для работы
- Работать можно как з нашими исполнителями так и с вашими. Все обсуждаемо.
- Зп 80к
- Со временем возможен формат оплаты: ставка + % от продаж. На выбор сотрудника.
С чем сейчас работать:
На данный момент нужно начать с полного нуля (сайтов еще нет) и работать с 5-ю сайтами. Один большой мультибренд и 4 маленьких монобренда. Все детали в личку.
По всем вопросам пишите в личку @Vadmoroz
"Кто-нибудь, расскажите разработчикам Твиттера, что регулярные выражения не поддерживаются в robots.txt.
Илон, это ты?"
via Jan Caerels
звездочки * (означает любой символ) и символ $ (означающий конец строки) работают, а все остальное нет.
Нам нужен крутой дизайн и UX, без этого у сайта нет будущего в SEO.... Тем временем.....
Читать полностью…«Отличное заведение, жаль, что выгнали!»😂😂😂
Пользователи Яндекс.Карт ЕЖЕДНЕВНО добавляют по 37.000 отзывов на кафе, бары и рестораны по всей стране. Всего за 10 лет накопилось уже больше 15.000.000 откликов на 220.000 различных заведений.
Команда сервиса взяла всю эту массу данных и уложила в несколько графиков, чтобы понять за что чаще всего хвалят и ругают рестораны и кафе.
Если вы ресторатор, может быть ценно узнать, на что обращают внимание посетители. А если нет, то можно просто сделать несколько занятных выводов!
➡️ В положительных отзывах чаще всего упоминается слово «вкусно» и его производные, а в отрицательных — «невкусно». Логично.
➡️ Если посмотреть на самые частотные слова по категориям заведений (бары, кафе, столовые и так далее), получается, что несчастливые посетители общепита несчастны плюс-минус одинаково. Что рестораны, что фастфуды ругают за долгое ожидание. А вот хвалят по-разному: за кухню, атмосферу, скорость обслуживания и музыку.
➡️ Вопреки мнению, что люди чаще пишут о негативе, пользователи ставят плохие оценки в 5,5 раз реже, чем хорошие. Зато отрицательные отзывы в среднем длиннее. Самый объемный составил аж 13.000 знаков.
➡️ «Отстой» — любимая характеристика для общепита от мужчин постарше.
Отдельного внимания заслуживают скрины в начале статьи. 🤦♂️
Признайтесь, захотелось заглянуть в заведение, про которое кто-то написал: «Красиво. Бывают драки»? 😎
#Яндекс #Яндексфишки #MaxP
Помогаем новым SEO-специалистам упаковаться и попасть на стажировку в Rush Agency
Ребят, Rush Academy стабильно улучшает продукт «Профессия SEO-специалист с нуля до middle». Кроме твердых технических знаний за 4 месяца, даже с полного нуля, мы помогаем:
👉 Попасть в базу проверенных SEO-специалистов
👉 Найти первый проект на фриланс и окупить обучение
👉 Попасть на стажировку в Rush Agency
👉 Упаковать портфолио SEO-специалиста
Выпускники, которые полноценно прошли обучение, могут попасть на оплачиваемую стажировку и через 6 месяцев уже работать в штате Rush Agency с зарплатой от 70 000 рублей. Уже есть сотрудники, которые прошли этот путь и работают у нас.
Надо ли еще что-то добавлять? мы даем все необходимое для вашего обучения: актуальные материалы и доступ к обновлениям курса, проверка домашек от SEO-специалистов, доступ к необходимым сервисам и еженедельные встречи в Zoom со специалистами агентства.
Уже в четверг стартуем новый поток, а для читателей паблика SEO-Практика действует дополнительная скидка на 20 000 рублей до конца сентября по промокоду: praktika20
Переходите по ссылке и оставляйте заявку для консультации.
Забавная картина получается! На графике трафик с органики Yandex Мск на один из крупнейших агрегаторов в рунете и для сравнения трафик на сам yandex! Совпадение? Монополизация? Не не слышали!
Читать полностью…Слушайте, а вот это поголовное и рандомное МПК по сайтам не кисло так похоже на обучение модели нового алгоритма руками вебмастеров 🤔
Реально, под фильтр попадают абсолютно рандомные сайты: белый еком, агрегаторы с рекламой, сайты с ПФ, сайты без ПФ и т.д.
Поясню... яша кидает фильтр, если вебмастер активно доказывает, что сайт белый и пушистый, то на основе этих данных можно скорректировать развесовку и учесть потом в алгоритме. Если сайт реально спамит, то и шансов, что вебмастер будет его отстаивать значительно меньше.
Яндекс - хитрая жопа... ну или я полез в теории заговора!
Всем хороших выходных 🤟
✅ @seopraktika | Кравцов Виталий
Как вам такой вопрос?
Интересный, сразу подумал я, так как сходу не смог ответить и пришлось открывать лягушку и все вспоминать. Не так часто в работу приходят сайты на JS (точнее никогда), но решил ответить развернуто. Кстати, если будут вопросы, то самые интересные из них, буду разбирать также на канале, думаю, многим спецам это будет полезно.
Итак, что делать с парсингом и рендерингом в JS? На эту тему я уже записывал видео на Ютуб-канале. Отвечу на вопрос текстом тут.
Итак погнали сразу по шагам:
1️⃣ Сначала проводим все необходимые настройки (Configuration — Spider — Extraction).
2️⃣ Включаем две галочки (скрин) для сохранения кода в чистом виде и после рендера (Store HTML и Store Rendered HTML).
3️⃣ Далее идем в настройки рендеринга и выставляем тайм-аут. Зачем? Банально, чтобы ваш компьютер мог успеть отрисовать все вовремя. Обычно, я выбираю мобильный Googlebot в качестве устройства. Нажимаем ОК (в программе, чтобы сохранились настройки).
4️⃣ Подготовка есть. Теперь выпаршиваем ваш сайт, сколько сможете, так как из-за тайм-аута и рендеринга ваше железо будет умирать в реалтайме.
5️⃣ Допустим, спарсили сайт. Теперь можем посмотреть, что получилось во вкладке Rendered Page.
6️⃣ Во вкладке View Source можно посмотреть на различия после рендера. Не рекомендую нажимать на галочку Show Differences (ваш комп может погибнуть во второй раз).
Мне проще смотреть на разницу в рендере через расширение для Хрома: View Rendered Source. На практике выглядит так. Google уже давно рендерит эти данные и с недавних пор и Яндекс.
PS. И еще такой момент. Гуглу нужно гораздо больше мощностей на обработку JS по сравнению с обычным HTML (источник), поэтому гораздо эффективнее (при наличии норм размеров сайта) рендерить на стороне сервера и отдавать готовый HTML поисковому роботу. А вот еще официальная информация по динамическому рендеру. Вкратце, весь JS нужен пользователям (может рендерить клиент — браузер), а роботам HTML.
#вопросы
@seosekretiki
На этой неделе плотно поSEOшили, поэтому на выходные тематические носки. Всем хороших выходных 🤘
Читать полностью…Google убрал из справки требование писать контент людьми
В прошлой версии страницы было указано "Система полезного контента Google Search генерирует сигнал, используемый нашими автоматическими системами ранжирования, чтобы лучше гарантировать, что люди видят в результатах поиска оригинальный, полезный контент, написанный людьми для людей (written by people, for people).
В текущей версии фразу людьми (by people) убрали.
Что как бы намекает, что этот апдейт не направлен на то, чтобы покосить тексты от ChatGPT и подобных "нелюдей".
Источник: Barry Schwartz.
Как контент влияет на ранжирование
Наглядно это можно объяснить с помощью формулы Яндекса. (Смотреть картинку)👆🏻
Фактически ее можно записать так:
«Коммерческая релевантность =
Ассортимент * (2* Надежность +
Юзабилити + Качество +
2 * Сервис)».
Чем выше релевантность, тем лучше ранжируется оцениваемая страница по данному запросу.
Соответственно, когда мы повышаем оценку RC, улучшается видимость сайта.
При этом качество контента на сайте может влиять на такие показатели правой части формулы как:
• Т — надежность;
• U — юзабилити;
• D — качество дизайна;
• S — уровень сервиса.
Самые значимые показатели — качество сервиса и надежность. Поэтому в формуле они умножены на 2.
Отсюда можем сделать вывод, что качественный контент на сайте улучшает:
• прямой трафик;
• брендовый спрос и брендовый трафик из поисковых систем;
• покрытие семантического индекса.
Подробнее изучить тему можно здесь.
Еще больше полезного материала будет ждать вас на Optimization-2023! Запись уже открыта! Присоединяйтесь по ссылке, чтобы узнать о самых важных и актуальных изменениях digital-маркетинга🟡
#мероприятие
#полезноеseo
Привет всем поклонникам noindex
✔️ Кравцов Виталий - @vakravcov
Комплексное SEO для бизнеса
💬 Вопрос 2: Проблема с обработкой sitemap в Google
========================================================
Я такую ошибку чаще всего ловил на новых сайтах с большим количеством URL в sitemap.
Попробуйте сделать sietemap с меньшим количеством страниц в каждом.
Точной цифры нет, у меня проходили карты с 2000-3000 ссылками, причем рандомно. Тут только методом научного тыка!
Еще вариант - сделать не xml карту, а просто список ссылок по 1 на строке в формате .txt Google их иногда съедает не плохо (пруф).
✔️ Кравцов Виталий - @vakravcov
Комплексное SEO для бизнеса
#SEO_FAQ
Начинаю писать ответы на ваши вопросы!
💬 Вопрос 1: Точки роста сайта на Тильде. Что делать, когда сделали и внедрили техничку, юзабилити и семантику.
==============================================================
Если мы говорим про рост в рамках SEO и учитываем, то, что (в вакууме) все уже сделано, то нужно глубже копать конкурентов по семантике. По опыту знаю, что некоторые вещи на тильде реализовать не возможно чисто технически. Это не касается простых сайтов услуг со статичным контентом. Иногда мы упирались в реализацию банальной динамической перелинковки и формирование настраиваемых текстовых зон на карточках объектов/товаров с использованием переменных.
Что касается технички на тильде, тут опять же вы ограничены возможностями конструктора, в нем даже не возможно отредактировать файл robots.txt (https://answers.tilda.cc/ru/a/robots-edit).
В коммерческих нишах очень сильно крутят, возможно, вы зависли за ТОП10 Yandex потому, что не хватает ПФ. Вашему хосту/документам не дотянуть до искаженных медианных значений ТОПа именно в поведенческих с помощью естественных значений.
Пробуйте использовать другие каналы привлечения трафика, тот же контекст косвенно влияет на ранжирование в органике.
Мое мнение насчет тильды и любых других конструкторов - это хороший инструмент для проверки гипотез и запуска MVP, как только вы проверили жизнеспособность идеи, начинайте делать сайт на CMS, даже если это будет не битрикс, а wordpress.
✔️ Кравцов Виталий - @vakravcov
Комплексное SEO для бизнеса
#SEO_FAQ
Пришло 10 вопросов, в ближайшее время начну на них отвечать.
Думал, что вопросов будет больше 😎