1045
Чат создан чтобы делиться опытом о Scrapy/Python и другими парсинг технологиями. Вежливость и уважение к другим участникам группы. Троллинг не приветствуется. FAQ: https://github.com/bulatbulat48/ru-scrapy-python Работа: t.me/scrapy_jobs
Т.е. хочется отойти от ручной разметки страницы для извлечения нужных данных.
Читать полностью…
Любые страницы, сервис анализирует, содержание страниц и потом вычленяет полезные данные и отдает их в json.
Читать полностью…
Всем привет! Есть ли какой сервис, позволяющий парсить страницы сайта и возвращать данные страниц в json, без предварительной разметки страницы?
Читать полностью…
Да может нет смысла посылать в ту группу, тут же тихо и ничего не обсуждаем?
Читать полностью…
Привет!
Ищу python-разработчика для выполнения проектной работы.
Суть проекта: разработать парсер сайта с данными о ценах на продукцию, после чего скрипт должен загрузить данные в Excel файл и отправить файл по почте
любой, кто знает скрапивы и spamming, что я мог бы сотрудничать с каждой прибылью я бы взял 40% и вы 60%
Читать полностью…
ради теста подождать минут 10, потом посмотреть в стату, сколько отлупов по таймауту...
у меня, в 99% случаев, после этого, вопросы отпадали :).
не обезательно, рандомно
concurrency 50, может в середине, может в конце очереди
а вторую не пропускает, я хз с чем связано, скорее всего с прокси
Читать полностью…
Всем привет. Ищу людей на постоянную основу который может парсить на selenium и requests (Python). Кто заинтересован пишите в ЛС, дам лёгкое тестовое задание на регистрацию, если выполните то приступим к настоящим заданиям
Читать полностью…
ну да надо юзеров менять тогда
и это действительно гораздо более хрупко чем без авторизации, именно потому что привязка запроса к акку
ну и гораздо менее легально
(пишу на js, но думаю концептуально ничего не изменится)
Читать полностью…
ребят есть какие то советы как скрапить маркетплейс на новые обьявление и не попасться на антифрод ?
Читать полностью…
любые страницы и любые данные? или как вы это себе представляете?
Читать полностью…
всем привет! я тут неделю назад примерно спрашивал как получать статы с паука напрямую. так вот, я написал (но не тестировал никак) расширение, которое позволяет брать всякую инфу про запущенного паука, на подобие того, что было в Scrapy 0.26.
может, я плохо искал, но гугл ничего подобного и нового выдать не смог(
буду рад пул реквестам и другой активности!
https://github.com/abebus/spider-info-webservice
Привет всем, я знаю, что для этого мне действительно нужен гид, если есть кто-то, кто может направлять меня бесплатно, могут ли они, пожалуйста, отправить мне сообщение?
Читать полностью…
всем привет
scrapy фризится по середине процесса
внутри asyncio/trheading не используется, выглядит будто проблема в самом scrapy
кто сталкивался, в чем может быть проблема?
я авторизовался руками норм, скопировал свежие куки, менял прокси и не помогало
Читать полностью…
там прямо какие-то лично для данного пользователя спец-спец-спец предложения?
Читать полностью…
при том что скрапить можно только с авторизованых акков, то есть я полагаю не выйдет просто менять прокси постоянно в случае если запросы не будут проходить по каким то причинам.
новые обьявления там появляются каждую секунду, категорий дофига, думаю будет странно если один юзер будет одеовременно скрапить 50+ категорий ежесекундно, надо чёто придумать
Кто поможет зарегестрироваться на этом сайте: https://www.yell.ru/moscow/com/ . С selenium не получается, а с requests пишет что не подключил javascript. Помогите😭
Читать полностью…
Было б удобно если бы считался только запрос 😂. Кидаешь такой гет запросик размером в пару байт, а тебе в ответ джейсон на мегабайтик 😂
Читать полностью…