Чат создан чтобы делиться опытом о Scrapy/Python и другими парсинг технологиями. Вежливость и уважение к другим участникам группы. Троллинг не приветствуется. FAQ: https://github.com/bulatbulat48/ru-scrapy-python Работа: t.me/scrapy_jobs
Ребят всем привет!
Вопрос к разработчикам scrapy, подскажите пожалуйста, а scrapy когда нибудь перейдет на ассинхроность (asyncio) и слезет с twisted? Или это не делается из-за Легаси?
Доброго времени суток
Можно ли фид сделать на основе значений итема?
FEEDS = { "test_data/%(domain)s/%(mongo_id)s/data.json": {
"format": "json",
"overwrite": True,
"encoding": "utf-8",
"indent": 4,
}
}
заранее спасибо
Я использовал http toolkit и каких-то описанных проблем не помню
Читать полностью…Всем привет, подскажите пожалуйста если есть errback и process_exception. В случаи ошибки exception полетит сразу в errback?
Читать полностью…Как сделать последовательное открытие страниц в scrapy_playwright? Тобишь есть главная, на ней ссылки типа javascript....ToExpose(id), как последовательно пройтись по ссылкам собрав все необходимые данные с страниц продуктов?
Читать полностью…Всем привет! Почему может не закрываться паук при использовании CLOSESPIDER_TIMEOUT_NO_ITEM?
Читать полностью…
2024-06-26 19:16:33 [scrapy.extensions.closespider] INFO: Closing spider since no items were produced in the last 600 seconds.
2024-06-26 19:16:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:17:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:18:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:19:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:20:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:21:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:22:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:23:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:24:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:25:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:26:33 [scrapy.extensions.closespider] INFO: Closing spider since no items were produced in the last 600 seconds.
2024-06-26 19:26:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
2024-06-26 19:27:33 [scrapy.extensions.logstats] INFO: Crawled 364 pages (at 0 pages/min), scraped 353 items (at 0 items/min)
в общем надо парсить один сайт, там джс, решил через scrapy_playwright, он открывает первую страницу и дальше по найденным ссылкам вообще не шагает и закрывается подальше, сможешь помочь с решением?
Читать полностью…вы не поверите, но scrapy-playwright теперь работает на венде
Читать полностью…заменить ядро сохранив интерфейс не представляется возможным
Читать полностью…Решил писать файл рядом с изображениями через ImagesPipeline
Если ответ был мне, то подскажите где почитать. Видимо что то упускаю
Читать полностью…домен то можно прокинуть в атрибуты класса
а вот с айдишкой будет не красиво
а ещё вопрос уже по теме
наследуюсь от ImagePipeline
, чутка надо было под себя настроить
возможно ли как нибудь get_images
или __delete_logos
вместе с convert_image
сделать не блокирующими (типа сунуть их в to_thread), не переписывая оригинальный process_item
?
я в твистеде нулёвый, как работает MediaPipeline._process_request
не понимаю, но догадываюсь что именно от него идут вызовы указанных ранее фунций
исходный код https://pastebin.com/MfdA1BkH
немного оффтоп, но все же спрошу
никто не знает, как по простому настроить эмулятор андройда, чтоб он мог подключаться к mitmproxy(или аналогу), и при это еще иметь гугл плей?
на сайте mitmproxy есть гайд, я его читал, но он просто требует немало телодвижений, буду по нему идти, если не найду ничего попроше
Алексей, пожалуйста, нажмите на кнопку ниже в течение указанного времени, иначе вы будете кикнуты. Спасибо! (60 сек)
При поддержке 1inch Network
https://docs.scrapy.org/en/latest/topics/extensions.html#module-scrapy.extensions.closespider
When a certain closing condition is met, requests which are currently in the downloader queue (up to CONCURRENT_REQUESTS requests) are still processed.Читать полностью…
ну хотя бы глянуть мб я просто косоеб что-то не так написал
Читать полностью…⚠️⚠️⚠️⚠️⚠️⚠️
В пoиcкe людeй в нoвoй cфepe для coвмecтнoгo дoxoдa.
Hoвaя cфepa: цифpoвыx виpтyaльныx aктивoв.
Чиcтaя пpибыльнocть зa дeнь cooтвecтвyeт 3-5%.
Вceмy oбyчим Вac, пo вpeмeни пapy чacoв, мoжнo coвмeщaть c ocнoвнoй дeятeльнocтью.
Пo вceм интepecyющим вoпpocaм пишитe > @Alex22019