Чат создан чтобы делиться опытом о Scrapy/Python и другими парсинг технологиями. Вежливость и уважение к другим участникам группы. Троллинг не приветствуется. FAQ: https://github.com/bulatbulat48/ru-scrapy-python Работа: t.me/scrapy_jobs
хотите ждать результатов запросов в этом же колбэке - делайте как делали
Читать полностью…ну вот мне надо послать х*****ву тучу запросов, и кое-что сделать, как только они все закончат работу, поэтому я подумал что это хорошее решение моей проблемы 😂️️️️️️
Читать полностью…а это всё по порядку, или там есть какой-то элемент рандома?)
Читать полностью…https://docs.scrapy.org/en/latest/topics/coroutines.html#inline-requests
Читать полностью…у меня на докере селениум grid, работает через SELENIUM_REMOTE_URL
Читать полностью…если сервак дохлый - уже ничего не спасет. Был у меня один сайт, от 20 потоков в 503 ошибку сваливался.... Причем именно сайт падал, а не баны по проксям
Читать полностью…если в браузере так, то скорее всего ничего не сделать, какая бы ни была причина
Читать полностью…https://stackoverflow.com/questions/75106880/add-the-spiders-name-to-each-line-of-log
Yoyoda лучший....
м... в другом окне открывать же. Проверил, работает в лисе
Читать полностью…А concurrent_requests реально concurrent только если download_delay стоит в 0?
Читать полностью…Кстати, возможно ли добавить в RetryMiddleware разное количество повторных попыток для каждого статуса. Например, для статуса 429 5 повторных попыток, а для статуса 403 — 2 попытки.
Читать полностью…Вопрос:
если бы у меня было не 2 запроса, как в примере, а 100 - паучок всех их пошлёт сразу self.crawler.engine.download(r)
?
кто использовал scrapy-playwright, я правильно понимаю, если подниму playwright в докере и пропишу PLAYWRIGHT_CDP_URL до него, всё будет работать?
Читать полностью…в сайте проблема? он просто тупой и медленный хочешь сказать?
Читать полностью…как обходить, что тебя сайт троттлит? браузером и через прокси, что юзает сам паук, запросы делаются как обычно
Читать полностью…