1045
Чат создан чтобы делиться опытом о Scrapy/Python и другими парсинг технологиями. Вежливость и уважение к другим участникам группы. Троллинг не приветствуется. FAQ: https://github.com/bulatbulat48/ru-scrapy-python Работа: t.me/scrapy_jobs
ну мне ж не нужно отправлять всё время файлы - только если эррор какой-то есть
Читать полностью…
я хочу сделать такую шнягу, что когда в джейсоне я не могу найти какие-то данные (путь неверный), чтобы мне на дискорд сервак кинулся файл этого джейсона
Читать полностью…
Или ничего не делать, как вы хотите их обрабатывать-то? Колбэк кончился что так что так
Читать полностью…
а, ну, если задача стоит "как то реализовать", то ла, можно и так...
и да, Андей уже сказал - эксепшен в парсе не закрывает паука, если ты в своем пауке вкарачишь 10 тыс ссылок в старт_урлс, у тебя будет 10 тыс стрейсбеков в логе
можно, но, такая себе идея.... если "без прикрас" сказать - хуевая идея....
Читать полностью…
всем привет, вопрос: если у меня в паучке написано что-то вроде
def parse(response):
1/0 # код, ведущий к ошибке
🅰️🅱️🔤🔡🔚
Cpoчнo uщy двyх чeловeк (oнлaйн)
✅ Лeгaльный дoxoд (18+) бeз pucкoв.
✅От 50 USD ежедневно
✅Cтaбuльный дoxoд с пeрвoгo дня
✅Полное o6yчeнuе
Oпыт не oбязaтeлeн, нayчuм вceмy, что нyжно.
Для бoлee дeтaльнoй uнфopмaцuu пuшuтe
➡️@ShemchukIvan
Подскажите пожалуйста, кто может помочь с парсингом крупного сайта?
Порядка миллиона ссылок. Нужно отрабатывать с разных серверов или прокси, чтобы не быть забаненым. Бюджет - около 100к.
проще всего - запускать этот скрипт через любой менеджер сервисов или тупо циклом в шелле
Читать полностью…
Надоели обманчивые схeмы и фейкoвые пpедложения? Если вам нужен стaбильный и рeальный споcоб заpаботка, то у нас есть подxод, который рабoтает. Пишите плюс в личные сообщения и я расскажу как это рaботает
Читать полностью…
Смотрите эндпоинт medley-filtered-reviews, он прекрасно парсится
Читать полностью…
profile_info = root['presentation']['userProfileContainer']['userProfile']
~~~~~~~~~~~~~~~~~~~~^^^^^^^^^^^^^^^^^^^^^^^^
KeyError: 'userProfileContainer'
благословляю
чем больше говнокодеров, тем мне лучше :))
ну, в любом случае хотелось бы как-то отлавливать такие штуки.
Я так понимаю это возможно только если весь код закрыть под try/except?
выпустили Scrapy 2.12.0: https://github.com/scrapy/scrapy/releases/tag/2.12.0
Читать полностью…
Всем привет, подскажите пожалуйста, как мне сделать, чтобы после того, как паук заканчивал работать, он начинал заново скрепить. Паука я запускаю так:
from scrapy.crawler import CrawlerProcessЧитать полностью…
from scrapy.utils.project import get_project_settings
if __name__ == "__main__":
settings = get_project_settings()
process = CrawlerProcess(settings)
process.crawl("spider")
process.start()
process.stop()
а вы кравлите ревью с амазона?
есть впечетление что вы даете советы ради совета