scrapy_python | Unsorted

Telegram-канал scrapy_python - Scrapy

1045

Чат создан чтобы делиться опытом о Scrapy/Python и другими парсинг технологиями. Вежливость и уважение к другим участникам группы. Троллинг не приветствуется. FAQ: https://github.com/bulatbulat48/ru-scrapy-python Работа: t.me/scrapy_jobs

Subscribe to a channel

Scrapy

profile_info = root['presentation']['userProfileContainer']['userProfile']
~~~~~~~~~~~~~~~~~~~~^^^^^^^^^^^^^^^^^^^^^^^^
KeyError: 'userProfileContainer'

Читать полностью…

Scrapy

ну и я потом вручную исправил

Читать полностью…

Scrapy

благословляю
чем больше говнокодеров, тем мне лучше :))

Читать полностью…

Scrapy

пусть так, не страшно

Читать полностью…

Scrapy

ну реализовать-то как-то хочется)

Читать полностью…

Scrapy

ну, в любом случае хотелось бы как-то отлавливать такие штуки.

Я так понимаю это возможно только если весь код закрыть под try/except?

Читать полностью…

Scrapy

ну это причина остановки работы

Читать полностью…

Scrapy

Нет, написано же finished

Читать полностью…

Scrapy

Я слышал, как мой друг говорил о Scrapeless.

Читать полностью…

Scrapy

Привет, подскажите где взять хорошие прокси

Читать полностью…

Scrapy

выпустили Scrapy 2.12.0: https://github.com/scrapy/scrapy/releases/tag/2.12.0

Читать полностью…

Scrapy

Всем привет, подскажите пожалуйста, как мне сделать, чтобы после того, как паук заканчивал работать, он начинал заново скрепить. Паука я запускаю так:

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

if __name__ == "__main__":
settings = get_project_settings()
process = CrawlerProcess(settings)

process.crawl("spider")
process.start()
process.stop()

Читать полностью…

Scrapy

спасибо!!
попробую

Читать полностью…

Scrapy

а вы кравлите ревью с амазона?
есть впечетление что вы даете советы ради совета

Читать полностью…

Scrapy

очень интересно про 10 страниц, возможно мне бы этого хватило. но простите, не понимаю где это найти, т.к. ендпоинты отдают 401

Читать полностью…

Scrapy

Не понимаю что общего у этого всего

Читать полностью…

Scrapy

я хочу сделать такую шнягу, что когда в джейсоне я не могу найти какие-то данные (путь неверный), чтобы мне на дискорд сервак кинулся файл этого джейсона

Читать полностью…

Scrapy

Или ничего не делать, как вы хотите их обрабатывать-то? Колбэк кончился что так что так

Читать полностью…

Scrapy

а, ну, если задача стоит "как то реализовать", то ла, можно и так...
и да, Андей уже сказал - эксепшен в парсе не закрывает паука, если ты в своем пауке вкарачишь 10 тыс ссылок в старт_урлс, у тебя будет 10 тыс стрейсбеков в логе

Читать полностью…

Scrapy

можно, но, такая себе идея.... если "без прикрас" сказать - хуевая идея....

Читать полностью…

Scrapy

Исключение - не причина остановки работы

Читать полностью…

Scrapy

У паука не осталось запросов для обработки

Читать полностью…

Scrapy

всем привет, вопрос: если у меня в паучке написано что-то вроде


def parse(response):
1/0 # код, ведущий к ошибке


то там выскочит трейсбек, включится сигнал spider_closed, возможно ли как-то перехватить то, что это произошло в функции parse?

Читать полностью…

Scrapy

🅰️🅱️🔤🔡🔚
Cpoчнo uщy двyх чeловeк (oнлaйн)
Лeгaльный дoxoд (18+) бeз pucкoв.
От 50 USD ежедневно
Cтaбuльный дoxoд с пeрвoгo дня
Полное o6yчeнuе
Oпыт не oбязaтeлeн, нayчuм вceмy, что нyжно.
Для бoлee дeтaльнoй uнфopмaцuu пuшuтe
➡️@ShemchukIvan

Читать полностью…

Scrapy

Подскажите пожалуйста, кто может помочь с парсингом крупного сайта?
Порядка миллиона ссылок. Нужно отрабатывать с разных серверов или прокси, чтобы не быть забаненым. Бюджет - около 100к.

Читать полностью…

Scrapy

проще всего - запускать этот скрипт через любой менеджер сервисов или тупо циклом в шелле

Читать полностью…

Scrapy

Надоели обманчивые схeмы и фейкoвые пpедложения? Если вам нужен стaбильный и рeальный споcоб заpаботка, то у нас есть подxод, который рабoтает. Пишите плюс в личные сообщения и я расскажу как это рaботает

Читать полностью…

Scrapy

Смотрите эндпоинт medley-filtered-reviews, он прекрасно парсится

Читать полностью…

Scrapy

Посмотри в коде страницы https://www.amazon.com/hz/reviews-render/ajax/

Читать полностью…

Scrapy

Они 10 страниц дают соскрапить + применяй фильтры. Ну и если не боишься, то парси под логином 😃

Читать полностью…
Subscribe to a channel