сразу чтоб потом не писать скажу - где ты там гайд нашел по splash, выкинь его, сейчас scrapy-playwright - новая мета, а scrapy и splash заабандонили емнип
Читать полностью…вряд ли самое оптимальное если через браузер делаешь (кмк есть способы переюзать респонсы), ноо как вариант. с озоном так и работает
Читать полностью…привет, нужна помощь в парсинге fixprice.
вот моя функция для парсинга:
def parse(self, response):
products = response.xpath("//div[@class='product__wrapper']")
for product in products:
description = product.xpath(".//a[@class='title']/text()").get()
image = product.xpath(".//img[@class='swiper-lazy']/text()").get()
regular_price = product.xpath(".//div[@class='regular-price']/text()").getall()
yield {
'description': description,
'image': image,
'regular_price': regular_price.strip() if regular_price else None
}
{"description": "Зубная паста, 150 мл", "image": null, "regular_price": null},Читать полностью…
а, тут я хз, наверное слишком большой объем конкретно для чатгпт, и надо действительно дообучать аля-улю на датасете, вопрос тока какую llm'ку брать. И насколько она будет адекватная в виде эдакого "поисковика". По чему там щас угорают в последнее время, вроде nvidia что-то выпустила, хз
Читать полностью…Типа, чтобы писать парсеры? Ну вроде сами мейнтейнеры скрапи по такому угорали, и поначалу даже бесплатно, но теперь это за деньги и в скрапинхабе
Читать полностью…Network в браузере, жмакаешь вкладки, смотришь все запросы и fetch/xhr в частности и js'ы тоже посматриваешь. Посмотри тут про network tool в частности: https://docs.scrapy.org/en/2.11/topics/dynamic-content.html
Читать полностью…я чет и через браузер пытался отловить и как-то через wireshark, но что-то не получалось
Читать полностью…плейрайт/селениум/сплеш аля браузер поднимают через него скачивают юрл и выполняют прилетаемый js чтоб заполнить инфой dom (если такая есть)
просто скрапи скачивает юрл как курл или реквест
(это при условии если тебе влом и на ресурсы пофиг и неохота на чистом прям скрапи все делать): https://github.com/scrapy-plugins/scrapy-playwright
Читать полностью…в принципе chomjs там даж не нужен, можно обойтись response.json(), вряд ли там скорость чомпжса нужна
Читать полностью…если он внутри html, можно через parsel или тупо регуляркой выделить кусок json и натравить на него стандартную питоновскую либу или лучше и быстрее chompjs
если отдельным запросом то об response.json(), где response = requests.get('твой запрос') (или post), у scrapy тоже есть методы соответствующие для получения json-результата, аля https://docs.scrapy.org/en/master/topics/request-response.html#jsonresponse-objects
я использую splash, если спарсить html страничку, то можно увидеть, что данные передаются через json, как я понимаю, но как тогда мне их достать
Читать полностью…спросил у чатгпт как это делать, и в частности "Is this fine tuning achievable in more automatic way? I.e. it should recognize threads of topics and right answers from chat and if they were solved or not by itself? Он говорит копай в сторону automatic data labeling (self-supervided learning), NSP, MLM, и еще кучу аббревиатур, тока готовь мол ресурсы в виде жепеу.
Читать полностью…подскажите пожалуйста, а как вообще вычислили, что у апишка озона - вот этот ендпоинт? api/composer-api.bx/page/json/v2?url=