Чат создан чтобы делиться опытом о Scrapy/Python и другими парсинг технологиями. Вежливость и уважение к другим участникам группы. Троллинг не приветствуется. FAQ: https://github.com/bulatbulat48/ru-scrapy-python Работа: t.me/scrapy_jobs
рпм зависит от скорости сети в основном
а при чём тут редис?
Можно на примере какого нибудь источника типа гугла перфоманс померить, или это не то?
Читать полностью…В вёрстке есть json в котором лежит много инфы, в том числе и цены
Читать полностью…подскажите пожалуйста кто работал с озоном - как такую байду находить? внутри элемента искать по знаку рубля?
Читать полностью…По-идее, https://yandex.ru/dev/direct/doc/dg-v4/ru/reference/CreateNewWordstatReport.html
Там ограничение 1000 фраз в сутки. Если какому-нибудь ЧАТГПТ распишете задачу, разбивая на подзадачки, он вам требуемый функционал напишет, за исключением парсинга товаров, не очень понятно где, ну допустим вы какой-то магаз что полегче парсить возмете, но как из них топ10 выделить со спросом - это уже магия для меня, есть платформы, которые а-ля движение свободного остатка пишут и позволяют его получать? Вот тут я хз, есть ли такие сервисы. Наверное, какой-нить wildberries или ozon сам такое должен отдавать, чтоб конкурентная ниша заполнялась. И требования там довольно большие: https://seller-edu.ozon.ru/analytics-and-metrics/analytics-for-premium/competitive-position
Но как я понял, вы примерно такой сервис и пишете, тока немного в обход...
И ещё там какие-то баллы запроса у Яндекса и по переходу 404 ошибка, мде.
Is there a LinkedIn account that can be obtained from logs? Please contact me.
Читать полностью…Всем привет 👋🏼
1️⃣Ищем опытного разработчика на позицию тимлида.
энтузиастов!
Стек: React, Next, Node.js API, UI kit (Mantline или подобные).
Нам подходят новички и профи:
2️⃣Ищем опытного
«Фронта»
энтузиастов!
Стэк:
- Опыт разработки на
React, Next.js, знание стиливых либ по типу Mantine, HTML/CSS
- Знание современных фреймворков и библиотек
- Способность к быстрому обучению и решению нестандартных задач
Нам подходят новички и профи:
Будем рады познакомиться с вами и обсудить детали сотрудничества!🤝
scrapy-bench как вариант можно прогнать
а то что в сетку это да, а вот parsel и w3lib могут от этого уже получить бенефиты
ну вот я скомпилил scrapy.core, но дальше стандартная проблема что у нас нет для скрапи нормальных бенчмарков (и что скрапи один фиг в сетку упирается)
Читать полностью…всем привет! оффтоп
кто пользуется тайп хинтами, пробовали компиляцию через mypyc?
если кто-то из разработчиков scrapy пробовал какую часть скомпилировать, то как прошел эксперимент? что не понравилось? просто интересно
сам этим занимался когда надо было отдельно обрабатывать поля в пришедших данных, которые имеют тип data/datetime
самым удобным решением оказалось пробегать по всем полям и узнавать их класс, если он один из нужных, то чето с ним делать
из интереса закомпилировав эту функцию с mypyc, данные стали обрабатываться на 30% быстрее, а от меня требовалось просто добавить пару строчек в pyproject.toml. бесплатный буст считай
о, спасибо! значит осталось соответствие установить элемента с json-ом. это будет намного более стабильнее чем сейчас
Читать полностью…"такая байда" - это что ? Тип корпуса вилки в розетку ? )))
Читать полностью…#вакансия
Всем привет!
Ищу мастера парсинга в свой проект.
Мы парсим iherb, goat, amazon, asos, macys, stockx, finishline, newbalance, michaelkors, coachoutlet, zappos и еще около 30 источников.
Мне нужно закрыть 2 направления:
1) парсинг нового контента с этих сайтов (достаточно выгрузки в CSV)
2) поддержка профилей (на PHP или Python) парсинга цен и наличия остатков
Пишите в ЛС @Abrokot , обсудим подробнее.
теперь уже и "наличие пайтона"? вам бы в концепциях разобраться
Читать полностью…Тогда как проверить наличие пайтона, мб "правильно установить"?
Читать полностью…ребята привет. помогите с чем траблы могут быть? сори если не по теме
Читать полностью…Всем добрый вечер!
Посоветуйте платформу с готовым парсером яндекс вордстат, который можно связать со своим кодом по API
Основная задача:
- В боте ТГ нажимаю кнопку
- из google sheets берутся данные (категории + товары)
- происходит автоматический парсинг по категориям в яндекс вордстат
- выявляются лучшие категории с наибольшим спросом
- по ТОП 5 категориям происходит парсинг товаров
- из 100 товаров выявляются ТОП 10 товаров которые пользуются спросом
- все это заносится в google sheets
я писал про то, что, если нужно качество - надо платить. Чем выше качество требуется, тем больше приходится платить.
Читать полностью…