datascienceml_jobs | Unsorted

Telegram-канал datascienceml_jobs - Data Science Jobs

18156

админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚 РЕЕСТР РКН: clck.ru/3Fmrbd

Subscribe to a channel

Data Science Jobs

Data Analyst
Грейд: Senior
Название компании: JDPlex
URL компании: jdplex.com

Локация: РФ
Часовой пояс: +- мск
Предметные области: другая, логистика, финтех
Формат работы: удаленка, фуллтайм

Тема проекта: другая

Зарплата: 200000-300000

Требования:
Знание языков программирования Python либо Java
Знание основных типов оптимизационных задач (LP, NLP и т.д.)
Опыт работы с пакетами оптимизации (SciPy, Pyomo, CVXPY, OptaPlanner или аналогичные)
Опыт работы с различными солверами (COBYLA, Ipopt и другие), понимание принципов их работы (сильные и слабые стороны)
Опыт линеаризации задач, постановка целевой функции и ограничений.
Опыт постановки задачи, разбиение на подзадачи

Контактные данные: @kalashnikovajdplex

#jdplex #вакансия #data #рф

Читать полностью…

Data Science Jobs

Кластеризация временных рядов: хаос или скрытые паттерны?

Финансовые данные, сенсоры, котировки акций — данные приходят потоком, но как выявить закономерности и сгруппировать их правильно? Стандартные методы не работают, а временные ряды ведут себя слишком нестабильно.

Разбираем на открытом вебинаре «Кластеризация временных рядов» 5 марта в 20:00 (мск):

- Изучим метрику DTW (Dynamic Time Warping)
- Разберём методы понижения размерности
- Найдём связи в котировках акций на реальных данных

Всем участникам — скидка на большое обучение «Machine Learning. Professional».

➡️ Регистрируйтесь, чтобы не пропустить: https://otus.pw/iIy6/?erid=2W5zFJUDfeQ

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Data Science Jobs

Ищем Data Engineer (Middle/Middle+/Senior) в аутстафф-компанию Top Selection для работы над зарубежным ритейл-проектом.
Грейд: Senior
Название компании: Top Selection

Локация: Не важно
Часовой пояс: МСК
Предметные области: ритейл
Формат работы: Удалёнка

Тема проекта: Мы ищем Data Platform Engineer с опытом работы в Microsoft Fabric или Databricks для построения и оптимизации дата-платформы в ритейле.
Основная задача – разработка облачной платформы обработки данных, интеграция с различными источниками и аналитика в реальном времени.

Работа в ритейле требует глубокого понимания данных о продажах, цепочке поставок, потребительском поведении и управлении товарными запасами.

Зарплата: По запросу

Обязанности:
Ключевые обязанности (MS Fabric):
- Проектирование архитектуры данных на Microsoft Fabric (OneLake, Lakehouses, Synapse Data Warehouse, Power BI).
- Разработка и внедрение ETL/ELT-конвейеров данных (Fabric Data Pipelines, Azure Data Factory).
- Оптимизация хранения и обработки данных в OneLake и Lakehouses.
- Настройка Real-Time Analytics (анализ транзакций, логистика, продажи в режиме реального времени).
- Интеграция с Power BI и построение семантических моделей.
- Оптимизация SQL-запросов для больших объемов данных в Synapse Data Warehouse.
- Автоматизация CI/CD-конвейеров (Azure GitOps).
- Обеспечение безопасности данных и соответствие стандартам работы с персональными и коммерческими данными.

Технологии, с которыми предстоит работать:
- Microsoft Fabric:
- OneLake (облачное lakehouse-хранилище данных)
- Lakehouses (совмещение Data Lake и традиционных DWH)
- Data Pipelines (аналог Azure Data Factory)
- Synapse Data Warehouse (облачный аналитический движок)
- Real-Time Analytics (потоковая обработка данных)
- Power BI & Semantic Models (бизнес-аналитика)
- KQL (Kusto Query Language) для анализа событий и логов
- DevOps & CI/CD:
- Azure GitOps, YAML-пайплайны
- Автоматизированное развертывание и управление инфраструктурой данных

Требования:
- Практический опыт работы с Microsoft Fabric или Databricks (или другим релевантным облачным стеком).
- От 2 лет опыта в data engineering и облачных хранилищах данных.
- Глубокие знания SQL, Python, Spark/PySpark, T-SQL.
- Опыт оптимизации SQL-запросов и работы с большими объемами данных.
- Понимание архитектуры баз данных и lakehouse-концепции.
- Опыт работы с ETL/ELT-процессами, DataOps, CI/CD для данных.

Пожелания:
Будет плюсом:
- Опыт работы с потоковыми данными (Kafka, Event Hubs, Stream Analytics).
- Знание ритейл-данных (ценообразование, товарные запасы, программы лояльности).
- Опыт работы с Delta Lake, Databricks ML.
- Оптимизация SQL-запросов и настройка кластера Spark.

Сертификации (желательно):
- Microsoft Certified: Fabric Analytics Engineer Associate
- Microsoft Certified: Azure Data Engineer Associate
- Databricks Certified Data Engineer Associate/Professional

Контактные данные: @mherchopurian / @remoteanalytics

#вакансия #DataEngineer #Middle #MSFabric #Databricks #Удаленно

Читать полностью…

Data Science Jobs

Авито ищет опытных DS-специалистов — пройдите ускоренный отбор и получите оффер за одни выходные!

Вас ждет:
— конкурентная зарплата и удаленка по всему миру;
— возможность прокачать свой стек – разрабатывать инструменты монетизации, автоматизировать алгоритмы, реализовывать ML-проекты и улучшать пользовательский опыт;
— участие в разработке новых продуктов и сильное IT-комьюнити, которое любит опенсорс.

Успейте присоединиться к Data Science Weekend Offer до 27 февраля и развивайте крупнейший в мире сервис объявлений: https://u.to/77oDIg

Читать полностью…

Data Science Jobs

Аналитик DWH
Грейд: Middle
Название компании: Itvolna.tech

Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы

Тема проекта: БОПОС

Зарплата: 302 000 гросс

Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.

Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.

Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.

Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.

Контактные данные: 📱@alarionova_volna

#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle

Читать полностью…

Data Science Jobs

#вакансия #DataEngineer #Middle #Senior #fulltime #удаленно #аутсорс

Ищем I Data Engineer I Middle+, Senior I Аутсорсинговая компания Top Selection

📌Уровень: middle+ / Senior

Срок привлечения: 3 месяца с возможностью продления.
Локация: РФ
ЗП:middle 200-250К на руки
Senior 350-390К на руки
Загрузка: fulltime
Оформление: как ИП
Проект: Российская сеть розничных магазинов.

📝Обязательные требования:

●Apache (Spark, Hive, Airflow) - опыт от 1 года
●Yandex Cloud - опыт 1 год
●Python - опыт от 1 года
●SQL - опыт от 1 года
●Linux - опыт от 1 года
●Docker - опыт до 1 года
●Streaming - опыт 1 год

Стек: Docker, K8S, Linux, Cloud, Terraform.

📲Контакты:
@irazhura87

Читать полностью…

Data Science Jobs

Хочешь обучить нейронку, но не хватает локальных мощностей? На новую видеокарту не хватает денег? Зачем покупать, когда можно арендовать! 

immers.cloud — это облачный сервис, предоставляющий доступ к мощным видеокартам для самых различных задач.

💰 Экономия: тарифы от 23 рублей/час, оплата только за фактическое время использования
⚡️ Быстрый старт: видеокарты и серверы готовы к работе за пару минут
📈 Гибкость и масштабирование до любой конфигурации: 11 видеокарт на выбор
🔧 Удобство:готовые образы для ML задач, чтобы не тратить время на настройку

🎁 Подготовили приятный бонус для тебя: +20% к пополнению баланса

Читать полностью…

Data Science Jobs

Поздравляем, вы на 1 шаг ближе к работе мечты 🥳

Осталось только прочитать этот пост, подписаться на канал и откликнуться на вакансию 😉

Avito Career — место, где Авито делится актуальными вакансиями и стажировками для аналитиков данных.

Подписывайтесь, чтобы найти ту самую работу ✨

Читать полностью…

Data Science Jobs

⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:

МАШИННОЕ ОБУЧЕНИЕ: t.me/ai_machinelearning_big_data
C++ t.me/cpluspluc
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Хакинг: t.me/linuxkalii
Devops: t.me/DevOPSitsec
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/javatg
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Docker: t.me/DevopsDocker
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
Собеседования МЛ: t.me/machinelearning_interview
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: /channel/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat

💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: /channel/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: /channel/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: /channel/addlist/BkskQciUW_FhNjEy

Читать полностью…

Data Science Jobs

Вакансия: ML/DS-инженер (Network Fingerprinting & Anomaly Detection)

Немного о нас: мы строим систему, которая по низкоуровневым сетевым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
• Используется ли VPN/прокси?
• Подделан ли User-Agent (например, заявлена Windows, а на деле Linux)?
• Какая реальная ОС клиента, исходя из сетевых особенностей?

Собираем логи (JSON с отпечатками) и хотим обучить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), которая в реальном времени будет давать предсказания по REST API.

---

## Что делать:

1. Анализ данных (EDA) и фича-инжиниринг
- Изучать сырые логи (TLS, TCP/IP, HTTP2, JA3) и выделять нетривиальные признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.).

2. Разработка и обучение моделей
- Выбирать и тюнить алгоритмы: XGBoost, Random Forest, нейронные сети и т.д.
- Настраивать процесс обучения и валидации (train/test split, кросс-валидация, гиперпараметры).
- Оценивать метрики (Accuracy, Precision/Recall, F1, ROC-AUC) и предлагать способы улучшения.

3. Построение ML-сервиса
- Оборачивать модель в сервис (REST API) для интеграции.
- Настраивать окружение (Docker, CI/CD).
- Продумывать MLOps: сбор новых данных, мониторинг качества, переобучение.

4. Детект VPN/прокси и аномалий
- Выявлять прокси/VPN по набору признаков (TTL, JA3, IP-блеклисты и т.д.).
- Анализировать несоответствия между User-Agent и реальной ОС (TCP/IP флаги, JA3, HTTP2).
- Разрабатывать систему порогов (threshold) или вероятностных оценок (score).

5. (Опционально) Автоматизация и масштабирование
- По желанию помогать с инфраструктурой.
- Участвовать в обсуждении архитектуры приложения.

---

## Требования:

1. ML и статистика
- Понимание классических алгоритмов (деревья решений, бустинги) и навыки тюнинга.
- Приветствуется опыт с PyTorch/TensorFlow.

2. Инструменты Data Science
- Python: pandas, numpy, scikit-learn, XGBoost/LightGBM.
- Умение делать EDA, визуализации (matplotlib, seaborn и т.п.) и строить надёжные фичи из «грязных» данных..

3. Сетевые протоколы (желательно, но можно прокачаться)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3.
- Базовые знания HTTP/2.

4. DevOps / MLOps
- Docker, Git, Linux; будет плюсом опыт с CI/CD.

5. Дополнительно
- Понимание безопасности, VPN/прокси.
- Сильная математическая база (статистика, матан, вероятности).

---

## Условия работы:

- Удалённая работа (полная/частичная занятость — обсуждается).
- Небольшая команда (сети/бэкенд + ML).
- Задачи ведутся в трекере, созвоны по необходимости.

Финансовая часть:
- 100–250 тыс. руб. на руки в месяц (зависит от опыта).
- Возможны выплаты в USDT.
- доступ к [Cursor.com] (актуальные модели, например, Sonnet 3.5).

---

## Что получаете:
- Глубокий опыт в сетевых отпечатках, работа с уникальными данными.
- Полную свободу выбора инструментов (главное — результат).
- Поддержку по инфраструктуре и сбору сетевых данных.
- Интересные челленджи в ML + Security.

---

## Как откликнуться:
- Напишите о себе и прикрепите резюме/портфолио/GitHub.
- Расскажите, какой у вас опыт в сетевых протоколах или безопасности (VPN, прокси).

Контакт: [/channel/Siemons8]

Читать полностью…

Data Science Jobs

Бесплатный вебинар, который поможет начать изучение Spark с нуля!

👨‍💻🛠👨🏻‍💻 Кому будет полезно?
- Data-инженерам и аналитикам, работающим с большими объемами данных
- Программистам, переходящим с других технологий обработки данных на Spark

Не пропустите прямой эфир, где мы начнем изучение Big Data фреймворка и подробно разберем обработку графов с помощью Spark:
- ключевые понятия, включая структуру графов, а также алгоритмы, доступные в библиотеках GraphX и GraphFrames
- создание и обработку графов на основе различных типов данных
- эффективную работу с большими графами
- 2 популярных алгоритма для анализа данных: PageRank и Connected Components
- интеграцию графов в проекты
- практические примеры построения графов и их анализ

Все участники вебинара смогут продолжить обучение на курсе «Spark Developer» с выгодной скидкой.

➡️ Регистрация: https://otus.pw/qerc/?erid=2W5zFGuYK5S

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Data Science Jobs

Ищем Data Analyst (Middle+) в аутстафф-компанию Top Selection для ритейл-проекта.
Грейд: Middle
Название компании: Top Selection

Локация: Не важно
Часовой пояс: Москва
Предметные области: ритейл
Формат работы: Удалёнка

Тема проекта: NDA

Зарплата: до 280 000 руб. gross

Обязанности:
⁃ Разработка витрин в системе EDW
⁃ Доработка существующих витрин под потребности проекта
⁃ Перевод на целевые источники

Требования:
⁃ Реляционные БД: первичный/внешний ключ, DDL/DML, типы объектов (view, table, external table)
⁃ SQL: все виды join'ов, операции группировки, фильтрации по агрегатам, вложенные запросы
⁃ Знание хранилищ данных: задачи, решаемые хранилищем, понимание DWH, BI, ETL и их концепций
⁃ Опыт работы с Kimball

Контактные данные: @mherchopurian / @remoteanalytics

#вакансия #DataAnalyst #Middle+ #удаленно #ритейл

Читать полностью…

Data Science Jobs

Приглашаем в развивающуюся ИТ-компанию "MIA Dev" на должность "Аналитик данных"

От нас:
- Удаленная работа
- Классные, развивающие и масштабные задачи
- Широкий спектр задач
- Задачи без бюрократии, быстрый оффер на отличных условиях
- Пересмотр заработной платы 2 раза в год);
- 5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
- 250-320 тыс. на руки

Ожидаем от кандидата:
- Опыт работы от 3-х лет
- Реляционные БД: первичный/внешний ключ;
- DDL/DML;
- Знание SQL: все виды join'ов; операция группировки, фильтрации по агрегатам; вложенные запросы. Типы объектов: view, table, external table;
- Знание хранилищ данных: задачи, решаемые хранилищем (зачем оно нужно?);
- Аббревиатуры DWH, BI, ETL и то, что за ними кроется;
- Kimball;
- Партиционирование;
- Индексы;
- Колоночное/строковое хранение данных: преимущества/недостатки;
- MPP, ключ дистрибуции;
- Чтение плана запроса, оптимизация запроса;
- Использование конструкций cte;
- Хранилища данных: EDW, Data Lake;
- SCD1, SCD2 (версионное хранение данных);
- ETL/ELT - чем отличаются?;
- Data Vault - что такое? Отличия DV от DV 2.0.
Интересно? Свяжись с @patrikeeva_mia_dev

Читать полностью…

Data Science Jobs

#вакансия #Cyprus #удаленка #офис #DataAnalyst #ДатаАналитик #ETL #PowerBI #Metabase #витриныданных #визуализацияданных #fintech #payments #paymentindustry #paymentsolution #highriskprocessing #paymentgateway
Вакансия: Дата Аналитик | Data Anlyst  (Middle)
Компания: Международная Платежная Система (highrisk)
Формат работы: удаленка/офис, полная занятость
Оформление: ИП/Cамозанятый
Стек: Python (Pandas, Request, Numpy), n8n, REST, JSON, Git, PowerBI, Metabase, PostgreSQL, ClickHouse,
Проект: Построение системы визуализации данных для финансового отдела

Задачи:
- Разрабатывать дашборды и отчеты в Power BI и Metabase;
- Разрабатывать и поддерживать аналитическую инфраструктуру для всех отделов компании;
- Автоматизировать процессы сбора, обработки и визуализации данных;
- Работать с API для интеграции с внешними сервисами и сбора транзакционных данных;
- Оптимизировать и поддерживать ETL-процессы с помощью n8n и Python;
- Управлять версиями кода в Git, документировать аналитические процессы;
- Работать с SQL и базами данных для построения витрин данных.

Предлагаем:
- Работу в международной Компании с интересными задачами;
- Гибкий график (удаленка или офис);
- Свободу в выборе инструментов – мы ценим инициативу и эксперименты;
- Адекватное руководство и команду – ценим результат, а не бюрократию.

Важно:
- Владение Python (pandas, requests, numpy)  для обработки данных и работы с API;
- Умение работать с n8n или другие инструменты автоматизации для настройки ETL и интеграции данных;
- Опыт работы с Power BI, Metabase – для визуализации данных и создания отчетов;
- Навыки работы с PostgreSQL, ClickHouse  для написания запросов и оптимизации работы БД;
- Практический опыт работы с API (REST, JSON) для получения данных и интеграции сервисов.
- Уверенные знания Git для версионирования аналитических решений;
- Опыт работы с финансовыми данными или платежными системами будет преимуществом.

Для отклика: tg @vgrebenyuk

Читать полностью…

Data Science Jobs

Подработка для Data Engineer / Data Scientist

Мы в Data Light ищем ML-специалиста, который любит делиться знаниями и хотел бы стать экспертом и спикером в сфере машинного обучения и ИИ

Чем предстоит заниматься:
-Выступать на конференциях по ML / AI
- Участвовать в мероприятиях, делясь экспертным мнением о трендах индустрии
- Устанавливать профессиональные связи на мероприятиях
- Быть спикером на онлайн-мероприятиях компании (вебинарах, мастер-классах)

Наши ожидания:
- 3+ года опыта в ML
- Проживание в Москве
- Глубокие знания ML
- Опыт публичных выступлений (не обязательно на конференциях)
- Опыт посещения профессиональных мероприятий
- Хорошие коммуникативные навыки

Что мы предлагаем:
- Проектную занятость
- Поддержку в развитии личного бренда
- Сдельную оплату за участие в мероприятиях
- Возможность командировок за рубеж
- Партнёрскую программу с процентом с привлечённых проектов

Если вам интересно присоединиться к нашей команде, отправляйте свое резюме @spoleshka.
Будем рады сотрудничеству!

Читать полностью…

Data Science Jobs

#вакансия #аналитик #Офис #fulltime #Junior #СПБ #Тбилиси

Должность: Аналитик данных
Локация: Спб, Тбилиси
ЗП: по договоренности

Привет!

Наша команда из подразделения Evercode Lab развивает финансовый сервис мирового уровня, которым ежедневно пользуются сотни тысяч людей по всему миру и на всех континентах. Мы растём в геометрической прогрессии и находимся в поиске Junior Аналитика

Задачи:

✅Сбор и анализ данных для выявления точек роста и возможностей для увеличения прибыли продукта (Открытые данные + анализ конкурентов)
✅Сотрудничество с командами маркетинга и разработки для реализации выявленных на основе данных гипотез
✅Составление таблиц и дашбордов для мониторинга эффектов от изменений в продукте и на рынке

Мы ожидаем:

✅Опыт в аналитике данных от 6 мес
✅Владение SQL, Python, google spreadsheets
❗️Подробнее о вакансии тут
📱 @madame_ntsama

Читать полностью…

Data Science Jobs

Вакансия: Data Engineer

Всем привет! 😊
Ищем Data Engineer для небольшого бизнеса, где важны результаты, а не формальности и бюрократия. У нас никакого хардкорного enterprise, главное — реализация и работающие решения.

🔹 Занятость: проектная с возможностью долгосрочного сотрудничества
🔹 Формат: удалённый, гибкий график
🔹 Оплата: обсуждается, в зависимости от опыта и компетенций

Задачи:
🔹 Разработать систему загрузки, хранения и управления данными (файлы, API, сайты)
🔹 Развернуть и настроить инструменты для обработки данных (ориентировочный стек: Prefect, Airbyte, Redis, PostgreSQL, Minio, ClickHouse)
🔹 Оптимизировать процессы работы с данными
🔹 Проектировать базы данных для эффективного хранения и обработки информации

Что важно:
🔹 Умение проектировать и оптимизировать базы данных
🔹 Ответственность и нестандартный подход к решению проблем
🔹 Навыки работы с указанным стеком (или готовность быстро освоить новые инструменты)
🔹 Готовность обсуждать стек технологий и предлагать альтернативные решения
🔹 Ориентация на результат, а не на формальные процессы

Что предлагаем:
🔹 Гибкий график без микроменеджмента
🔹 Достойную оплату, обсуждаемую индивидуально
🔹 Возможность долгосрочного сотрудничества
🔹 Интересный проект с перспективами развития
🔹 Минимум бюрократии — максимум практических решений 🚀

Если вы заинтересованы, пожалуйста, свяжитесь с нами через Telegram: @IlyaNikolaev

Читать полностью…

Data Science Jobs

Всем привет! #удаленка #middle #senior #аналитик #sa #вакансия #рф
Компания: Netbell
Локация: РФ
Формат работы: удаленный на территории РФ
Вакансия: Системный Аналитик


❕Мы ищем Middle/Middle+/Senior системного аналитика для работы над флагманским корпоративным финтех-проектом.

Если ты только начинаешь свой путь в системной аналитике и хочешь попробовать свои силы на реальных проектах, не стесняйся направлять резюме, мы рассмотрим твою кандидатуру!

С нас — современный стек и архитектура, дружная команда профессионалов и достойный оклад. От вас — опыт работы системным аналитиком от 3-х лет, интерес к финтеху и готовность к вызовам.

Что предстоит делать:

➕Заниматься только системной аналитикой!
➕Работать в продуктовой scrum-команде
➕Моделировать бизнес-процессы и сценарии
➕Проектировать систему и интеграции
➕Управлять требованиями, ставить и сопровождать задачи на разработку
➕Участвовать в дейликах, планированиях, демо, общаться с людьми (вы не ослышались)

Наши ожидания:
➕Опыт работы в системном анализе от 3х лет на корпоративных проектах
➕Опыт работы в scrum (или около-scrum) командах
➕Понимание принципов микросервисной архитектуры.
➕Желание погружаться в сложные процессы и современные решения

🚩Надо знать: BPMN, REST API, Kafka, ERD, SQL, Sequence Diagram, оркестровка и хореография.

Будет плюсом: Camunda, ArchiMate, GraphQL, CJM, S&T diagram. Знаете о DDD? Просто отлично

Что мы предлагаем:

➕Полная удалёнка
➕Аккредитованная ИТ-компания
➕Интересный продукт, современный стек, микросервисная архитектура
➕Известные клиенты из ТОП-10 в своих сегментах
➕Прокачка скиллов под руководством лидов с 8+ лет опыта
➕Достойный оклад по итогам собеседования + ежеквартальный сбор ОС с премированием лучших сотрудников
➕Возможность взять на себя дополнительные задачи за соответствующее вознаграждение
➕Премии за менторство младших сотрудников
➕Ежеквартальные бонусы и подарки лучшим сотрудникам

Ключевые навыки:
Agile / REST API / System Analysis / BPMN 2.0 / Camunda / Apache Kafka / Use case / БД / User Story / sequence diagram

Вилка: до 320к
Контакты:
@annasoma

Читать полностью…

Data Science Jobs

#вакансия #ML #LLM #fulltime #РФ #Middle+ #senior

Вакансия: ML-инженер с экспертизой в LLM
Компания: Ekleft (розница)
Оформление: ИП
Вилка: до 390.000 на руки
Локация: РФ (❗️)

📌 Что мы ждем:
- Опыт работы в Machine Learning (ML) от 3 лет
- Глубокое понимание Large Language Models (LLM), опыт интеграции в бизнес-процессы
- Опыт работы с нейросетевыми моделями для обработки естественного языка (NLP), такими как GPT, BERT, T5 и их аналогами
- Умение анализировать и обрабатывать данные: очистка, аннотирование, балансировка
- Знание инструментов для автоматического аннотирования данных
- Опыт построения ML-пайплайнов (MLOps) и их интеграции с продуктами

📌 Обязанности:
1. Обучение моделей для автоматизации обработки обращений
a. Анализ существующих LLM и выбор оптимальной модели
b. Создание и тестирование промтов для существующих и новых классов
c. Обработка и очистка данных, если потребуется

2. Классификация отзывов и прогнозирование
a. Разработка пайплайна на основе LLM для классификации отзывов с различных платформ
b. Построение ML-моделей для прогнозов в отчетности на основе исторических данных

3. Разработка инструментов аннотирования данных
a. Автоматизация аннотации данных
b. Улучшение моделей с учетом контекста (не обучение с нуля, а доработка пайплайнов)

4. Интеграция моделей в бизнес-процессы
a. Настройка классификации обращений и ответов
b. Разворачивание и интеграция с сервисами

5. Оценка качества генерации текста
a. Разработка и настройка метрик качества (BLEU, ROUGE, перплексия)
b. Оценка качества промтов

6. Работа с voice-ботами
a. Автоматизация обучения voice-бота с использованием LLM
b. Возможный переход на ru-BERT

📌 Технические навыки:
- ML-фреймворки: PyTorch, TensorFlow
- NLP-библиотеки: Hugging Face Transformers, SpaCy, NLTK
- MLOps: MLflow, Kubeflow, Docker, Airflow
- Обработка данных: pandas, NumPy, scikit-learn
- Развертывание и интеграция: FastAPI, Flask, gRPC
- Работа с БД: PostgreSQL, MongoDB, ElasticSearch
- Желательно: опыт работы с LLM API (OpenAI, Cohere, Llama, Claude) Soft skills
- Умение взаимодействовать с бизнес-командами и определять требования
- Способность самостоятельно формулировать задачи и находить решения
- Опыт работы в Agile (Scrum/Kanban)

☎️ Контакты: @AnyaSechkova

Читать полностью…

Data Science Jobs

Успей победить DeepFake

Последние дни регистрации на Kryptonite ML Challenge. Создай решение для распознавания лиц и раздели призовой фонд 600 000 рублей.

Регистрация до 28 февраля: https://cnrlink.com/kryptonitemldsjobs3

Тебе предстоит создать модель, которая умеет:
🔹 распознавать фальшивые изображения;
🔹 сравнивать реальные фотографии одного и того же человека;
🔹 различать снимки разных людей.

Участвуй и ты сможешь:
🔸 получить шанс разделить призовой фонд в 600 000 рублей;
🔸 разработать решения в области Machine Learning и Computer Vision;
🔸 прокачать скиллы в Computer Vision, Metric Learning и Face Recognition.

Организатор хакатона – ИТ-компания «Криптонит». Подписывайтесь на их телеграм-канал – там много интересного.

Зарегистрируйся сейчас: https://cnrlink.com/kryptonitemldsjobs3

Реклама. АО НПК "Криптонит". ИНН 9701115253. erid: 2W5zFG1ko7N

Читать полностью…

Data Science Jobs

#работа #вакансия #Middle #System #Analyst #Zabbix

☁️Позиция: Системный аналитик Zabbix
🏙Компания: HuntTech
💰зп: вилка: 260 - 325тр
📅формат работы: гибрид 50/50
📶Локация\Гражданство: РФ
занятость: Full-time
Контакт: @Feeelinggoood

📌Что предстоит делать:
- Сбор, формирование и подготовка функциональных требований, технических заданий на разработку/доработку автоматизированных систем;
- Настройка (совместно с техническими специалистами) компонентов вычислительной и прикладной инфраструктуры на площадке Заказчика;
- Участие в формировании списка задач для отдельных команд и рабочих групп;
- Разработка проектных решений и проектной документации;
- Подготовка технико-коммерческих предложений, спецификаций на оборудование и ПО, техническая поддержка пресейлов.

🔺Мы ждем от кандидата:
- Базовые навыки администрирования серверов Windows и Linux, либо уверенный пользователь;
- Опыт участия в проектах в роли ведущего специалиста, аналитика, архитектора или ИТ-лидера по направлению (системы мониторинга);
- Опыт проектирования инструментов мониторинга – Grafana, Zabbix, Elasticsearch/OpenSearch, Prometheus;
- Понимание технологии REST API, опыт построения sql-запросов;
- Опыт описания бизнес-процессов в нотации UML/BPMN;
- Опыт сбора, анализа и формализации функциональных требований, требований к изменениям в бизнес-процессе.

➕ Будет плюсом:
Опыт работы с системами класса CI/CD (GitLab CI, Jenkins, Argo CD и проч.), опыт автоматизации (на любом скриптовом языке программирования), опыт работы с высоконагруженными системами в отказоустойчивой конфигурации.

✉️ Как присоединиться к команде?
Если вы готов принять вызов и стать частью нашей команды -пиши: @Feeelinggoood

Читать полностью…

Data Science Jobs

#vacancy #data #lead #Databricks #AWS #remote #вакансия #удаленно #relocate

Коллеги, привет!
Я в поисках Data Engineering Lead в международную финтех компанию в ЮВА.
Стек: AWS, Databricks, Spark, Terraform, Airflow, Python, Scala
Удаленный формат работы ( или гибрид). Рабочая тайм зона UTC+5/UTC+9 ( и очень важно либо уже находиться там, либо быть готовым к релокации ( поддержка переезда для сотрудника и семьи)

Основные задачи:
- Проектирование и разработка Data Lakes и Data Marts на AWS и Databricks
- Построение и управление ETL-пайплайнами в Airflow/Dagster на Python и Scala
- Автоматизация инфраструктуры с Terraform
- Оптимизация производительности BI-слоев и data pipelines
- Развивитие фреймворков качества данных для надежной аналитики
- Управление командой Data инженеров

Что важно:
- Опыт с Databricks, Spark, Terraform, Airflow, AWS, Python, Scala (как плюс)
- Опыт создания масштабируемых Data решений
- Опыт решения инфраструктурных задач
- Опыт в роли Lead/Head of Data

На все вопросы готова ответить в ЛС @akimova_hr

Читать полностью…

Data Science Jobs

#вакансия #vacancy #fulltime

Архитектор данных (DWH)

Лидера рынка ритейла (не РФ) с более чем 150 маркетами по всей стране в поиске Архитектора данных (DWH) для участия в проекте по внедрению централизованного хранилища данных.

Основные задачи:
– Участие в проекте по внедрению централизованного DWH в роли Архитектора и лидера команды разработки;
– Взаимодействие с бизнес-пользователями и подрядчиками для сбора и уточнения требований к DWH;
– Разработка архитектуры хранилища данных, включая проектирование слоев, потоков и моделей данных;
– Проведение архитектурного надзора, управление данными и проведение code review;
– Подготовка технической и методологической документации;
– Контроль проектных сроков и рисков совместно с Руководителем/Менеджером проекта;
– Координация работы команд разработки в процессе реализации DWH;
– Участие в тестировании и приемке системы заказчиком;
– Оптимизация процессов ETL для работы с большими объемами данных;
– Организация мониторинга качества данных и внедрение инструментов для отслеживания инцидентов.

Требования:
– Опыт проектирования архитектуры Хранилищ Данных (ХД), слоев ХД, ЛМД и ФМД, интеграционных решений и потоков трансформации данных (ETL/ELT);
– Практический опыт работы с СУБД, Data Lake, modern data stack на базе облачных технологий (сертификация Azure — плюс), ETL-инструментами (Data Factory и другие), BI-инструментами (будет плюсом);
– Опыт работы в роли архитектора DWH или Data Lake от 2 лет (обязательно);
– Понимание архитектуры данных в ритейле или e-commerce (желательно);
– Знание и практический опыт работы с платформой Microsoft Azure Fabric;
– Уверенный английский для общения со стейкхолдерами и ведения деловой переписки;
– Опыт работы с техническим стеком SAP (например, SAP BW on Hana) — плюс;
– Готовность к работе on-site в Ташкенте минимум 50% времени (релокация — плюс).

Мы предлагаем:
– Помощь с релокацией + Релокационный пакет;
– Ежегодные премии по результатам Performance Review;
– Масштабные корпоративные мероприятия и митапы;
– Партнерские программы обучения иностранным языкам и профессиональным навыкам;
– Программу материальной помощи в различных жизненных ситуациях;
– Поддержку ментора для быстрой адаптации новых сотрудников

Контакт для отклика на вакансию @haas_mari

Читать полностью…

Data Science Jobs

Всем привет!

Мы в «Центр Орбита» ищем Data Engineer уровня Senior на временный проект 🧐

Вакансия: Senior Data Engineer.
Компания: «Центр Орбита».
Локация: Москва / РФ удаленка.
Длительность проекта: 6 мес. возможно продление.

Масштабный технологический проект с глубокой экспертизой в цифровизации бизнеса. Ключевые отрасли: государственный сектор, FinTech, HR Tech, коммуникации и медиа, услуги, рынок недвижимости, travel. Нам доверяют крупнейшие компании РФ, среди них: Т1, ВТБ, Иннотех, Альфа-банк, ОИС и другие. Более 6 лет мы ведем собственную продуктовую и заказную разработку высокоэффективных цифровых решений.

Наш основной стек:
Apache Spark, Apache Airflow, Apache Kafka, Apache Flink, Yandex Cloud, Python, SQL, Linux, Docker, K8S.

Основные задачи:
• Работа над проектом в крупном ретейле;
• Разработка и поддержка ETL-процессов;
• Работа с потоковыми данными;
• Оркестрация задач;
• Работа с облачной инфраструктурой;
• Анализ и оптимизация запросов.


Пиши @Gillthunder, обсудим условия. 📃

#job #вакансия #аутстафф #удаленка #DE

Читать полностью…

Data Science Jobs

Mobile analyst / Marketing analyst
Название компании: Basics.tech
URL компании: https://basics.tech

Локация: Не важно
Часовой пояс: GTM +3
Предметные области: другая
Формат работы: Удаленно

Тема проекта: Приложение фоторедактор на базе AI

Зарплата: Открыты к предложениям

Обязанности:
• Настройка и управление аналитическими системами мобильных приложений (AppsFlyer, Adjust, Amplitude, Adapty и другие).
• Интеграция SDK, атрибуционных платформ, пикселей и других инструментов для точного отслеживания трафика.
• Оптимизация работы платных источников трафика (Google Ads, Facebook Ads, TikTok Ads и другие).
• Создание систем трекинга пользователей и воронок конверсии для максимальной эффективности маркетинговых кампаний.
• Анализ пользовательского поведения и выявление точек роста для улучшения показателей вовлеченности и удержания.
• Построение дашбордов и отчетов для мониторинга ключевых метрик.
• Автоматизация процессов аналитики и отчетности для сокращения ручной работы.
• Проведение A/B тестов и оценка их результатов для повышения эффективности маркетинговых решений.
• Выявление и предотвращение аномалий, связанных с некорректным отслеживанием данных.
• Взаимодействие с разработчиками и маркетологами для внедрения передовых аналитических решений.

Требования:
• Опыт работы с мобильной аналитикой от 2 лет.
• Глубокие знания SDK, пикселей и интеграции аналитических платформ.
• Опыт работы с атрибуционными системами (AppsFlyer, Adjust) и аналитическими платформами (Amplitude, Adapty).
• Отличное понимание работы платного трафика, аналитики рекламных кампаний и методов оптимизации.
• Навыки работы с BI-системами и построения дашбордов (Tableau, Looker, Google Data Studio).
• Знание SQL, Python или других инструментов анализа данных будет преимуществом.
• Умение анализировать большие массивы данных и выявлять закономерности.
• Практический опыт работы в маркетинговых или продуктовых аналитических командах.
• Высокий уровень ответственности и самостоятельности в принятии решений.
• Готовность к быстрому обучению и адаптации к новым инструментам и технологиям.

Бонусы:
• Уникальная возможность работать в одном из самых инновационных технологических стартапов.
• Гибкий график работы с возможностью удаленного формата.
• Конкурентный уровень заработной платы с дополнительными бонусами за успешные рекламные кампании.
• Возможность реализовывать смелые идеи и экспериментировать с передовыми креативными концепциями.
• Постоянное профессиональное развитие и доступ к обучающим программам.

Контактные данные: @horoshayashura

#вакансия #vacancy #productanalyst

Читать полностью…

Data Science Jobs

#вакансия #SA #системныйаналитик #remote #удалённо #fulltime

Компания: SSP SOFT (аккредитованная IT-компания)
Локация: РФ, РБ
Формат: удалёнка
Оформление: ТД, ИП, самозанятость
Зарплата: до 350К

Привет! Мы в SSP SOFT расширяем команду и ищем Senior Системного аналитика. Если тебе интересно работать над крутыми IT-проектами в fintech, ритейле, автопроме, промышленности и других сферах — тебе к нам!

💡Что для нас важно:
▫️3+ лет опыта работы в роли СА;
▫️Владение SQL на среднем уровне;
▫️Знание и практический опыт работы с нотациями моделирования (UML/BPMN);
▫️Опыт проектирования интеграций (REST/SOAP);
▫️Понимание принципов проектирования интерфейсов;
▫️Опыт работы с MSA/понимание ее преимуществ;
▫️Понимание Agile-процессов;
▫️Обязателен опыт работы на проектах с микросервисной архитектурой.

💡Чем предстоит заниматься:
▫️Взаимодействие с заказчиком и бизнес-аналитиками для выявления требований;
▫️Формирование и демонстрация концептуальных решений;
▫️Проектирование систем и отдельных сервисов;
▫️Разработка проектной документации (ТЗ, спецификации);
▫️Проведение декомпозиции и постановка задач разработчикам;
▫️Приемка и верификация результатов разработки;
▫️Взаимодействие со смежными ролями и командами для создания и выпуска решений;
▫️Демонстрация новой функциональности заказчику, а также первичное обучение ключевых пользователей;
▫️Участие в командных и межкомандных мероприятиях по развитию и совершенствованию


💡Что мы предлагаем:
✅ 100% удалёнка — работай из любой точки РФ;
✅ Гибкие форматы сотрудничества: ТД, ИП или самозанятость;
✅ ДМС (со стоматологией);
✅ Компенсация спорта и обучения английскому;
✅ Возможности профессионального роста.

🚀 Хочешь работать над интересными проектами и прокачивать свои скиллы? Тогда давай знакомиться в тг @Di_ana_a

Читать полностью…

Data Science Jobs

Евгений Разинков – преподаватель ML в Казанском университете с многолетним стажем, руководитель собственной команды ML-инженеров и автор популярного razinkov">канала по машинному обучению на YouTube

приглашает вас в свою AI-школу.

Особенности:
• теория и практика
• акцент на самостоятельную реализацию архитектур с нуля
• полное понимание того, что происходит внутри нейронной сети
• архитектуры от сверточных нейронных сетей до трансформеров и языковых моделей.

Регулярные живые QA-сессии, дружное комьюнити, а также компетишены, где можно будет посоревноваться (в командах и поодиночке) в решении ML задач.

От вас: владение Python и знание основ классического ML (регрессия, классификация, градиентный спуск).
Если классический ML не знаете - есть базовые курсы по ML.

7 месяцев, 4 курса:
• AI: от основ до языковых моделей
• Math for AI - необходимый математический бэкграунд
• MLOps - всё про жизненный цикл модели, логирование, версионирование, docker
• Decision making in AI - управление AI-проектом и стратегия

В рамках Capstone Project вы с нуля реализуете и обучите небольшую языковую модель для генерации простых историй, а также выведете ее в продакшн.

Полная стоимость за 7 месяцев (все 4 курса):
• 112 000 рублей (единоразово)
или
• 17 000 рублей в месяц
Если материалы вам не понравятся, мы вернем деньги за текущий оплаченный месяц (и последующие при единоразовой оплате)!

Старт уже 17 февраля, скорее регистрируйтесь здесь!

Еще больше подробностей о курсе ищите в видео и на странице с отзывами участников.

Кстати, теоретические видео курса AI: от основ до трансформеров находятся в открытом доступе на канале Евгения!

ООО «Лаборатория Евгения Разинкова», ИНН: 5043088023, erid: 2VtzqxKcuC1

Читать полностью…

Data Science Jobs

Вакансия: ML/DS-инженер (Network Fingerprinting & Anomaly Detection)

Коротко о проекте:
Мы разрабатываем сервис, который по низкоуровневым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
- Использует ли пользователь VPN/прокси?
- Подделывает ли User-Agent (говорит, что у него Windows, а на самом деле Linux)?
- Какая настоящая ОС клиента, исходя из сетевых особенностей?

Всё это необходимо для профилактики злоупотреблений и фрода. У нас есть база отпечатков в JSON (и возможность собирать их), хотим построить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), внедрить её в микросервис (REST API), чтобы она в реальном времени выдавала предсказания.

---

### Задачи:

1. Анализ данных (EDA) и фича-инжиниринг
- Разобраться в имеющихся наборах данных (TLS, TCP/IP, HTTP2, JA3 и т.д.).
- Разработать способ извлекать ключевые признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.) из сырых логов или JSON-дампов.
- При необходимости помочь доработать процесс сбора данных.

2. Разработка и обучение моделей
- Выбрать подходящие алгоритмы (XGBoost, Random Forest, нейронные сети или комбинацию).
- Настроить процесс обучения и валидации: train/test split, кросс-валидация, подбор гиперпараметров.
- Оценить метрики (Accuracy, Precision/Recall, F1, ROC-AUC и т.д.), предложить способы улучшить качество предсказаний.

3. Построение ML-сервиса
- Обернуть модель в сервис (REST API/gRPC) для интеграции в наше приложение.
- При необходимости настроить окружение (Docker, CI/CD).
- Продумать базовый MLOps-процесс (сбор новых данных, мониторинг качества, периодическое переобучение).

4. Детект VPN/прокси и аномалий
- Определять, что клиент сидит за прокси/VPN, исходя из набора признаков (TTL, JA3, открытые порты, IP-блеклисты и т.д.).
- Анализировать mismatch между User-Agent и реальной ОС (по TCP/IP флагам, JA3, HTTP2).
- Предложить систему порогов (threshold) и/или вероятностных предсказаний (score).

5. (Опционально) Автоматизация & поддержка
- При желании и наличии опыта — помочь настроить инфраструктуру для масштабирования.
- Участвовать в обсуждении и доработке архитектуры приложения.

---

### Требования:

1. Уверенные знания ML и статистики
- Понимание классических алгоритмов (деревья, бустинги), умение выбирать и тюнить модели.
- Желательно опыт с глубинными фреймворками (PyTorch/TensorFlow).

2. Инструменты Data Science
- Python: библиотеки scikit-learn, XGBoost/LightGBM, pandas, numpy.
- Умение визуализировать данные, проводить EDA (matplotlib, seaborn и т.п.).

3. Навыки обработки сетевого трафика (желательно, но можно прокачаться по ходу)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3-сигнатур.
- Базовое представление о HTTP/2.

4. DevOps / MLOps (на базовом уровне)
- Docker, Git, Linux; плюсом — CI/CD.

5. Дополнительно приветствуется
- Опыт DS-наставничества.
- Базовые знания по безопасности, понимание работы VPN/прокси-сервисов.
- Хорошая математическая база (статистика, матан, вероятностные модели).

---

### Формат работы:
- Удалённо, частичная или полная занятость (обсуждается).
- Работа в небольшом коллективе (сети/бэкенд + ML-часть).
- Задачи в трекере, стендапы/созвоны по мере необходимости.

### Что предлагаем:
- Возможность глубоко разобраться в сетевых отпечатках, работать с интересными данными.
- Гибкость в выборе инструментов: не ограничиваем стектом — главное результат.
- Поддержка с инфраструктурой и сбором данных (с сетевой стороны).
- Конкурентная компенсация (по результатам собеседования).

---

Как откликнуться:
- Напишите о себе, прикрепите резюме/портфолио (GitHub/Kaggle и др.).
- Поделитесь примером ML-проекта, где вы делали пайплайн обучения/деплоя.
- Укажите опыт в сетевых протоколах или безопасности (VPN, прокси), если есть.
Контакт /channel/Siemons8

Читать полностью…

Data Science Jobs

Как можно учиться онлайн и что будет написано в дипломе? Можно ли учиться в онлайн-магистратуре параллельно с работой? Как поступить в IT-магистратуру, если закончил бакалавриат по другой специальности?

Если вы планируете поступать в магистратуру в 2025 году, Зимняя школа Онлайна — лучший способ получить ответы из первых рук: академических руководителей, преподавателей и студентов программ.

На Зимней школе Онлайна вы:
— откроете для себя новые направления в IT
— познакомитесь с ведущими экспертами индустрии
— получите инструменты для развития в IT
— сможете лучше понимать и анализировать данные

Когда: 17-20 февраля, 17:00-19:00
Формат: онлайн

Для участия в мероприятии необходимо зарегистрироваться по ссылке.

Читать полностью…

Data Science Jobs

Устроиться аналитиком в Яндекс за выходные

1–2 марта проводим Weekend Offer Analytics. До 24 февраля оставьте заявку на участие, 1 марта пройдите технические собеседования, а 2 марта познакомьтесь с командами и получите офер.

В мероприятии участвует 11 команд: Большие данные, Алиса, Ecom-сценарии Поиска, Автономный транспорт, Поиск с Нейро, Карты, Рекламные технологии, Коммерческий департамент, Международные проекты Поиска в Турции и Казахстане, Crowd, Приложение «Яндекс с Алисой». Вы сможете пообщаться с менеджерами и выбрать проект, который покажется самым интересным.

Узнать подробности и зарегистрироваться можно здесь.

Читать полностью…
Subscribe to a channel