🚀 Запускаем соревнование по AutoML для студентов
🌿 Настало время оправдать название курса AutoML in Practice и закрепить полученные в нем знания. Каждый курс от Лаборатории обязательно подкрепляется соревнованием по анализу данных и в этом году мы не стали делать исключение. Уверен, оно вам точно зайдет, ведь на этот раз его готовили исключительно kaggle-мастера из нашей команды. Соревнование будет состоять из отборочного онлайн-этапа и очного офлайн-этапа.
1️⃣ В отборочном испытании вам предстоит решить одну из трех наших актуальных задач:
🔹Кредитный скоринг ЮЛ (вероятность дефолта, PD модели)
🔹Склонность физических лиц к инвестициям (Look-alike модели)
🔹Отток юридических лиц из расчётно-кассового обслуживания (CLTV модели)
2️⃣ В финальном этапе участники соревнования напишут свой AutoML, который сможет решить 15 различных задач.
Распределение призовых:
🥇1 место - 250 000 ₽
🥈2 место - 150 000 ₽
🥉3 место - 100 000 ₽
🗓Ключевые этапы:
🔹 22-31.10 — Подача заявок (дедлайн)
🔹 1-12.11 — Отборочный этап - онлайн
🔹 18.11-7.12 — Финальный этап -онлайн
🔹 7-8.12 — Финальный этап - офлайн
🚫Ограничения: К участию допускаются студенты 18-25 лет.
👉 Регистрируйся по ссылке на соревнование сейчас, чтобы закрепить полученные знания из нашего курса.
🚀Команда Сбера🚀выложила в open-source самый большой датасет, содержащий мультимодальные банковские данные ЮЛ.
🔥Multimodal Banking Dataset (MBD)🔥
Датасет состоит из обезличенных исторических данных, содержащих следующую информацию по клиентам ЮЛ за 12-24 месяцев:
📌транзакционная активность (transactions);
📌эмбеддинги диалогов (dialogs);
📌гео-активность (geostream).
Таргет: предсказать для каждого пользователя взятие каждого из четырех продуктов в течение месяца после отчетной даты. Исторические данные за 2022 находятся в targets.
Датасет на HuggingFace:
🖥https://huggingface.co/datasets/ai-lab/MBD (14,6 GB, основной датасет)
🖥https://huggingface.co/datasets/ai-lab/MBD-mini (3,38 GB, уменьшенная версия, 10% клиентов из основного датасета)
Датасет опубликован под лицензией Creative commons 4.0, доступен для использования в научных работах, экспериментах итд.
🚀 LightAutoML снова покоряет вершины! 🚀
Мы рады сообщить, что LightAutoML ворвался в ТОП-5 самых популярных решений в категории "ML и алгоритмы" по мнению исследователей из ИТМО, заняв почетное второе место!
Но это еще не все! LightAutoML также стал лидером среди самых часто используемых решений Сбера — одного из ключевых игроков в сфере Data/ML, который активно создает свои открытые решения и участвует в опенсорс-разработках.
Присоединяйтесь к нам и открывайте новые возможности в мире машинного обучения! 🌟
Всем хорошей пятницы!
Начинаем трансляцию через 10 минут. Все вопросы/комментарии/предложения можно писать прямо под этим постом в комментариях.
Да будет стрим 💪
P.S. Запись будет, поделимся ей в канале 😎
🏆 Российский AutoML побеждает на международной арене
Команда “LightAutoML testers” победила в международном соревновании Kaggle AutoML Grand Prix! Наши ребята: Александр Рыжков, Дмитрий Симаков, Ринчин Дамдинов и Иван Глебов с помощью решений на основе LightAutoML обошли известных конкурентов по индустрии, включая команды из Amazon и H2O!
🚀 LightAutoML - бесплатный и открытый инструмент
Ключом к успеху стала open-source библиотека LightAutoML (LAMA), которая автоматизирует построение моделей машинного обучения. Благодаря использованию библиотеки ускоряется построение моделей и, зачастую, повышается качество. Инструмент подойдет как новичкам, так и профессионалам - решение можно получить как в несколько строк, так и с полной кастомизацией.
🌍 Kaggle AutoML Grand Prix 2024
Это - онлайн соревнование, приуроченное к ежегодной международной конференции International Conference on Automated Machine Learning, которая в этом году пройдет в Париже. Соревнование проходило на Kaggle (самой масштабной мировой платформе для соревнований по анализу данных) в 5 этапов, в каждом из которых было необходимо создать качественную модель машинного обучения всего за 24 часа.
🎓 Делимся опытом
Хотите узнать секреты победителей? Не пропустите предстоящий вебинар, где команда расскажет о своих решениях и ответит на ваши вопросы! Следите за анонсами в канале @lightautoml.
Добрый день, коллеги!
В продолжение недавнего сообщения о нашем участии в Kaggle AutoML Grand Prix - мы-таки выложили полноценное описание своего решения на 125 моделей, построенных за 24 часа (схему можно увидеть на первой приложенной к посту фотографии) 🤖
Также доступны:
- Открытый код инференса с финальным скором
- Датасет с различными предсказаниями и обученными моделями (еще больше, чем необходимо для финального сабмита)
Вопросы, замечания, предложения, лайки, share, подписки приветствуются ❤️
Также хочется отметить, что на второй приложенной к посту картинке изображен текущий лидерборд Kaggle AutoML Grand Prix за 3 прошедших этапа и основной баттл за призы еще впереди - всего в 5 очках расположены 5 команд, каждая из которых может претендовать на итоговое 1-ое место и $25k 💸
Всем привет!
На прошедшем вчера третьем этапе AutoML Grand Prix на Kaggle команде Лаборатории AI "LightAutoML testers" удалось занять 3-е место, уступив только командам из H2O с решениями на базе платного решения Driveless AI и опередив коллег из Amazon, Microsoft, MLJAR и других компаний.
Полное решение с описанием будет выложено в ближайшие дни (следите за обновлениями 🤓), однако уже сейчас публично доступно сверхбыстрое решение на основе одной табличной нейронной сети из LightAutoML, способное занять 5-ое место: https://www.kaggle.com/code/simakov/lightautoml-denselight (вы знаете, что делать ⭐️)
Happy Kaggling 🦙
🔥 Привет, друзья! У нас для вас интересное предложение ☺️
Хотите помочь повысить эффективность рекомендаций? Тогда залетайте к нам!
Мы предлагаем решить нашу задачу 12 — разработать предиктивную модель для рекомендации продуктов банка
🟩 Что нужно сделать
Разработать мультимодальную модель, позволяющую прогнозировать выдачу продуктов в течение следующего месяца. Обязательное условие: использование библиотеки PyTorch-LifeStream в решении задачи
🟥 Призовой фонд задачи
1 место — 1 000 000 ₽
2 место — 600 000 ₽
3 место — 400 000 ₽
Присоединяйтесь к международному хакатону! Разработка начнется уже 3 июня. Успейте зарегистрироваться до 5 июня включительно!
🟢English version
🏆 Запись стрима от 17 мая
Гость: Александр Рыжков (4️⃣2️⃣4️⃣4️⃣) рассказал про применение AutoML в чемпах и свой 13-летний опыт на Kaggle.
Чемп: 🏅 TabularPlaygroundSeries May 2024 #AutoMLGrandPrix
Описание
Код решения
Kaggle Александра
datafeeling">Наш Youtube
Мир, труд, май ✌️
01.05.24 на сореве Kaggle TabularPlaygroundSeries May 2024 #AutoMLGrandPrix команда "LightAutoML testers" обошла все команды Долины (H2O, Amazon, Microsoft со своими решениями - Driveless AI, AutoGluon, FLAML). Описание и код решения уже доступны в публичном доступе.
Следующие раунды соревнования пройдут 01.06.24, 01.07.24, 01.08.24 и 01.09.24 (каждый из которых продлится всего 24 часа)
Happy Kaggling 🦙
HIRING🚨
Всем приятного вечера!
Мы активно проводим поиски на вакансию AI researcher на ключевой проект по Time Series в нашу команду!
🔌 340-430 тысяч рублей + годовой бонус
📍Москва, гибридный формат
Задачи:
✅ Разработка few-shot multitask модели для временных рядов на базе трансформера без дообучения на конкретных данных
✅ Решение задач временных рядов SOTA алгоритмами, в том числе при помощи языковых LLM
✅ Участие в написании научных статей и/или разработке open-source библиотеки
Ожидаем от нового члена команды:
✅ Хорошее знание языка Python (в том числе опыт работы с ML и DL framework-ами (NumPy, SciPy, Pandas, PyTorch, Tensorflow и пр.)
✅ Глубокое понимание основ DL и классического ML, широкий кругозор в ML в целом
✅ Знание TS методов и подходов из NLP применительно к TS и желание совершенствоваться в этой области
Откликайтесь по ссылке и присоединяйтесь к команде Sber AI Lab!
По всем вопросам и рекомендациям пишите: @ekmaslennikova
🔥Сегодня мы расскажем про библиотеку PyTorch-LifeStream (ссылка на видео с обзором).
Библиотека PyTorch-LifeStream содержит обширный инструментарий для создания эмбеддингов с помощью нейронных сетей на основе событийных данных. В ней есть как оригинальный алгоритм CoLES, так и модели, ранее использованные для текстов и картинок, но адаптированные для событий.
Преимущества построения эмбеддингов с использованием библиотеки PyTorch-LifeStream 💪:
✔️ Повышение качества моделей на сложных событийных данных за счет выявления скрытых признаков и связей
✔️ Меньшие затраты ИТ и человеческих ресурсов. Требуется работать с одним вектором для клиентов, что много проще и быстрее, чем работать с последовательностью сложно структурированных данных
✔️ Возможность работы с большими данными. Обучение эмбеддингов для миллионов клиентов с использованием миллиардов событий
✔️ Обезличивание. Можно работать с конфиденциальными данными без утечек, так как по эмбеддингу нельзя восстановить исходную информацию
✔️ Open source библиотека с готовыми алгоритмами для бесплатного использования
✔️ Гибкость и удобство использования. Есть готовые алгоритмы и инструменты, которые легко применить для новых данных. Можно создать единый пайплайн работ, кастомизировать модели, сравнивать результаты
Всем привет!
Весна шагает семимильными шагами и вдохновляет нас на самые интересные предложения. Мы задумались о трансформации канала и расширении освещения в области наших open source решений.
Хотите узнавать про другие фреймворки в этом канале, получать новости по релизам, хакатонам и соревнованиям?
Если да, ставьте 🔥 к посту!
Хотите оставить только LightAutoML жмите 😢
У нас есть:
✅ Фреймворк для создания моделей рекомендаций RePlay
✅ Фреймворк для работы с событийными данными PyTorch-LifeStream
✅ Фреймворк PyBoost и бустинг под multilabel/multioutput задачи
✅ Фреймворк Sim4Rec - симулятор пользовательского отклика для сравнения, дообучения и оценки рекомендательных систем
И это еще не все!
Главное, что эти решения можно применять совместно и показывать отличные результаты:
✔️ Иван Глебов – один из участников Data Fusion Contest 2024, используя LightAutoML и PyTorch-LifeStream, смог занять 4 место при решении задачи "Модели оттока"
✔️ Использование LightAutoML совместно с PyTorch-LifeStream позволило получить одной из команд 1 место в хакатоне ВК "Машинное обучение на графах"
✔️Благодаря использованию фреймворков RePlay и Py-Boost уже нашим ребятам удалось занять 19 место из 2500+ команд и получить «серебро» в соревновании OTTO по созданию рекомендательных систем на Kaggle
Коллеги, всем привет!
Давно мы не сообщали об обновлениях LightAutoML, но все это время мы не сидели сложа руки - сегодня ночью на PyPI появился релиз LAMA 0.3.8.1 с множеством полезных обновлений:
1) Теперь из коробки вам доступны 9 SOTA архитектур табличных нейросетей таких как MLP, DenseNet, DenseLight, ResNet, SNN, TabNet, NODE, FTTransformer и AutoInt++. Также были добавлены SOTA методы кодирования признаков - PLR и SoftEmb.
2) По многочисленным заявкам в LightAutoML был добавлен алгоритм SSWARM для расчета Shapely значений итоговой модели. Алгоритм позволяет работать с произвольной итоговой моделью (состоящей не только из бустингов) и если сравнивать его с KernelExplainer из SHAP, то удается получить нужные значения на 2-4 порядка быстрее (примерно на уровне TreeExplainer, который поддерживает только бустинги).
3) Всеми любимые отчеты о разработке моделей теперь можно строить для TabularUtilizedAutoML пресета
4) В новой версии LightAutoML поддерживает версии питона 3.8 - 3.11 включая оба конца, что позволяет использовать ее как на Kaggle, так и в Google Colab
5) Исправлено большое количество добавленных ранее багов и проблем с зависимостями (так, например, решена проблема с версией scikit-learn - теперь случайный лес работает в мультиаутпут задачах и временных рядах) 🙃
С примерами использования нововведений можно ознакомиться в нашем обновленном туториале и в кернелах (Tabular_NN, SSWARM_SHAP) на Kaggle.
Будем рады услышать ваш фидбек, а также вопросы/замечания/предложения по работе LightAutoML
Решаем ML-задачи за 60 секунд, отправляем AI торговать на бирже и изучаем мультимодальную архитектуру — на онлайн-митапе Сбера при поддержке JUG Ru Group.
🗓 29 ноября в 18:00
В программе:
✔️ Александр Рыжков — «AutoML на практике: сделать AI за 60 секунд»Александр покажет, как быстро решать ML-задачи с использованием фреймворка LightAutoML.
✔️ Андрей Ахметов — «AI/ML в валютном трейдинге»
Как зарабатывают с AI в трейдинге, какие ML-модели используют, как анализируют данные и оценивают их результаты.
✔️ Андрей Кузнецов — «Мультимодальная архитектура OmniFusion — новый способ AI-коммуникации с пользователем?»
Доклад создании больших языковых моделей, способных одинаково хорошо работать с текстом и видео. А также о коммуникации моделей между собой.
Общайтесь с участниками митапа и задавайте вопросы спикерам в чате трансляции. Авторы лучших вопросов к каждому докладу получат сертификаты в магазин мерча SberShop.
➡️ Регистрация по ссылке.
Реклама. ПАО СБЕРБАНК. ИНН 7707083893.
Доброе утро мир 😎
Интересное событие для студентов появилось на горизонте в оооочень близкой перспективе - хакатон от Альфа-банка по написанию своего AutoML (хотя думаю можно использовать и некоторые заготовки 🦙)
Подробная информация ниже 👇
Как новички в Data Science решают сложные задачи: результаты моих студентов в ML соревновании 📊
Какие подходы пробуют применять стажеры и джуны в Data Science соревнованиях с табличными данными? Я принёс инфографику моих студентов, которая иллюстрирует их работы в финальном соревновании курса 📈
🔍 Предыстория
В прошлом учебном году я вел блок занятий по Machine Learning на одном из курсов. Чтобы отработать навыки студентов, я запустил inclass соревнование. Студенты решали задачу бинарной классификации — для многих это был первый подобный опыт.
Почти все подходы студентов были связаны с алгоритмами градиентного бустинга. В топ 3 решений попали ансамбли, automl и catboost 🏆
Если вам понравилась визуализация, python код для ее воспроизведения доступен на моем GitHub. Сделать такую же инфографику проще, чем вы думаете! ✨
Доброе утро, коллеги!
Делимся с вами записью вебинара про AutoML Grand Prix, прошедшего в пятницу, в двух форматах - в формате видео и формате подкаста.
Еще раз спасибо за интересные вопросы и рады, что вы провели эти незабываемые 2 часа с нами 😍
Happy Kaggling 🦙
Всем привет, коллеги!
Как и обещали, уже завтра в 17:30 прямо здесь в Telegram проведем трансляцию с рассказом о самом соревновании Kaggle AutoML Grand Prix и нашем участии в нем 🏆
Присоединяйтесь и сообщайте друзьям - будет интересно 🔥
Уже в конце июня закончился хакатон Лидеры цифровой трансформации 2024! 😮
Как вы уже знаете, участникам предлагалось решить 25 различных задач. При этом по каждой из задач по итогам выбирались три лучших решения команд участников
В одной из наших задач, заключающейся в разработке мультимодальной модели, позволяющей прогнозировать выдачу продуктов в течение следующего месяца, первые три места заняли команды участников, использующие библиотеку pytorch-lifestream 😌🥰
А вот и особенности решения команд 😏:
🏆 Первое место: Magic City
🟢Модель использует все модальности и сразу обучается одной моделью под задачу предсказания следующего продукта
🟢Использование своего кастомного препроцессора данных, написанного на Polars
🏆 Второе место: Лидируй катбустируй
🟢Использование предобученной модели раннего фьюжена на всех трех модальностях
🟢Ансамбль нейросетей и ручных признаков
🟢Использование своего кастомного препроцессора данных, написанного на Polars
🏆 Третье место: AlfaWolves
🟢Использование архитектуры раннего фьюжена для всех трех модальностей
🟢Поздний фьюжен унимодальных моделей и раннего фьюжена
🟢Обучение под задачу мультилейбл с ResNet головами под каждый таргет
🟢Все эмбеддинги и табличные признаки использовались внутри бустингов и MLP моделей в финальном ансамбле
До скорого! Оставайтесь на связи, чтобы не пропустить самое интересное, а мы будем продолжать развиваться для вас и достигать новых вершин 🚀
P.S. Первая и вторая команды поделились ссылками на свои репозитории с решениями. Если ещё не поставили им звёздочку на GitHub, самое время это сделать! ⭐️
И в продолжение вечера новостей хотели бы поделиться запросом от наших хороших знакомых.
Уважаемые коллеги, тех, кому интересна математика и машинное обучение, наши коллеги приглашают принять в неформальном проекте.
Минимальное требование - Вы знакомы с Питоном, и у Вас есть несколько часов свободного времени в неделю. (Альтернативно - можно не знать Питон, но хорошо знать теорию групп.)
Цель проекта - применить машинное обучение к теории групп. Результат проекта - написание статьи в хорошем журнале. Другим бонусом будет являться - работа под руководством опытных специалистов в области машинного обучения и приобретение навыков по современным методам нейронных сетей, Reinforcement Learning и т.д.
Примерный список направлений
1) Задача поиска короткого пути на графах Кэли (сборка кубика - аналог Каггл Санта23 - но для произвольных групп)
2) Оценки диаметра ("числа бога") для графов (то есть расстояние между самыми дальними точками на графах)
3) Бенчмарк эмбедингов графов на основе математических результатов о графах
4) Многое другое, что тесно связано - случайные блуждания, гипотеза Ловаса о обязательном существовании гамильтонова пути на любом графе Кэли,
Если Вам интересно участие - напишите @alexander_v_c (Александр Червов), чат для обсуждений тут .
Привет, друзья! 🎉
🌟 Есть новость, от которой у нас просто космос! Наш проект HypEx выиграл награду "Перспективный проект" в премии Гравитация! 🚀
Огромное спасибо всей нашей команде за труд и энтузиазм. Вы супер! 👩💻👨💻 И благодарим наших замечательных внешних контрибьюторов, а также пользователей за их фидбек и новые идеи. Без вас ничего бы не получилось! 🌟
Спасибо премии Гравитация за признание! Теперь мы знаем, что разные гипотезы могут действительно тянуть нас к новым вершинам (ну, или к звёздам💫). 😉
Если ещё не поставили нам звёздочку на GitHub, самое время это сделать! 🌟 Это помогает нам становиться лучше.
Двигаемся вперёд, оставайтесь с нами — многое ещё впереди!
Всем привет, коллеги!
Буквально сегодня ночью на Kaggle завершилось соревнование Home Credit - Credit Risk Model Stability на почти 4к команд, сутью которого было предсказать, какие клиенты с большей вероятностью не выплатят свои кредиты. Отдельным челленджем являлась задача сделать свою модель максимально стабильной во времени. По итогу это была задача кредитного скоринга на табличках (что в текущих реалиях довольно большая редкость для Kaggle).
🤖 LightAutoML показал себя в нем максимально достойно:
- Благодаря усилиям Андрея Нестерова и его ноутбуку с использованием моделей Denselight из LightAutoML можно было получить серебряную медаль и занять 40 место из 3885
- Если же использовать ноутбук с большим количеством моделей в композиции (включающим модели из LightAutoML), то можно было забраться в призы (заработать $10к 💸) и финишировать на 4-ом месте 🔥
👀(И это пока что результаты без учета решений победителей, которые еще не опубликованы)
Happy Kaggling with LightAutoML 🦙
P.S. Большое спасибо всем тем, кто помог дотолкать наш GitHub репозиторий до важной планки ⭐️1к+ - эта история позволила нам создать запрос на добавление LightAutoML в официальный Kaggle Kernel environment. При желании его тоже можно поддержать, как это уже успел сделать Самвел 🥹
Коллеги, всем доброго дня!
Если вы еще не успели ткнуть ⭐️ на гитхабе на https://github.com/sb-ai-lab/LightAutoML, то самое время это сделать.
Наша глобальная текущая цель - собрать 1000 звезд и попасть в окружение Kaggle на постоянной основе!
Будем рады, если вы нас в этом поддержите ❤️
💥 Регистрируйся на хакатон!
Привет! Началась самая короткая рабочая неделя в году, а значит есть повод подумать, как провести лето! 🌞
До 5 июня открыта регистрация на хакатон "Лидеры цифровой трансформации 2024", само соревнование пройдет с 3 июня по 16 июня.
Одна из задач заключается в предсказании склонности клиента к покупке с помощью разработки мультимодальной модели, позволяющей прогнозировать выдачу продуктов в течение следующего месяца.
Мы предлагаем использовать библиотеку PyTorch-LifeStream в решении задачи, следите за бейзлайнами! А еще среди экспертах по этому треку будут соавторы библиотеки 🙃
Увидимся на хакатоне! 😍
Градиентный бустинг — один из самых эффективных и широко используемых алгоритмов машинного обучения на табличных данных.
Библиотека Py-Boost полностью раскрывает потенциал этого метода — благодаря широким возможностям кастомизации: кастомные лоссы на GPU, стратегии семплирования, возможность контролировать процесс обучения на любой стадии. Библиотека подходит для обучения multiclass, multilabel и multitask моделей. Чуть подробнее в этом видео
Преимущества:
✅ Быстрое обучение и применение моделей за счёт использования Python-библиотек для вычислений на GPU, например, CuPy
✅ Гибкие настройки и низкий порог входа
✅ Встроенный алгоритм SketchBoost, позволяющий значительно быстрее обучать модели бустинга с высокой точностью
Помимо замены кучи бинарных моделей на одну multilabel, фреймворк py-boost хорошо показал себя в задачах биоинформатики.
Ну и поддержка py-boost есть в gpu версии LightAutoML
Доброго вечера,
Мы продолжаем освещать участие в хакатонах с нашими open source инструментами.
Уже завтра, 17 апреля можно будет попасть на разбор TOP-решений участников соревнования Data Fusion с 18:05 до 19:00 на ежегодной конференци Data Fusion. Там будет представлен разбор решения команды Лаборатории искусственного интеллекта Сбера, занявшей 2ое место с использованием библиотеки PyTorch-LifeStream.
Зарегистрироваться на конференцию можно по ссылке
Коллеги, всем привет!
Буквально сегодня выложили приватный лидерборд соревнования DataFusion (был довольно сильный shake-up) и мы спешим поделиться отличной новостью - команда нашей лаборатории смогла занять в нем 2-ое место как на публичном, так и на приватном лидерборде.
Также стоит отметить еще несколько интересных моментов:
- Наш хороший знакомый Иван Глебов (почетный бетатестер LightAutoML) в одиночку оказался на 4-ом месте
- Один из участников соревнования получит приз за лучшее публичное решение, которое сделано на базе эмбеддингов CoLES и PyTorch-LifeStream
Ссылка на соревнование: https://ods.ai/competitions/data-fusion2024-churn/leaderboard/private
Успех табличных нейронных сетей и новости соревновательного машинного обучения.
Сегодня завершилось соревнование Linking Writing Processes to Writing Quality на🔑. LightAutoML отлично себя показал и оказался частью как минимум 5 🥇 золотых решений.
Neural LAMA использовал в своем решении текущий Топ1 площадки Dieter.
Если вы хотите попробовать в своих задачах одну из 9 архитектур, среди которых 5 классических и 4 современных, в том числе с новыми SOTA методами кодирования признаков (PLR, SoftEmb), то просто установите нужную версию командой pip install путь/до/whl
отсюда и ознакомьтесь с туториалом на github.
Для установки LAMA на Python 3.11 можете использовать whl-файл из этого Kaggle датасета. А позапускать уже готовые модельки на соревновании Linking Writing Processes можете на основе другого датасета.
UPD: В Топ1 решении тоже использовалась LAMA и PLR энкодинг.
UPD 2: После финализации результатов Топ1 поменялся, но все ещё с LAMA.
🎓Всем привет, мы перезапустили наш курс по LightAutoML в формате коротких лекций и how-to видео (от 2 до 15 мин)
Теперь можно быстро вспомнить, что есть в LAMA! Спасибо коллегам из ВШЭ за помощь в упаковке наших 3х часовых видео в удобный формат.
Вас ждет 5 модулей.
В последнем собраны ответы на самые частые вопросы, а так же новая функциональность.
Видео будут пополняться, за апдейтами релизов лучше по-прежнему следить в репозитории, и не забывайте ставить ⭐️ и добавлять issues на новую функциональность!
Ну и feel free, если у вас есть доработки, кидайте в нас пул реквесты!