tobeanmlspecialist | Unsorted

Telegram-канал tobeanmlspecialist - Стать специалистом по машинному обучению

8150

Канал о машинном обучении для людей Рассказываю о последних трендах в ML, учусь разбираться в терминах вместе с вами. Для разбора теории приглашаю профессионалов. Подкаст: https://mlpodcast.mave.digital С вопросами и предложениями пишите @kmsint

Subscribe to a channel

Стать специалистом по машинному обучению

Нескучная история искусственного интеллекта. Кто хочет нестандартный рассказ - велкам!
https://youtu.be/YpipgdiM21w?si=zAQJR8q0MXWso3gb&t=3565

Читать полностью…

Стать специалистом по машинному обучению

Привет, друзья!

Готов новый выпуск подкаста. В гостях Антонина Горячева - Head of ML в СберМаркете. Разговариваем о том, как устроен ML в онлайн-сервисе доставки продуктов и товаров с полок магазинов, начиная от того, зачем вообще машинное обучение в таких компаниях и заканчивая рассмотрением некоторых конкретных инструментов для решения ML-задач. Бывает ли такое, что заказов настолько много, что от них приходится отказываться. Как понять какую скидку нужно сделать, чтобы заработать больше, чем потерять. Как облегчить работу ретушерам фото для карточек товаров. Часто ли приходится пилить фичи, которые никому не нужны. Кого сейчас нанимают в ML-команды и как повысить свои шансы на трудоустройство. Чему можно научиться в процессе работы в такой команде. Какие качества нужно развивать, чтобы ИИ заменил тебя не сразу. Обо всем этом в выпуске.

https://mlpodcast.mave.digital/ep-57

Читать полностью…

Стать специалистом по машинному обучению

Рубрика «Автор месяца»🥇
Как и обещали ранее, представляем вам еще одного автора месяца. По итогам января 2024 автором месяца стал Михаил Крыжановский!🎉

У Михаила есть собственный подкаст про машинное обучение, в котором он рассказывает о развитии индустрии, проводит ликбез, объясняет терминологию и профессиональные жаргонизмы и общается с профессионалами из индустрии Искусственного Интеллекта. Он также доступен на youtube и в телеграм-канале.

На какие курсы Михаила мы предлагаем обратить внимание? В первую очередь на набирающий популярность «Телеграм-боты на Python: продвинутый уровень», в процессе прохождения которого предлагается создание собственного проекта.
Данный курс Михаил ведет в соавторстве с Александром Даниловым и Александром К.

Также у Михаила есть бесплатный курс «Телеграм-боты на Python и AIOgram» с рейтингом 5️⃣⭐️.

Мы желаем Михаилу успехов в его деятельности и с нетерпением ждем новых успешных курсов на Stepik!

Читать полностью…

Стать специалистом по машинному обучению

По ссылкам: я вчера буквально на работе нечто схожее рассказывал, вот оттуда - такой starter pack, которые желающие могут пораскуривать на предмет технологий

Text:
https://github.com/oobabooga/text-generation-webui
(actually, some models you can run with no GPU at all, but the inference time is going to be 5-10 minutes per request. It works, confirmed by one of my students recently)
Current recommendation is this model https://huggingface.co/TheBloke/openchat_3.5-GGUF/blob/main/openchat_3.5.Q5_K_M.gguf , works without GPU, takes 15-20 minues per request. It's also multilingual, speaks English and Russian, so probably German as well (didn't test)
A smaller one is this one https://huggingface.co/4bit/WizardLM-13B-Uncensored-4bit-128g , but the quality is really bad.
You can also install this
https://github.com/SillyTavern/SillyTavern
This gives you the nice interface and possibility to define your characters, their preferences, likes and dislikes, as well as avatars, and then chat with them. It's fairly close to Replika AI experience. Works on top of Oobabooga.
Voice:
https://github.com/synesthesiam/opentts
A docker you may run on any machine, contains XTTS with predefined 100-something voices that are really humanly
Images:
https://github.com/AUTOMATIC1111/stable-diffusion-webui/
For image generation, AFAIK, you must have a GPU.
https://civitai.com/ - unholy brother of hugging face, hosting lots of fine-tuns and LORAs for fandoms/characters, such as this. NSFW warning applies particularly to this site. (edited)

Читать полностью…

Стать специалистом по машинному обучению

Встречайте очередной выпуск подкаста!

В гостях Юрий Окуловский - Senior Data Scientist, кандидат физико-математических наук, ранее руководитель лаборатории искусственного интеллекта и робототехники УрФУ, также вы, возможно, его знаете как автора нескольких видеокурсов по программированию и рациональному мышлению. Юрий уже был гостем подкаста примерно три года назад и мы снова решили встретиться пообщаться, тем более у Юрия интересный взгляд на происходящие изменения в обществе, связанные со стремительным развитием технологий. В подкасте обсуждаем как превратить нейросеть в своего личного литературного негра, нужно ли гуманоидное тело современному секс-роботу, как сделать свою собственную Алису из Бесконечного лета, почему менеджеров автоматизировать проще, чем программистов, почему дохли куры у Ленина, почему корпорации не могут позволить себе делать, действительно, персонализированные и полезные продукты на базе ИИ, а также многое-многое другое.
https://mlpodcast.mave.digital/ep-56

Читать полностью…

Стать специалистом по машинному обучению

Новый год — старт для ваших новых карьерных возможностей 🎄
6 февраля приглашаем на Зимнюю ярмарку вакансий, которая пройдёт офлайн и онлайн. Это классная возможность стать частью IT-сообщества Яндекса и познакомиться с теми, кто создаёт сервисы с многомиллионной аудиторией.

Что вас ждёт
🔸 Вакансии для стажёров
Узнаете о новых вакансиях и задачах, а также сможете лично пообщаться с командами и подать заявку туда, где понравится больше всего.
🔸 Полезные лекции
Узнаете о технологиях и кейсах из практики от экспертов Яндекса. Лекции пройдут по основным направлениям стажировки: бэкенд, фронтенд, мобильная разработка, аналитика и машинное обучение.
🔸 Нетворкинг со стажёрами Яндекса
Узнаете, как они проходили отбор, как готовились и чем планируют заниматься дальше. Сейчас в Яндексе одновременно стажируются более 600 человек — им есть что рассказать.

Как попасть на Зимнюю ярмарку вакансий
Чтобы попасть на ярмарку, нужно пройти предварительный отбор — решить задачи на Яндекс Контесте до 31 января включительно. Мы проверим решения, оценим анкеты и позовём лучших на день стажёра в Москве. Приглашения придут до 2 февраля включительно.

🍭 Закрытое шоу
Тех, кто решит все задачи из Контеста, мы пригласим на вечернее закрытое шоу «Всё в плюсе». Это соревнование между различными бизнес-группами Яндекса, в которых примут участие и стажёры, и топовые разработчики. Знакомство с различными сервисами, нетворкинг с действующими стажёрами, вечеринка с кавер-группой и диджеем — это то, что ждёт вас на шоу.

Узнать подробности и подать заявку — https://yandex.ru/yaintern/intern-day

Читать полностью…

Стать специалистом по машинному обучению

Компиляция нескольких постов про то, что читать про ML/NLP/LLM:

Обучающие материалы 🗒
- https://habr.com/ru/articles/774844/
- https://lena-voita.github.io/nlp_course.html
- https://web.stanford.edu/~jurafsky/slp3/ed3book.pdf
- https://www.youtube.com/watch?v=rmVRLeJRkl4&list=PLoROMvodv4rMFqRtEuo6SGjY4XbRIVRd4
- https://huggingface.co/docs/transformers/perf_train_gpu_one

Блоги 🍿
- https://huggingface.co/blog/
- https://blog.eleuther.ai/
- https://lilianweng.github.io/
- https://oobabooga.github.io/blog/
- https://kipp.ly/
- https://mlu-explain.github.io/
- https://yaofu.notion.site/Yao-Fu-s-Blog-b536c3d6912149a395931f1e871370db

Прикладные курсы 👴
- https://github.com/yandexdataschool/nlp_course
- https://github.com/DanAnastasyev/DeepNLP-Course
(Я давно не проходил вообще никакие курсы, если есть что-то новое и хорошее - пишите!)

Каналы 🚫
- /channel/gonzo_ML
- /channel/izolenta_mebiusa
- /channel/tech_priestess
- /channel/rybolos_channel
- /channel/j_links
- /channel/lovedeathtransformers
- /channel/seeallochnaya
- /channel/doomgrad
- /channel/nadlskom
- /channel/dlinnlp
(Забыл добавить вас? Напишите в личку, список составлялся по тем каналам, что я сам читаю)

Чаты 😁
- /channel/betterdatacommunity
- /channel/natural_language_processing
- /channel/LLM_RNN_RWKV
- /channel/ldt_chat

Основные статьи 😘
- Word2Vec: Mikolov et al., Efficient Estimation of Word Representations in Vector Space https://arxiv.org/pdf/1301.3781.pdf
- FastText: Bojanowski et al., Enriching Word Vectors with Subword Information https://arxiv.org/pdf/1607.04606.pdf
- Attention: Bahdanau et al., Neural Machine Translation by Jointly Learning to Align and Translate https://arxiv.org/abs/1409.0473
- Transformers: Vaswani et al., Attention Is All You Need https://arxiv.org/abs/1706.03762
- BERT: Devlin et al., BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding https://arxiv.org/abs/1810.0480
- GPT-2, Radford et al., Language Models are Unsupervised Multitask Learners https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
- GPT-3, Brown et al, Language Models are Few-Shot Learners https://arxiv.org/abs/2005.14165
- LaBSE, Feng et al., Language-agnostic BERT Sentence Embedding https://arxiv.org/abs/2007.01852
- CLIP, Radford et al., Learning Transferable Visual Models From Natural Language Supervision https://arxiv.org/abs/2103.00020
- RoPE, Su et al., RoFormer: Enhanced Transformer with Rotary Position Embedding https://arxiv.org/abs/2104.09864
- LoRA, Hu et al., LoRA: Low-Rank Adaptation of Large Language Models https://arxiv.org/abs/2106.09685
- InstructGPT, Ouyang et al., Training language models to follow instructions with human feedback https://arxiv.org/abs/2203.02155
- Scaling laws, Hoffmann et al., Training Compute-Optimal Large Language Models https://arxiv.org/abs/2203.15556
- FlashAttention, Dao et al., FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness https://arxiv.org/abs/2205.14135
- NLLB, NLLB team, No Language Left Behind: Scaling Human-Centered Machine Translation https://arxiv.org/abs/2207.04672
- Q8, Dettmers et al., LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale https://arxiv.org/abs/2208.07339
- Self-instruct, Wang et al., Self-Instruct: Aligning Language Models with Self-Generated Instructions https://arxiv.org/abs/2212.10560
- Alpaca, Taori et al., Alpaca: A Strong, Replicable Instruction-Following Model https://crfm.stanford.edu/2023/03/13/alpaca.html
- LLaMA, Touvron, et al., LLaMA: Open and Efficient Foundation Language Models https://arxiv.org/abs/2302.13971

Читать полностью…

Стать специалистом по машинному обучению

Давно подкаста не было, да? :)

В гостях Илья Гусев - известный NLP-специалист, сделавший большой вклад в область своими опенсорс-проектами, среди которых анализатор морфологии, генератор стихов, сборка различных датасетов и некоторые другие. Один из таких проектов как раз и стал поводом к сегодняшнему общению. Это большая языковая модель, заточенная на работу с русским языком - Сайга. Но говорим в выпуске мы далеко не только о ней. Илья сделал классный исторический экскурс в современные языковые модели, рассказал некоторые подробности об их устройстве, о тех подходах, которые применяют, чтобы такие модели можно было запускать на домашнем компьютере, как с помощью языковых моделей можно решать разные задачи и стоит ли вообще использовать локальные модели. Интересного и полезного прослушивания!
https://mlpodcast.mave.digital/ep-55

Читать полностью…

Стать специалистом по машинному обучению

Привет, друзья!

Многие знают, что я делаю курс на Степике по Телеграм-ботам на базе фреймворка aiogram. Также многие знают, что этот курс несколько шире, чем только про ботов. В нем разобраны базовые навыки для работы с гитом, настройка виртуального окружения, работа с переменными окружения и т.п.

Вчера я выложил очередной урок, посвященный логированию с помощью библиотеки logging. Кому требуется ввести логирование в свои python-проекты и кто пока еще этого не сделал, думаю, будет полезно.
https://stepik.org/lesson/759389/step/1?unit=761405

Читать полностью…

Стать специалистом по машинному обучению

Приветствую, друзья!

Во-первых, хочу поздравить всех с наступающим Новым Годом и пожелать реализации ваших стремлений! А во-вторых, сообщить о выходе очередного (хотя и последнего в этом году) выпуска Machine Learning Podcast. Выпуск немного нестандартный. В нем сразу два гостя. Гостя два, а тема одна - их совместно написанная книга "Machine Learning System Design with end-to-end examples". Разговариваем о том, как вообще пришла идея написать книгу по теме проектирования ML-систем, почему в соавторстве, а не раздельно, для кого будет полезна данная книга, из каких частей состоит ML System Design, как подходить к разработке ML-систем разной сложности и так далее. Два взгляда двух разных авторов одной книги! Хорошего и интересного вам завершения года!
https://mlpodcast.mave.digital/ep-54

Читать полностью…

Стать специалистом по машинному обучению

Евгений Соколов. Как преподавать и изучать компьютерные науки

Читать полностью…

Стать специалистом по машинному обучению

Привет, друзья!

Прошло чуть больше месяца с момента старта MLBookClub - клуба, посвященного чтению книг по машинному обучению. Хочу поделиться некоторыми итогами и мыслями за этот месяц.

Для чтения клубом была выбрана книга Себастьяна Рашки "Python и машинное обучение". Самым активным читателям удалось за этот месяц продвинуться до 7-й главы (примерно треть книги). Изначально планы были читать бодрее, но книга оказалась не самого начального уровня и подразумевает довольно крепкую математическую базу. Соответственно, в процессе пришлось обращаться к другим источникам, чтобы разобраться с тем, отчего MSE, вдруг, становится лосс-функцией, что за правдоподобие и как из него можно вывести функцию потерь, как работает регуляризация, что за матрица рассеяния и так далее.

Вот, для примера вопросы, рассмотренные в одной из глав книги:

1. Обучение простых ML-алгоритмов для классификации

- Первые идеи относительно нейронных сетей
- Формальное определение искусственного нейрона
- Правило обучения персептрона
- Реализация алгоритма обучения персептрона на Python
- Методика OvA для многоклассовой классификации
- Сходимость персептронов
- Адаптивные линейные нейроны и сходимость обучения (Adaline)
- Минимизация функции потерь с помощью градиентного спуска
- Реализация алгоритма обучения Adaline на Python
- Подбор гиперпараметров
- Улучшение градиентного спуска посредством масштабирования признаков
- Стохастический градиентный спуск
- Мини-пакетный градиентный спуск

В процессе было несколько активных дискуссий, в которых участники клуба делились своим видением освещаемых тем и дополнительными источниками, в которых некоторые аспекты раскрываются подробнее.

Вообще, у меня пока двойственное ощущение от книги. С одной стороны есть неплохая структура, помогающая систематизировать свои знания, а с другой как-будто многое дается очень поверхностно. Видимо, подразумевается, что читатели откуда-то из математики должны хорошо себе представлять все эти методы. Но даже не смотря на это ощущение я, в целом, оцениваю чтение книги как довольно полезное занятие, укрепляющее фундаментальные знания, и направляющее в сторону изучения непонятных моментов.

За месяц провели 4 онлайн-встречи клуба, во время которых делились впечатлениями от прочитанного и отвечали на вопросы друг друга.

Также за месяц было смонтировано 3 подкаста (очередной ожидается завтра). Кажется, давно такой кучности выпусков не было. И еще один в этом году точно выйдет. Это тоже стало возможным благодаря клубу и хорошему специалисту по монтажу, который снял с меня нелегкий труд постпродакшна.

Помимо конспекта книги в репозитории клуба появились некоторые дополнительные полезные материалы, включая основы LaTeX для красивого оформления формул в конспекте, некоторые тонкости работы с Jupyter Notebook и настройку удаленного доступа к Jupyter через SSH.

Большинство участников клуба решили продлить участие в клубе, что также может свидетельствовать о том, что участники находят пользу для себя в таком участии. Но также есть и те, кому формат не подошел или кто не смог выдерживать темп чтения.

Если вы желаете присоединиться к клубу, чтобы читать и обсуждать умные книги по машинному обучению с умными людьми, пожалуйста, ознакомьтесь с условиями (пост 1, пост 2) и подавайте заявку на вступление. Будем рады новым участникам!

Читать полностью…

Стать специалистом по машинному обучению

Пост с полезными ссылками на материалы по временным рядам и не только от Юрия Кацера - гостя сегодняшнего выпуска подкаста.

Канал Юрия /channel/DataKatser, где он пишет про временные ряды, проблемы в данных, применение машинного обучения в промышленности, анализ данных и машинное обучение в целом. Вот, например, посты про временные ряды: пост 1, пост 2, пост 3, пост 4, пост 5 и др.

Датасеты и задачи для практики можно искать на кэгл kaggle.com. Рекомендую следующие датасеты:
⁃ Потребление и стоимость электроэнергии https://www.kaggle.com/datasets/aramacus/electricity-demand-in-victoria-australia
⁃ Веб трафик википедии https://www.kaggle.com/competitions/web-traffic-time-series-forecasting/data
⁃ Акции S&P500 https://www.kaggle.com/datasets/dgawlik/nyse
⁃ Данные о цене биткоина https://www.kaggle.com/datasets/mczielinski/bitcoin-historical-data
⁃ 58 временных рядов из разных доменов с аномалиями (Numenta Anomaly Benchmark) - https://www.kaggle.com/datasets/boltzmannbrain/nab

Если интересны промышленные данные, то датасеты собраны здесь /channel/DataKatser/62

Материалы для изучения темы временных рядов:
⁃ Книги: на русском (https://mse.msu.ru/wp-content/uploads/2021/03/Введение-в-анализ-временных-рядов-1.pdf), на англ (https://www.google.com/books?hl=en&lr=&id=rNt5CgAAQBAJ&oi=fnd&pg=PR7&dq=time+series+forecasting+and+control&ots=DKa6sQl0VF&sig=YcRspiTdes7BEIcDaYcbCyzoIm4)
⁃ Воркшоп об анализе временных рядов https://www.youtube.com/watch?v=zmfe2RaX-14
⁃ Одна из лучших лекций на русском про прогнозирование временных рядов https://www.youtube.com/watch?v=u433nrxdf5k
⁃ Набор блокнотов и презентация по анализу временных рядов https://github.com/DataForScience/Timeseries/tree/master

Open-source библиотеки для python, которые сокращают работу с временными рядами и помогают решать задачи прогнозирования, классификации и анализа временных рядов:
• sktime (5,1 к звезд на гитхабе - https://github.com/alan-turing-institute/sktime) - верхнеуровневая библиотека над sklearn, полезна в тех же задачах классификации временных рядов (хотя решает и задачи регрессии/прогнозирования).
• tsfresh (6,3 к звезд на гитхабе - https://github.com/blue-yonder/tsfresh) - дает возможность выделить сотни признаков из временных рядов. Это очень полезно, если вы хотите превратить временной ряд в набор признаков о нем.
• Darts (3,8 к звёзд на гитхабе - https://github.com/unit8co/darts) - библиотека для предварительной обработки и прогнозирования временных рядов с большим числом моделей прогнозирования.
• Merlion (2,4к звёзд на гитхабе - https://github.com/salesforce/Merlion) - прогнозирование, поиск аномалий, автомл, ансамбли, бенчмарки - все это для временных рядов
• Tslearn (2к звёзд на гитхабе - https://github.com/tslearn-team/tslearn) - библиотека помимо задачи регрессии и прогнозирования позволяет решать задачи классификации и кластеризации временных рядов

Читать полностью…

Стать специалистом по машинному обучению

Привет, друзья!

Готов выпуск подкаста, посвященный анализу и прогнозированию временных рядов! В гостях Юрий Кацер - эксперт по анализу данных и машинному обучению в промышленности, DS team lead Conundrum.ai. В выпуске говорим о том, что такое временные ряды и как их можно анализировать и прогнозировать с помощью машинного обучения. Какие задачи из реального мира сводятся к анализу временных рядов? Как работать с некачественными данными? Почему техобслуживание даже одной детали большой системы может привести к тому, что ML-модель отправится на свалку истории? Имеет ли смысл методы анализа временных рядов применять для того, чтобы угадать курс биткоина? С чего начать погружение в область? И как экономить деньги компании на сезонности? Обо всем этом в выпуске подкаста!
https://mlpodcast.mave.digital/ep-52

Читать полностью…

Стать специалистом по машинному обучению

Вот, что мне подумалось. Помните, всегда говорили, что сингулярность наступит, когда ИИ начнет улучшать сам себя? Типа, начиная с какого-то момента прогресс в ИИ будет настолько быстрым, что от человеческого уровня интеллекта до сильно его превосходящего ИИ шагнет в один момент по меркам исторического развития. И ключ к этому как раз в самоулучшении ИИ. Наблюдая за тем, как сейчас методы машинного обучения засовывают везде, где только можно, как будто этот процесс уже идет полным ходом. ИИ уже улучшает компоненты из которых строят новые ИИ. Да, пока еще с помощью людей, но ведь никто и не говорил, что люди ему помогать не будут. Кажется, сингулярность ближе, чем кажется :)

Читать полностью…

Стать специалистом по машинному обучению

Антонина Горячева. Как отвечать за весь ML в компании, чтобы все работало

Читать полностью…

Стать специалистом по машинному обучению

Нашел очень толковый курс мини-лекций по линейной алгебре. Академично, без воды, с примерами и очень последовательно.
https://www.youtube.com/watch?v=84sF2jCfrho&list=PLaX3n04-uUZoTu4DcD2Eqgq-h5wimh_uT

Читать полностью…

Стать специалистом по машинному обучению

Позволю себе пост самолюбования :)

Читать полностью…

Стать специалистом по машинному обучению

Юрий Окуловский. Гаражные стартапы в условиях бигбиза

Читать полностью…

Стать специалистом по машинному обучению

Приветствую, друзья!

Пока к выходу готовится очередной выпуск подкаста с классным гостем (мои постоянные слушатели его хорошо знают, хотя времени с предыдущего выпуска прошло очень немало), мы начали чтение новой книги в MLBookClub!

Чтение предыдущей книги (Себастьян Рашка. Python и машинное обучение) показало, что именно математическая подготовка большинства участников клуба не позволяла легко и непринужденно двигаться сквозь математические концепции, лежащие в основе ML-алгоритмов. Приходилось читать много побочных статей, чтобы разобраться что такое правдоподобие, чем оно отличается от вероятности, что такое плотность вероятности и как она связана с шансами, как работает распределение Бернулли и так далее. Из-за этого чтение книги превратилось не столько в изучение машинного обучения, сколько в борьбу с теорией вероятностей, матанализом и статистикой.

Поэтому было принято решение в качестве следующей книги выбрать что-то по математике, чтобы освежить в голове основные концепции, разобраться с основной терминологией и вообще посмотреть какие разделы математики могут пригодиться в ML больше других. После обсуждения была выбрана книга Математика в машинном обучении. Авторы Марк Питер Дайзенрот, А. Альдо Фейзал, Чен Сунь Он. К ее чтению мы приступили со вчерашнего дня.

В книге представлены следующие разделы:

- Линейная алгебра
- Аналитическая геометрия
- Матричные разложения
- Векторный анализ
- Вероятность и распределения
- Непрерывная оптимизация
- Линейная регрессия
- Снижение размерности с помощью анализа главных компонент
- Оценка плотности с помощью моделей гауссовой смеси
- Классификация методом опорных векторов

Уже появились первые обсуждения книги и ошибок перевода в русском издании. А в ближайшее воскресенье мы встретимся с участниками клуба онлайн и обсудим впечатления от выбора книги.

Также на прошлой встрече был запрос от одного участника запрограммировать в режиме лайв-кодинга персептрон с пошаговым объяснением работы кода. Вероятно, что-то такое тоже проведем.

Если хотите присоединиться к клубу - пожалуйста, ознакомьтесь с условиями. Участие в клубе платное. Много приходит заявок, которые люди затем не подтверждают. Возможно, это как раз связано с непониманием условий. Ну, а если условия все же вам подходят - подавайте заявку по ссылке.

Давайте повышать свои компетенции в клубе целеустремленных, образованных, читающих людей!

Читать полностью…

Стать специалистом по машинному обучению

Друзья, публикую долгожданное интервью с Михаилом Крыжановским! 🤓

Михаил — предприниматель и Python-разработчик, автор подкаста о машинном обучении и телеграм-канала "Стать специалистом по машинному обучению". Кроме того, он является создателем бесплатного курса на Stepik "Телеграм-боты на Python и aiogram", а недавно выпустил пре-релиз нового курса "Телеграм-боты на Python: продвинутый уровень" в соавторстве с крутыми python-разработчиками.

Мы поговорили с Михаилом о программировании, изучении Python, математике и машинном обучении, создании курсов и многом другом. Рекомендуем к просмотру на выходных! 😎

#интервью

Читать полностью…

Стать специалистом по машинному обучению

Илья Гусев. Как запускать большие языковые модели локально

Читать полностью…

Стать специалистом по машинному обучению

Челлендж. Сгенерируйте любой нейросеткой, генерирующей картинки, адекватную садовую тележку с ДВУМЯ колесами

Читать полностью…

Стать специалистом по машинному обучению

Валерий Бабушкин и Арсений Кравченко. Как написать книгу об ML System Design

Читать полностью…

Стать специалистом по машинному обучению

5-6 декабря прошла главная конференция Яндекса для IT-сообщества YaTalks. Так вышло, что наблюдаю я за конференций уже 5-ый год, и в этот раз меня заинтересовал доклад про беспилотные технологии. Спикер из Яндекса рассказал, как обстоят дела с беспилотниками и о новой ML-модели, которую недавно удалось натренировать.

Кто знаком с машинным обучением, знает, что модели работают не быстро, а предсказания на основе дорожной обстановки нужно делать несколько раз в секунду. Новая ML-модель успешно генерирует предсказания и хорошо себя показывает в тестах. Для её обучения привлекли профессиональных водителей и асессоров.

Советую посмотреть доклад полностью и поставить все точки над и в этом вопросе. Там же можно найти выступления и других спикеров - лучших умов IT-индустрии.

#реклама ООО Яндекс, ИНН ИНН 7736207543, erid: 2SDnjdKBdWp

Читать полностью…

Стать специалистом по машинному обучению

Здравствуйте, друзья!

Встречайте Евгения Соколова! Давно уже хотел с ним записаться, но что-то как-то сложно было достучаться. И, вот, наконец, звезды сошлись и мы пообщались :)

Евгений Соколов - научный руководитель Центра непрерывного образования и академический руководитель бакалавриата «Прикладная математика и информатика» факультета компьютерных наук НИУ ВШЭ, доцент. Евгений уже много лет преподает студентам компьютерные науки и Data Science Поговорили в выпуске о том как сейчас работается современным преподавателям, какие приходят студенты, чего ожидают от ВУЗа, с какими вызовами сталкиваются. Евгений поделился мыслями о том, какие качества нужно в себе развивать, чтобы успешно заниматься Data Science и какие качества будут мешать. Как подготовиться к поступлению в технический ВУЗ, если вы еще школьник, что нужно для того, чтобы научное комьюнити в стране развивалось активнее, чем еще нужно заниматься в жизни кроме того, чтобы постоянно учиться и многое другое в выпуске!

https://mlpodcast.mave.digital/ep-53

Читать полностью…

Стать специалистом по машинному обучению

Ставь 🤓, если знаешь, что это за алгоритм и 😱, если не в курсе.

1. Стандартизировать d-мерный набор данных
2. Построить ковариационную матрицу
3. Разложить ковариационную матрицу на ее собственные векторы (eigenvector) и собственные значения (eigenvalue)
4. Отсортировать собственные значения в порядке убывания, чтобы ранжировать соответствующие собственные векторы
5. Выбрать k собственных векторов, которые соответствуют k наибольшим собственным значениям, где k - размерность нового подпространства признаков (k <= d)
6. Построить матрицу проекции W из "верхних" k собственных векторов
7. Трансформировать d-мерный входной набор данных X с использованием матрицы проекции W, чтобы получить новое k-мерное подпространство признаков

Читать полностью…

Стать специалистом по машинному обучению

Юрий Кацер. Анализ и прогнозирование временных рядов и можно ли зарабатывать с их помощью

Читать полностью…

Стать специалистом по машинному обучению

Мда... Все чаще обращаюсь за ответами на вопросы не к строке поиска в браузере, а к ChatGPT. Вот сейчас надо было быстро найти способ посчитать количество строк кода в проекте, открытом в VS Code, пошел по привычке в гугл спросить как это делается. Просмотр первых нескольких ссылок не дал удовлетворительного ответа, да еще и читать пришлось по диагонали, потому что, по сути, информация мусорная в рамках запроса. Пошел к ChatGPT и с первого же запроса получил нужный ответ. Проверил рекомендованный плагин - все работает как надо!

Читать полностью…

Стать специалистом по машинному обучению

Подозреваю, что Тимур и его команда в представлении не нуждаются. Я постоянно рекомендую их курсы из серии Поколение Python и, уверен, что многие подписчики их проходили. Вокруг Поколения уже собралось большое комьюнити начинающих и продолжающих программистов, и как у любого активного комьюнити со временем появляются дополнительные атрибуты, отличающие это комьюнити от других. Свои мемы, свои ассоциации на ключевые слова, типа, "спиралька", "шахматы" или "утенок" и так далее.

И в рамках развития сообщества Тимур с командой запустили проект "Мерч для программистов от Поколения Python". Если вы из тех, кому нравится окружать себя прикольными вещами, напоминающими о важных событиях в вашей жизни, например, о том, что вы когда-то решили стать питонистом :) или о том, что теперь принадлежите к сообществу активных людей, развивающихся в программировании, возможно, вам имеет смысл заглянуть в магазин Поколения и выбрать себе что-нибудь интересное и полезное.

Брелоки, значки, кружки, коврики для мышки, уточки, картхолдеры, тетради и многое другое – могут стать отличным подарком для всех, кто занимается программированием и учится чему-то новому.

Сайт магазина: https://shop.pygen.ru

Ну, и как всегда, по старой дружбе, Тимур подарил промокод MLPODCAST, предоставляющий скидку 20% на все товары магазина.

Читать полностью…
Subscribe to a channel