🚀 Уважаемые коллеги, тех, кому интересна математика и машинное обучение, приглашаем Вас принять участие в неформальном проекте.
Минимальное требование - Вы знакомы с Питоном, и у Вас есть несколько часов свободного времени в неделю. (Альтернативно - можно не знать Питон, но хорошо знать теорию групп (в идеале GAP,SAGE).) Задача проекта - применить машинное обучение к теории групп. Целью проекта является написание статьи в хорошем журнале, участники - соавторы. Другим бонусом будет являться - приобретение навыков по современным методам нейронных сетей, Reinforcement Learning и т.д.
Если Вам интересно участие - напишите @alexander_v_c (Александр Червов, к.ф.-м.н. мехмат МГУ, 25 лет math&DS, Kaggle, Scholar, Linkedin).
Чат для обсуждений: тут .
Вводный доклад тут.
Пояснения по RL части тут.
Краткая суть задачи может быть описана несколькими способами - нахождение пути на графе от вершины А до вершины Б, но размер графа 10^20-10^50 - обычные методы не применимы. Решение пазла типа Кубика Рубика. Задача близка к прошедшему конкурсу Каггл Санта 2023. Математически - разложение элемента группы по образующим. Математические пакеты, которые частично могут решать эту задачу - GAP,SAGE.
Достигнутые результаты - уже сейчас мы можем за минуты делать то, что авторы работы DeepCube делали за 40 часов на многих GPU.
Прочитал еще одну статью на Хабре от исследователей из Яндекса, посвященную "экстремальному" сжатию больших языковых моделей. Вообще, заметил хорошую тенденцию, что Яндекс очень много пишет про внутрянку LLM, наверное, больше, чем все остальные. Если вы еще не готовы читать научные статьи с arxiv'а, то относительно комфортное погружение в современное состояние дел будет как раз через такие статьи на Хабре.
Собственно, про квантизацию я знаю уже довольно давно. Веса больших моделей, которые обучают богатые компании, типа, OpenAI, Meta, Google и так далее, хранятся с точностью float16, когда на число с дробной частью (на один вес модели) выделяется 16 бит. 16 бит - это довольно много и простая математика говорит о том, что какая-нибудь модель с 7-ю миллиардами параметров (весов) будет занимать 112 миллиардов битов или 14 миллиардов байтов. Так-то, больше 13 Гб. А ведь это, по современным меркам, очень небольшая модель, которая не так, чтобы показывала какие-то ошеломляющие результаты.
Одним из способов сжатия моделей как раз и является квантизация, которая уменьшает разрядность чисел, в которых хранятся значения весов моделей. Оказывается, при таком подходе, с учетом некоторых нюансов, качество модели снижается не настолько сильно, насколько уменьшается ее размер. И, вот, некоторые LLM уже можно запускать на домашнем компьютере даже без видеокарты. Ну, а особенно это актуально для смартфонов, где хочется и скорости с отзывчивостью и ресурсов на это как можно поменьше тратить.
Два года назад научились эффективно сжимать модели в 4 раза, то есть до 4-х бит. Хороший результат, но давайте лучше сожмем в 8! И, вот, исследователи Yandex Research совместно с коллегами из IST Austria и KAUST предложили такой способ сжатия моделей в 8 раз, причем без какой-то значимой потери качества - их научная статья была включена в программу одной из самых престижных в мире конференций по машинному обучению - ICML 2024. Как замеряется это качество - это отдельная большая тема, но просто представьте, что теперь на условной RTX3090 можно запускать модели с 70 миллиардами параметров, а еще и эффективно файнтюнить их под свои задачи.
В статье есть краткий, но интересный рассказ о пути, через который прошло сжатие, чтобы достичь текущих результатов. Как всегда в таких историях меня восхищает гений инженерной мысли, который со стороны выглядит как магия.
Новый метод уже доступен для применения разработчикам и исследователям - код опубликован в репозитории GitHub.
Также можно скачать уже сжатые с помощью новых методов популярные опенсорс-модели.
Кроме того, Яндекс выложил обучающие материалы, которые помогут разработчикам дообучить уменьшенные нейросети под свои сценарии.
Посмотрел, тут, один ролик на ютубе про генерацию контента с помощью нейросетей и автоматический постинг во все соцсети с адаптацией под каждую сеть. С одной стороны идея на поверхности и, разумеется, это будут делать в надежде сэкономить на нормальных контент-мейкерах. С другой - тысячи тонн мусорного контента и экспоненциальный рост его количества. Хотелось бы понять куда это все заведет.
Читать полностью…Хочу порекомендовать канал на YouTube для довольно простого входа в нейронные сети на базе библиотеки pytorch
. В серии видео объяснены общие принципы и некоторые популярные архитектуры нейросетей. Показана их реализация почти с нуля, насколько можно считать реализацией с нуля настройку параметров модели с помощью pytorch
. Возможно, для тех, кто не хочет начинать с хардовой математики - это лучший вход в нейронки. Автор его так и задумал.
Также есть недорогой курс на Степике, в котором те же видео, что и на YouTube, но добавлены практические задания, то есть принцип тот же, что у Сергея Балакирева - видео в свободном доступе, а практика за очень бюджетным пейволлом, чтобы поддержать труд автора.
Привет, друзья!
Вчера на встрече клуба я делился впечатлениями от использования шлема виртуальной реальности Oculus Quest 3, который я брал во временное пользование, чтобы решить надо оно мне или нет. Во-первых, решил, что надо. А во-вторых, хочу теперь записать подкаст с кем-то, кто занимается развитием VR-технологий, желательно с использованием ML, а ML там точно есть где применять. Если у вас есть на примете такие специалисты - дайте знать, по-возможности. Буду очень благодарен!
Ну, и если интересно послушать впечатления - ниже прикладываю аудиозапись встречи. Слушать с временной отметки 9:30
В продолжение поста о важности понимания контекста.
В подкасте уже 2 раза принимал участие небезызвестный специалист по искусственному интеллекту - Сергей Марков, ответственный за ruGPT-3, ruDALL-e, GigaChat и другие известные проекты. Еще когда мы записывались с Сергеем первый раз, он говорил о том, что пишет большую книгу про ИИ и даже присылал мне ее черновой вариант. А теперь полноценная книга, а точнее даже две, размещены в свободном доступе на сайте Сергея. Я начал читать и хочу поделиться первыми впечатлениями. Во-первых, это серьезный проработанный материал. На заре выхода подкаста я сам готовил выпуск по истории ИИ и перечитал множество источников, чтобы собрать больше фактов и постараться избежать транслирования мифов. Получилось только частично и сейчас я не назову тот выпуск достаточно достоверным. А, вот, о книге Сергея я, пожалуй, так сказать смогу. Видно, что перелопачено огромное количество источников, чтобы максимально правдиво рассказать о пути развития вычислительных наук, да и не только вычислительных.
Я читаю книгу и понимаю, что по духу она очень близка книге "Инноваторы", о которой я как-то рассказывал в одном из постов, и которую я считаю, наверное, лучшей книгой про технологии и людей, дающей более менее полную картину развития компьютерной техники через раскрытие личностей инженеров и предпринимателей, напрямую в этом участвовавших. И при этом в книге Сергея Маркова гораздо больше строгости, свойственной ученым, хотя не обходится и без эмоциональных историй, а также юмора. Думаю, что книга формирует правильное отношение к ИИ, в целом, хотя сам я еще и не дочитал до глав, посвященных безопасности и этичности ИИ-технологий. Я могу ее порекомендовать очень широкому кругу читателей, и в первую очередь, лицам, принимающим решения, чтобы быть в одном контексте с теми, кто двигает это направление. Возможно, тогда и решения будут гораздо более взвешенными и основанными на хорошей исторической базе, а не мифах, транслируемых СМИ уже многими десятилетиями. Это как раз о важности понимания контекста, если кто не понял :)
1. Ссылка на страницу сайта Сергея Маркова, с которой можно скачать книги в электронном виде (или даже заказать бумажные экземпляры)
2. Выпуск Machine Learning Podcast с Сергеем "Русская GPT-3 и роботы-коллекторы от Сбера"
3. Выпуск Machine Learning Podcast с Сергеем "ruDALL-E. Генерация картинок по текстовому описанию"
4. Пост про книгу "Инноваторы"
Кажется, я довольно часто повторяю мысль, что любые технологии, практики их применения и названия важно изучать не сами по себе, а в рамках исторического контекста. Тогда, во-первых, будет понятнее, какие задачи призвана решать та или иная технология, во-вторых, легче будет запомнить, чтобы лишний раз в гугл не бегать, а в-третьих, будет меньше недоумевания по поводу того, почему это работает так, и почему это казалось, а, возможно, и оказалось, хорошим решением.
Поэтому, я всегда стараюсь перед изучением чего-то нового погрузиться в исторический контекст. Это позволяет и саму технологию лучше понять, и мотивацию ее создателей, что, в конечном итоге, мне верится, приводит к более эффективному ее использованию.
А записать эту мысль ещё раз меня сподвигло очередное открытие в рамках нейминга команд Linux. Все знают команду cat
для быстрого просмотра содержимого файла, но оказывается, ее предназначение не столько в этом, сколько в том, чтобы объединять несколько файлов в один поток вывода, потому и называется она как сокращение от "concatenate". А я все время думал, ну причем здесь какой-то кот, когда надо файл быстро посмотреть 🤷
Такие открытия случаются постоянно и позволяют посмотреть на очень привычные вещи по-новому, и в дальнейшем, более полно использовать их функционал.
Продолжается эпопея войны с виндой. Но вроде, кажется, удалось победить. По крайней мере, докер пока работает и синий экран смерти больше не появлялся. А, да, пришлось полностью переустановить винду, потому что после ряда шаманских манипуляций по обновлению системы, переустановки WSL, исправлению конфига докера и т.п. компьютер стал самопроизвольно вырубаться почти сразу после загрузки рабочего стола. При этом не помогало ни исправление ошибок файловой системы, ни еще куча манипуляций, описанных в разных колдовских гайдах.
В общем, все снес, скачал образ из официального источника (через VPN) и... Началась эпопея с созданием загрузочной флешки. Дело в том, что у меня больше нет под рукой компа с виндой и загрузочную флешку я мог создать только на macOS или Ubuntu. Сначала ExFAT ему не нравился, ок, переформатировал в NTFS через платную утилиту с триалом Paragon NTFS - все равно ноут не видит загрузочную флешку. Ни в UEFI, ни в Legasy режимах.
В итоге помогла мне вот эта утилита: https://github.com/TechUnRestricted/WinDiskWriter. Спасибо тебе, друг! Загрузочная флешка была опознана в UEFI-режиме и система встала. Затем установил WSL и докер. И, вот, теперь все работает. И я, наконец, снова могу тестировать работу с брокером сообщений NATS, о котором прямо сейчас пишу в курсе, под управлением Windows. Пусть маленькая, но все-таки победа! С чем себя и поздравляю! Спасибо за внимание :)
С другой стороны, очень давно хотелось поглубже разобраться как работают компьютерные сети и собрать лоскуты теоретико-практических знаний воедино. Начал с этого курса. Давно подписан на автора и курс по сетям тоже очень нравится.
https://www.youtube.com/playlist?list=PLtPJ9lKvJ4ojPWFLuUz6g8c73Ta45bUN8
Хочу рассказать о классном событии для всех, кто интересуется данными и машинным обучением, — 25 мая в Москве пройдет офлайн-конференция Data Fest 2024. Состоится в офисе VK. В программе доклады по рекомендательным системам, управлению командами data science, обработке естественного языка, компьютерному зрению. Советую не упускать.
UPD. Регистрация закрыта, но будет трансляция!
Как-то в гостях подкаста у меня был Юрий Кацер - специалист по временным рядам. Сейчас по одной задаче нужно глубже разобраться во временных рядах и я насматриваю/начитываю разные материалы по теме. Наткнулся на хорошую вводную лекцию от Юрия. С нее, прям, хорошо начинать, чтобы получить общее представление о теме и проблемах, которые приходится решать.
https://www.youtube.com/watch?v=_r4DU6apcgY
В MLbookClub забросили чтение Дайзенрота (как минимум те, о ком я знаю), потому что книга оказалась сильно несбалансированной, с резкими скачками сложности и не очень логичными переходами. Решили попробовать читать не какую-то одну книгу, а то, что кому ближе подходит по контексту, а по субботам встречаться, обсуждать и делиться впечатлениями.
Я выбрал для текущей книги Сару Бослаф. Статистика для всех. Услышал ее в рекомендациях в одном подкасте, о котором как-нибудь напишу отдельно, когда автор, наконец, будет чуть посвободнее и найдет время пообщаться :) Первые впечателения от книги хорошие - очень структурированное изложение сразу с введения. Прям, как я люблю.
Пока искал эту книгу открыл для себя сайт Национальной электронной библиотеки, на котором есть много хороших книг в свободном доступе, в том числе и вышеупомянутая книга по статистике. Лежит здесь, если кому интересно.
Яндекс проведет бесплатный фестиваль Young Con для студентов и молодых специалистов, желающих построить карьеру в IT
Главной идеей станет «Вселенная Яндекса» из девяти тематических «миров». В их основе будут сервисы и технологии компании. Участники смогут лучше узнать задачи и челленджи разных команд, пообщаться с разработчиками и продуктовыми лидерами, вдохновиться их опытом, задать вопросы и узнать про возможности построения карьеры в разных частях компании. Прямо на фестивале можно будет пройти экспресс-собеседование — успешный результат повысит шансы попасть на стажировку в Яндекс.
Завершится фестиваль выступлением групп The Hatters и ХЛЕБ, а также финалом турнира по спортивному программированию «Баттл вузов. Кубок Y&&Y», где лучшие команды вузов сразятся за призовой фонд в 1 млн рублей.
Фестиваль пройдет 27 июня в московском Live Арена, а также в онлайне.
Регистрируемся здесь.
Рад представить очередной выпуск подкаста!
В гостях Лаида Кушнарева - Старший Академический Консультант, Huawei, которую в мире Data Science больше знают как Техножрицу. Общаемся про то, как обстоят дела в мире исследований вокруг машинного обучения. Как поменять математику на программирование, но продолжить заниматься математикой. Почему вычисления квадратного корня на калькуляторе необратимы и причем здесь головастики. Плюсы и минусы в работе современного ученого. Как проходит день исследователя. Докатился ли кризис воспроизводимости научных исследований до DS. Почему культура проведения эксперимента не менее важна, чем математическая обоснованность его предпосылок. Обо всем этом и многом другом в эпизоде!
https://mlpodcast.mave.digital/ep-59
Непонятно, как я это пропустил 🤷♂️ Небезызвестный YouTube (и не только YouTube) преподаватель selfedu, оказывается, сделал целый курс по машинному обучению. Курс не так, чтобы для начинающих, то есть могу его порекомендовать, если у вас уже есть какая-то база, но лекции Воронцова и Николенко вы пока еще не тянете.
Мог бы порекомендовать и для совсем начинающих, если бы было чуть меньше матана и чуть больше примеров практического применения.
Мы в книжном клубе читали Себастьяна Рашку - Python и машинное обучение, так вот, материал курса похожий, а связность изложения и постоянный, недерганный уровень сложности дает курсу много очков вперед перед книгой. Если хотите структурировать свои знания в ML, приглашаю к просмотру.
https://www.youtube.com/playlist?list=PLA0M1Bcd0w8zxDIDOTQHsX68MCDOAJDtj
Я давно наблюдаю за развитием всевозможных AI-тьюторов и, вот, наткнулся в одном чате на приложение для подготовки к собеседованиям. У меня случился вау-эффект! Не смотря на некоторые задержки в обработке и немного дерганый аватар интервьюера, приложение выглядит очень достойно! Прям, рекомендую попробовать пособеситься :)
Познакомился с автором приложения и самое интересное, что он не является специалистом в ML, то есть это отличный пример того, что уже можно брать готовые AI-сервисы и конструировать из них решения для своих задач. И это даже будет выглядеть вполне хорошо.
Ставь 🔥 если интересно было бы послушать подкаст с автором!
Чуть не забыл :) Хорошо, что напомнили в комментариях. У selfedu (Сергея Балакирева) вышел курс по машинному обучению на Степике. Как всегда на старте курса, у данного преподавателя, можно получить доступ бесплатно. Го!
https://stepik.org/course/209247/syllabus
Я сейчас много времени посвящаю изучению распределенных высоконагруженных систем. Все эти брокеры, балансировщики, реплики, шарды, мап-редьюсы и прочее. И поэтому с большим интересом прочитал статью на Хабре Как устроен рекомендательный сервис, который выдерживает 700 тысяч запросов в секунду. Это стенограмма доклада Артёма Ваншулина из Яндекса. В статье показан весь пайплайн с кратким разбором оптимизаций на каждом этапе.
Когда сам в своей работе сталкиваешься с задержками на сериализацию/десериализацию объектов, задержками передачи объектов по сети, неоптимальными алгоритмами обработки и т.п. очень задумываешься о нормальных мониторингах и профилировщиках. Узнал из статьи о том, что такое флеймограммы и профайлер бедного человека.
Но самые тяжелые вычисления, это конечно же ML. Ты можешь хоть обоптимизироваться на этапах запросов к БД или взять самый быстрый брокер, но если у тебя не оптимизирована работа с моделями, ни о какой скорости говорить смысла нет, поэтому бОльшая часть статьи посвящена оптимизации ML части пайплайна. Очень много вспомогательных вычислений происходит заранее и результаты кешируются для мгновенного доступа, а скалярное произведение просто какая-то панацея.
Каких-то хардовых технических деталей в статье нет, но проникнуться сложностью решаемой инженерной задачи можно.
Самые большие бусты в моей жизни случались тогда, когда мне удавалось попадать в близкий круг людей, которые сильнее меня разбираются в той области, которую я хотел прокачать. Ты как-будто сразу получаешь четкое видение как делать надо и как не надо, чтобы получать результат, близкий к желаемому. И хотя это может звучать как инфоцыганское клише, я продолжаю применять такой подход. Например, курс, который я пишу с соавторами по телеграм-ботам, получается намного лучше, чем если бы я писал его сам, просто потому что мои соавторы значительно опытнее меня в разработке. Но сейчас не про курс, это просто текущее подтверждение мысли, которую я хочу выразить этим постом прежде, чем предлагать вам поучаствовать в Kaggle-соревнованиях с крутой командой.
Где-то неделю назад в клубе один из участников, которого зовут Александр, рассказал, что они собрали команду из 5 человек и участвуют в соревнованиях по ML, а периодически еще успевают решать коммерческие задачи. И сейчас ищут себе еще одного начинающего специалиста, которому хотелось бы прокачаться в крутой команде, среди медалистов Kaggle. Мне история очень понравилась и я предложил Александру опубликовать информацию об этом в канале, возможно, кому-то из вас это покажется интересным. Честно говоря, я бы и сам попросился к ним, но текущие проекты бросить мне никак. В общем, если хотите быстрого профессионального роста, мне кажется, это, прям, хороший способ.
Вот само объявление:
ML-команда ищет разработчика для участия в kaggle соревновании
Мы опытная IT-команда, которая последние два года активно занимается ml-проектами (как коммерческими так и kaggle соревнованиями).
Наш основной фокус - это computer vision, federated learning, medical research. Для работы мы выбираем сложные задачи с социальным импактом, где использование ML действительно уместно.
Сейчас мы участвуем в соревновании RSNA-2024 вместе с многократным призером кегла и хотим усилить команду еще одним разработчиком.
Необходимые/желательные навыки и опыт:
- опыт участия в реальных проектах в качестве ds или ml разработчика
- опыт работы со стеком Python/numpy/pandas/scikit-learn/pytorch
- опыт участия в кегл соревнованиях (не обязательно, но будет плюсом)
- наличие свободного времени (минимум 20 часов в неделю)
- желание по-харду учиться и развиваться
- желание работать в команде
По итогам совместной работы будет обсуждаться возможность присоединиться к нашей команде на постоянной основе для участия в коммерческих проектах.
Если тебе интересна работа с нами, то напиши мне в личку или на почту lvov@horaizon27.com:
- пару слов о себе
- где учишься и/или работаешь
- над какими интересными проектами работал(а) и в чем был твой вклад
- чем тебя заинтересовало участие в RSNA-2024 вместе с нашей командой
Если у вас есть желание проникнуться нагромождением абстракций и в очередной раз осознать какие комплексные инженерные решения нас окружают в повседневной жизни, а также если вы хотите немного лучше понимать подкапотные процессы Linux - могу порекомендовать лекцию, где стеснительная девушка очень подробно рассказывает про процесс загрузки операционной системы. Я, конечно, примерно все это представлял, но вот это мое "примерно" было настолько примерно, что смотрю и тихо офигеваю.
https://www.youtube.com/live/RanCaFrPYrs?si=RcGMChY7Joy5Y03J
Как разобраться в вышмате за 1 вечер? 😨
Да никак. Но можно научиться понимать математику. И сберечь месяцы жизни, кучу нервов и сил.
В помощь вам - полезный канал о высшей математике. Его автор - выпускник СПБГУ, а ныне — преподаватель предмета.
На простом языке объясняет сложные вещи, даёт шпаргалки и проводит эфиры с решением задач 📈
Находка для всех, кому нужен вышмат по жизни. От полезных материалов и разборов до ответов на любые вопросы и живых дискуссий в комментариях.
Посмотрите сами 👉 @lav_math
Яндекс запустил Lite-версию генеративной текстовой модели YandexGPT 3
YandexGPT 3 Lite — это облегчённая версия генеративной модели Яндекса нового поколения. Особенность таких Lite-моделей заключается в более высокой скорости ответов, что позволяет решать простые задачи бизнеса буквально в режиме реального времени. Поэтому нейросеть хорошо показывает себя в сценариях, где важны время реакции и оптимизация затрат: например, бот-консультант на сайте, система подсказок для операторов колл-центров или суммаризатор результатов деловых встреч.
✈️ По данным замеров, YandexGPT 3 Lite стала ещё быстрее и точнее — и она уже доступна в режиме release candidate на облачной платформе Yandex Cloud. То есть клиенты могут протестировать её и плавно внедрить в свои продукты через API уже в ближайшее время.
Одним из ключевых этапов обучения модели стало выравнивание (Alignment), включающее в том числе стадию обучения с подкреплением (RL). В статье на Хабре - детали реализации Alignment и RL.
Ну, вы, скорее всего, знаете, что я пишу курсы по телеграм-ботам. Причем, я стараюсь давать больше принципов, чем конкретных реализаций, потому что твердо убежден, что знание некоторых общих подходов заменяет знание тысяч частных решений. Сам я разрабатываю, в основном, на MacOS и чуть в меньшей степени на Linux. Винду трогаю только из-за того, что у многих студентов она стоит как основная операционная система и, чтобы предвосхитить потенциальные проблемы - тестирую все на специально выделенном ноутбуке с Win 10. 11-ю туда, увы, не поставить, процессор уже устарел.
Ну, так вот. Сломался у меня докер. Ни с того, ни с сего перестал запускаться docker engine. Жалуется на проблемы с WSL. Начинаю гуглить и допытывать ChatGPT, решение не приходит. Пока не победил, короче. Но знаете, что заметил? Поиск решения реально похож на колдовство и шаманство. Один пишет, что у него завелось после того, как два раза переустановил докер. Второй пишет, что сначала надо откатить последнее обновление системы, потом деинсталлировать докер, потом накатить обновление, а потом снова инсталлировать докер. Третий пишет, что у него сработала какая-то хитрая команда в PowerShell. Кто-то систему полностью переустановил. Кто-то говорит, что кеш надо почистить. И никто не объясняет почему сработало. Ну чем не шаманство?
Повернись лицом на север, три раза перекрестись, подпрыгни на одной ноге с промежутком ровно 3 секунды 20 раз, повернись на 180 градусов, ударь в бубен и все заработает. Но это не точно. И между прочим, это, по сути близко к бэкенду, где все должно быть логично, предсказуемо и понятно. Я теперь все больше понимаю специалистов по ML, у которых этого шаманства еще больше.
Мораль? Да хз, бесит.
PS. Ну, отлично, еще и Телеграм не работает. Тоже шаманы сейчас, наверное, с бубнами скачут по серверной.
Очень бы хотелось порекомендовать что-то, прям, годное по временным рядам на русском языке, но пока самое лучшее, что нашел - это вот этот ютуб-мини-курс, к которому у меня масса претензий, начиная от низкого качества звука и заканчивая очень поверхностным объяснением происходящего. Но, в целом, разобраться можно и общий пайплайн понятен. Может, пригодится кому. Ну, или кто-то посмотрит, поймет, что хорошего материала нет и сделает :) Можно чтобы не совсем с нуля, но и не уровень бог Воронцова, пожалуйста :)
https://www.youtube.com/watch?v=92EF4vqaBSE&list=PL7GGfr9mTeYWniRK11xuFsEky07oUQ_tX
Yandex приглашает поучаствовать в Practical ML Conf 14 сентября!
На конференции поговорим о том, как применять ML-технологии в бизнесе и реальных продуктах. Регистрируйтесь уже сейчас — те, кто сделает это раньше всех, попадут на закрытый мини-ивент в июле.
А если хотите поделиться своим опытом в ML, станьте спикером, оставив заявку. Ключевые темы конференции — CV, RecSys, MLOps, NLP, Speech и Analytics. После подачи программный комитет рассмотрит заявки и примет решение об участии каждого претендента.
🔹 Сбор заявок завершится 13 июля.
Реклама. ООО "Яндекс", ИНН 7736207543.
Не только машины учить, но и просто данные анализировать!
Сегодня хочу порекомендовать вам курс, посвященный прохождению собеседований в продуктовой аналитике. Почему это может быть полезно?
⁃ Во-первых, вопросы аналитикам и ml-щикам часто пересекаются. Помимо машин лернинга на собесах спрашивают всё то же, что и у аналитиков — SQL, статистику, программирование. Все типовые вопросы по этим темам покрыты в курсе.
⁃ Во-вторых, курс не про то, как научиться чему-то (раз вы читатете этот канал, то проблем с «теорией» у вас нет), а про то, как именно ваши знания будут проверять на собесе. И как их лучше раскрыть перед интервьюерами.
⁃ В-третьих, это просто повод посмотреть на то, что происходит у коллег-аналитиков. Вдруг и вас заинтересует? Автор курса сам начинал карьеру с DS/ML, но потом оказался в продуктовой аналитике, да так и остался.
С содержанием курса можно ознакомиться по ссылке , для подписчиков канала до конца мая действуют особые условия
Самое простое введение в теорию групп из тех, что я встречал! https://youtube.com/playlist?list=PLnbH8YQPwKblIpRi0ARO2VadnMwntvF51&si=jUHIhFPhClQ2uwaV
Читать полностью…