БЕЗ ЧУЖОЙ РЕКЛАМЫ Авторский канал Александра Дьяконова (dyakonov.org) машинное (machine learning) и глубокое обучение (deep learning) анализ данных (data mining) наука о данных (data science) ИИ (artificial intelligence) математика (math) и др. ЕСТЬ ЧАТ;)
#ссылки
Один из каталогов "лучших статей в ML" https://github.com/dmarx/anthology-of-modern-ml
Из обновлений последних лет:
2022
- Chinchilla - Training Compute-Optimal Large Language Models
- Stable Diffusion - High-Resolution Image Synthesis with Latent Diffusion Models
- Instruct tuning - Training language models to follow instructions with human feedback
- Efficient diffusion sampling - Elucidating the Design Space of Diffusion-Based Generative Models
- Diffusion as a de-corruption process - Cold Diffusion: Inverting Arbitrary Image Transforms Without Noise
2023
- ToolFormer - Toolformer: Language Models Can Teach Themselves to Use Tools
- Gaussian Splatting - 3D Gaussian Splatting for Real-Time Radiance Field Rendering
#интересно
Для тех, кто любит глянцевые журналы. Вот тут до сих пор регулярно выпускают журнал по Computer Vision. Электронные версии выложены в открытом доступе, там даже странички перелистываются со звуком шуршания журнальных;) В одном из последних номеров интервью с Яном Лекуном.
https://www.rsipvision.com/computer-vision-news/
#книга
Посмотрел книгу Введение в автоматизированное машинное обучение (AutoML). Главный недостаток - это не совсем книга, это скорее сборник статей, часть построена по принципу обзора по теме со ссылками на первоисточники. Зато попадаются интересные ссылки. Есть главы по Auto-WEKA, Hyperpopt, Auto-sklearn, TPOT (для первичного знакомства, наверное, подойдёт). Последняя глава - обзор результатов давнишних соревнований Изабель Гийон по AutoML.
К слову, создатели LightAutoML сделали курс из коротких видео по своему продукту: https://developers.sber.ru/help/lightautoml
#статьи
Есть такая замечательная коллекция лучших статей на разных DS-конференциях с 1996 года! К сожалению, с прошлого года не обновляется. Но всё рано, очень хорошая подборка.
https://jeffhuang.com/best_paper_awards/
Есть люди, которые целенаправленно читают всех нобелевских лауреатов по литературе или смотрят все фильмы из топа Кинопоиска / IMDb. Можно по аналогии читать по подобным спискам;)
#интересно
Многие неправильно думают, почему гребневая регрессия (Ridge Regression) так называется. В основном считают, что из-за того, что в явной формуле для весов возникает диагональная матрица - как будто "матрица с гребнем" (так даже ChatGPT объясняет). Но до появления гребневой регрессии возник гребневый анализ (Ridge Analysis) и в нём отсылка была к форме поверхности функций, с которыми работали. Не так давно вышла статья, в которой один из потомков изобретателей "всего гребневого" рассказывает о первых работах.
Hoerl R. W. Ridge regression: a historical context //Technometrics. – 2020. – Т. 62. – №. 4. – С. 420-425.
#задача
В августе я собеседовал довольно много абитуриентов. Вот одна из задач, которую я часто спрашивал (на собесах когда-то я её тоже использовал).
Мы играем в азартную игру, состоящую из конов, в каждом коне есть победитель и ему засчитывается очко (изначально счёт 0-0). Перед игрой мы сбросились по 100 рублей и договорились, что тот, кто первый наберёт 10 очков, забирает весь банк (200 рублей). Сейчас счёт 8-6 в Вашу пользу и мы не можем продолжить игру (например, мы играли на игровом автомате и он сломался). Как бы Вы предложили наиболее честно разделить банк?
Понятно, что в постановке присутствует нечёткость в виде "наиболее честно", но формализация этого как раз и интересна, также как и ход рассуждений (счёт при желании можно изменить для простоты вычислений).
#визуализация
Иллюстрации различных сложных систем (довольно много: тут и странные аттракторы, и модель Шеллинга, и preferential attachment). Сделаны интерактивными (можно менять параметры, которые определяют поведение).
https://www.complexity-explorables.org/
#ссылка
Есть такой ex-профессор университета Висконсина Дерик Баундс. Он автор нескольких книг о мозге, которые, впрочем, не слишком популярны, лет 20 назад он вышел на пенсию и ведёт блог, также на его сайте выложены некоторые популярные лекции.
Не знаю, насколько интересны его авторские концепции, а вот следить за блогом часто бывает полезным, т.к. он держит руку на пульсе и ссылается на совсем свежие исследования.
П.С. Что изображено на рисунке, можно понять из его последних лекций и эссе. В первом комментарии под постом дам ответ.
#планы
Уволился из МГУ. Теперь буду работать в Центральном университете.
Кстати, все, кто хочет поучаствовать в этом образовательном проекте, пишите в личку или на почту.
#курс
В этом году дозалил некоторые видео своего расширенного курса по DL, все материалы лучше искать по общей ссылке:
https://alexanderdyakonov.wordpress.com/courses/
А ссылка на видеолекции (теперь их 36): здесь.
Опять не всё успел записать, что хотел, но в ближайшие годы, скорее всего, конкретно этот курс не будет читаться и пополняться.
#видео
Что посмотреть на выходных;) Два больших (трёхчасовых) видео.
Для любителей теории.
Сотрудники ФКН ВШЭ за 10 минут должны рассказать результат, которым гордятся. Очень интересный формат! Некоторые доклады получились зажигательными. Предупреждаю, что там темы в сторону от DS (например, есть доклады по алгебре и теории чисел).
Для любителей практики.
Рассказы про соревновательный DS от участников ML-тренировки. Это уже "старый добрый" формат.
В комментарии можно кинуть свои предложения на тему "что посмотреть на выходных";)
#образование
Небольшой вопрос (для желающих). Понятно, что большинство читателей канала уже закончили обучение, но можно мысленно вернуться в студенчество и задаться вопросом "Какую бы учебную программу я хотел, если бы учится на DS?"
На картинке - вариант программы (4 года обучения). Что в ней не так по Вашему? Что следует удалить / добавить? Содержание дисциплин можно считать идеальным.
#курс
По машинному обучению может быть "стандартный" курс - в нём излагаются задачи и методы (kNN, SVM, LogReg и т.п.), "практический" - в нём больше идут от прикладных задач и библиотек (часто практическая часть интегрируется в виде семинаров в стандартный курс), а ещё "математический" (в нём учат теоремы и доказательства в ML). Интересно, что современных обучающих программах почти нет "математического ML", когда-то в ШАДе Червоненкис читал что-то похожее, но всё-таки с большим уклоном в область своих научных интересов.
Смотрел курсы MIT-а, там как раз есть "Математика в ML". Не знаю, доступно ли видео (не нашёл), но в pdf-ках темы прописаны хорошо. На картинке курса нарисована иллюстрация базового понятия в теоретическом ML (подсказка: связано с VC-размерностью).
#жзл
Вчера не стало молодого талантливого математика - Александра Кулешова, но в память о нём осталась замечательная книга о математическом анализе.
#книга
Jakub M. Tomczak "Deep Generative Modeling"
По ощущениям это как раз книга для продвинутого ML, т.к. в стандартных программах не всегда глубокие генеративные модели подробно излагаются. Автор довольно известен, у него очень симпатичный сайт и доклады о генеративных моделях на разных научных школах. Там и блог есть, но в нём излагаются главы книги.
Минус у книги один:
- не смотря на объём, глубоко в специфику отдельных методов автор не погружается.
Зато много плюсов:
+ обзор всех популярных классов генеративных моделей;
+ для каждого класса даётся перечень приёмов/улучшений со ссылками на первоисточниками;
+ даны примеры кода.
#книга
Simon J.D. Prince "Understanding Deep Learning"
Незаслуженно малоизвестная книга. Но это самое лучшее, что в последние годы писалось по глубокому обучению. Материал очень современный (GPT3, диффузионные модели, графовые сети есть). Повествование с основ и до этических проблем, очень широкий охват. Текст и рисунки авторские. Достаточно подробная библиография. Ну разве что примеров кода нет (книга теоретическая). Настоятельно рекомендую!
https://udlbook.github.io/udlbook/
#визуализация
Странно, что я ещё не упоминал здесь такой интересный ресурс. Можно использовать для освежения в памяти тем по ML. Полно интересных рисунков по каждой теме. Есть три блока: ML, ML-Engineering, проективная геометрия, по DL совсем чуть-чуть и ресурс не обновляется с начала года.
https://illustrated-machine-learning.github.io/
#полезно
Один интересный кейс, который мне очень нравится: как догадаться до нужной деформации целевых значений.
#книга
Ilias Diakonikolas, Daniel M. Kane Algorithmic High-Dimensional Robust Statistics
Монография по современной многомерной робастной статистике. Стиль «очень математический», без лишних примеров «на пальцах», только утверждения и доказательства. Есть даже глава про «робастное машинное обучение» (но там дальше линейной регрессии не идут). Из книги, в частности, можно узнать, что SIFT это не только scale-invariant feature transform, но и Subspace Isotropic Filtering. Из плюсов: есть нетривиальные задачи в конце каждой главы.
#интересно
Есть такой Adon Joseph - бывший аэрокосмический инженер, создававший системы навигации космических кораблей в 90-е и руководивший большими проектами в оборонке. На пенсии он как-то обнаружил, что «преддверие» - часть внутреннего уха - устроено также как военные системы навигации. После этого он 6 лет изучал нейробиологию и построил свои карты головного мозга. В результате пришёл к выводу, что мозг это реально сложная инженерная система, кем-то специально спроектированная, ударился в религию и создал свой любопытный сайт.
#ссылка
Сайт с информацией о современных моделях ИИ. Особенно там удачные вот такие визуализации (которые многие любят вставлять в презентации) и таблицы с параметрами моделей и ссылками на них. Последние полгода сайт стал меньше обновляться.
https://lifearchitect.ai/
#забавно
Если писатели не хотят дописывать серию романов, то можно использовать ИИ;) Интересная идея - с помощью языковой модели дописали "Песнь льда и пламени" Джорджа Мартина. Не думаю, что могло получиться хорошо (сам не стал читать, т.к. уже написанные книги ПЛиП тоже не читал), но попытка интересная (ранее с помощью GPT2 генерировали альтернативные концовки, здесь с помощью ChatGPT две последние книги серии).
https://github.com/LiamSwayne/AI-Song-Of-Ice-And-Fire
#книга
Большая книга про женщин в науке. Сделана в формате справочника, вроде как наиболее полная по этой теме (но, например, про Софью Ковалевскую ни слова).
https://discovery.ucl.ac.uk/id/eprint/10165716/1/Women-in-the-History-of-Science.pdf
#соревнование
Есть много разных соревнований по анализу данных, например, на известной платформе kaggle уклон в сторону машинного обучения. А есть ещё конкурсы по финансовому моделированию, например Financial Modeling and Excel Competitions. В последнем номере журнала Риск-менеджмент в кредитной организации интервью с участником таких конкурсов (там есть примеры задач и данных). Кстати, в них почти нет участников из России (в рейтинге этого года всего 2).
#книга
Свежая книга "Random Matrix Methods for Machine Learning" поможет понять, зачем в машинном обучении нужны функции комплексного переменного, интегралы по контуру, спектральная теория, комбинаторика и т.п. Есть следующие разделы
- Random Matrix Theory
- Statistical Inference in Linear Models
- Kernel Methods
- Large Neural Networks
- Large-Dimensional Convex Optimization
- Community Detection on Graphs
- Universality and Real Data
Например, в первом изучается спектр матрицы XX^T, которая много где возникает (в методе главных компонент, теории ядер и т.п.) А в четвёртом есть интересные результаты про т.н. двойной спуск.
Книга для очень подготовленного читателя!
#образование
Запущена регистрация на БЕСПЛАТНУЮ программу AI Masters Набор 2023.
Программа готовит аналитиков и специалистов по Data Science с гибким набором курсов.
Продолжительность: 2 года,
Время занятий: по будням с 18:00 до 21:00,
Загрузка: в среднем 30 часов в неделю,
Обучение бесплатное.
Сайт программы с подробной информацией
Около 30 курсов, в том числе:
- Машинное обучение,
- Computer Vision & Video Processing,
- Вычислительная линейная алгебра,
- Математическая статистика и ее приложения,
- Big Data and Data Engineering,
- Продуктовая аналитика,
- Генеративные модели,
- Natural Language Processing,
- Reinforcement Learning,
- Вероятностные графические модели.
🗓 27 мая (суббота) в 12.00 состоится День открытых дверей в online формате.
👉 Ссылка на подключение
Любые вопросы пишите на почту aimasters.msu@gmail.com или кураторам проекта (их контакты - в соответствующем разделе на сайте).
👉 Подать заявку на поступление
#термин
Как меняется значение термина со временем...
Сейчас термином cross-validation (перекрёстная проверка / скользящий контроль) называют практически любой способ "честной оценки её качества" (см. wiki). Более 20 лет назад под этим понимали, в основном, тестирование с равномерными разбиениям выборки:
- Leave-p-out cross-validation,
- Leave-one-out cross-validation,
- k-fold cross-validation.
А вот когда мы выборку делим на две части, на одной обучаемся, на другой контролируемся, называлось отложенным контролем (Holdout method) - видите, тут даже в названии нет "cross-validation".
И вот что написано на Wiki: "many sources instead classify holdout as a type of simple validation, rather than a simple or degenerate form of cross-validation".
На русской Wiki, кстати, вообще радикально отождествляют cross-validation = k-fold cross-validation (что соответствует старой терминологии).
#интересно
На ArXiv-е есть раздел статистики:
https://info.arxiv.org/help/stats/
Больше всего на него заливают препринтов в области Computer Science (в среднем сейчас более 200 в день), на втором месте - Math (более 100). И есть ещё раздел с отчётами:
https://info.arxiv.org/about/reports/index.html
Скачивают с ArXiv-а в день в среднем 1.5 млн статей (это по всем областям)!
#ссылка
Учебные материалы по теории хаоса. В полном доступе выложена авторская книга (более 1000 страниц) и материалы курсов.
https://chaosbook.org/
#опрос
Мне сейчас актуальны проблемы качества образования. Поэтому я попробую использовать аудиторию канала для опроса. Какие-то общие выводы опроса я, конечно, в канале напишу...
Нас обычно привлекают
- преподаватели (которые отличаются от других харизмой, манерой подачи и т.п.),
- курсы (которые оказываются полезными и запоминаются),
- приёмы (ну какие-то фишки, которые редко встречаются, но вызывают "вау-эффект": интересные формы контрольных, неформальные обсуждения материала и т.д.)
Если у Вас что-то такое было, напишите в форму. Там всего несколько полей, можно заполнять несколько раз, за одно заполнение можно указать что-то одно (преподавателя, курс или приём). Также желательно кратко объяснить, а что Вас зацепило... Это НЕ обязательно должно быть связано с DS или MATH образованием! Любопытно всё интересное.
Заранее всем спасибо!