Из рубрики "Для самых маленьких". Нашел короткие видео по статистике с самого-самого нуля, с очень подробным объяснением. Подойдёт для школьников или тех, кто раньше со статистикой вообще не имел дело.
sigma-stat?si=0XTAs_q34dBbuCPa" rel="nofollow">https://youtube.com/@sigma-stat?si=0XTAs_q34dBbuCPa
🫡 Я Хошев Павел, и это не апрельская шутка!
📖 Мой новый курс Многопоточный Python готов увидеть мир!
💥NEW💥
✅ Многопоточный Python
🕰 Старт курса 1 апреля в 9:00.
📝 Курс нацелен на практическое применение многопоточности. В курсе я рассказываю не только о том, как и где её применять, но и создал много практических задач, которые необходимо решить для получения сертификата с отличием.
👨🏫 На курсе есть преподаватели, которые с готовностью ответят на любые ваши вопросы, возникшие в процессе обучения, и помогут разобраться во всех сложностях многопоточности.
📈 Присоединяйтесь к нашему сообществу уже сегодня и изучайте многопоточность вместе!
Цена курса — 4350 / 2175 рублей.
Весь апрель скидка 50%
🎁 Приобрести курс Многопоточный Python!
📨 Наш чат в Telegram
Теория про радары
https://www.ti.com/video/series/mmwave-training-series.html - видео к ppt ([Introduction to mmwave Sensing: FMCW Radars](https://www.ti.com/content/dam/videos/external-videos/2/3816841626001/5415528961001.mp4/subassets/mmwaveSensing-FMCW-offlineviewing_0.pdf))
[Deep Learning Applications of Short-Range Radars](https://ieeexplore.ieee.org/document/9321436) - большая книга по использованию радаров с нейронными сетями
Если вы только собираетесь изучать pytorch и не знаете с чего начать - рекомендую видео от Татьяны Гайнцевой. Самая база, но дает общее представление как конструировать свои сетки.
https://youtu.be/EfgFeqc0H6M?si=kK-LD7BxoaNac88I
Нескучная история искусственного интеллекта. Кто хочет нестандартный рассказ - велкам!
https://youtu.be/YpipgdiM21w?si=zAQJR8q0MXWso3gb&t=3565
Привет, друзья!
Готов новый выпуск подкаста. В гостях Антонина Горячева - Head of ML в СберМаркете. Разговариваем о том, как устроен ML в онлайн-сервисе доставки продуктов и товаров с полок магазинов, начиная от того, зачем вообще машинное обучение в таких компаниях и заканчивая рассмотрением некоторых конкретных инструментов для решения ML-задач. Бывает ли такое, что заказов настолько много, что от них приходится отказываться. Как понять какую скидку нужно сделать, чтобы заработать больше, чем потерять. Как облегчить работу ретушерам фото для карточек товаров. Часто ли приходится пилить фичи, которые никому не нужны. Кого сейчас нанимают в ML-команды и как повысить свои шансы на трудоустройство. Чему можно научиться в процессе работы в такой команде. Какие качества нужно развивать, чтобы ИИ заменил тебя не сразу. Обо всем этом в выпуске.
https://mlpodcast.mave.digital/ep-57
Рубрика «Автор месяца»🥇
Как и обещали ранее, представляем вам еще одного автора месяца. По итогам января 2024 автором месяца стал Михаил Крыжановский!🎉
У Михаила есть собственный подкаст про машинное обучение, в котором он рассказывает о развитии индустрии, проводит ликбез, объясняет терминологию и профессиональные жаргонизмы и общается с профессионалами из индустрии Искусственного Интеллекта. Он также доступен на youtube и в телеграм-канале.
На какие курсы Михаила мы предлагаем обратить внимание? В первую очередь на набирающий популярность «Телеграм-боты на Python: продвинутый уровень», в процессе прохождения которого предлагается создание собственного проекта.
Данный курс Михаил ведет в соавторстве с Александром Даниловым и Александром К.
Также у Михаила есть бесплатный курс «Телеграм-боты на Python и AIOgram» с рейтингом 5️⃣⭐️.
Мы желаем Михаилу успехов в его деятельности и с нетерпением ждем новых успешных курсов на Stepik!
По ссылкам: я вчера буквально на работе нечто схожее рассказывал, вот оттуда - такой starter pack, которые желающие могут пораскуривать на предмет технологий
Text:
https://github.com/oobabooga/text-generation-webui
(actually, some models you can run with no GPU at all, but the inference time is going to be 5-10 minutes per request. It works, confirmed by one of my students recently)
Current recommendation is this model https://huggingface.co/TheBloke/openchat_3.5-GGUF/blob/main/openchat_3.5.Q5_K_M.gguf , works without GPU, takes 15-20 minues per request. It's also multilingual, speaks English and Russian, so probably German as well (didn't test)
A smaller one is this one https://huggingface.co/4bit/WizardLM-13B-Uncensored-4bit-128g , but the quality is really bad.
You can also install this
https://github.com/SillyTavern/SillyTavern
This gives you the nice interface and possibility to define your characters, their preferences, likes and dislikes, as well as avatars, and then chat with them. It's fairly close to Replika AI experience. Works on top of Oobabooga.
Voice:
https://github.com/synesthesiam/opentts
A docker you may run on any machine, contains XTTS with predefined 100-something voices that are really humanly
Images:
https://github.com/AUTOMATIC1111/stable-diffusion-webui/
For image generation, AFAIK, you must have a GPU.
https://civitai.com/ - unholy brother of hugging face, hosting lots of fine-tuns and LORAs for fandoms/characters, such as this. NSFW warning applies particularly to this site. (edited)
Встречайте очередной выпуск подкаста!
В гостях Юрий Окуловский - Senior Data Scientist, кандидат физико-математических наук, ранее руководитель лаборатории искусственного интеллекта и робототехники УрФУ, также вы, возможно, его знаете как автора нескольких видеокурсов по программированию и рациональному мышлению. Юрий уже был гостем подкаста примерно три года назад и мы снова решили встретиться пообщаться, тем более у Юрия интересный взгляд на происходящие изменения в обществе, связанные со стремительным развитием технологий. В подкасте обсуждаем как превратить нейросеть в своего личного литературного негра, нужно ли гуманоидное тело современному секс-роботу, как сделать свою собственную Алису из Бесконечного лета, почему менеджеров автоматизировать проще, чем программистов, почему дохли куры у Ленина, почему корпорации не могут позволить себе делать, действительно, персонализированные и полезные продукты на базе ИИ, а также многое-многое другое.
https://mlpodcast.mave.digital/ep-56
Новый год — старт для ваших новых карьерных возможностей 🎄
6 февраля приглашаем на Зимнюю ярмарку вакансий, которая пройдёт офлайн и онлайн. Это классная возможность стать частью IT-сообщества Яндекса и познакомиться с теми, кто создаёт сервисы с многомиллионной аудиторией.
Что вас ждёт
🔸 Вакансии для стажёров
Узнаете о новых вакансиях и задачах, а также сможете лично пообщаться с командами и подать заявку туда, где понравится больше всего.
🔸 Полезные лекции
Узнаете о технологиях и кейсах из практики от экспертов Яндекса. Лекции пройдут по основным направлениям стажировки: бэкенд, фронтенд, мобильная разработка, аналитика и машинное обучение.
🔸 Нетворкинг со стажёрами Яндекса
Узнаете, как они проходили отбор, как готовились и чем планируют заниматься дальше. Сейчас в Яндексе одновременно стажируются более 600 человек — им есть что рассказать.
Как попасть на Зимнюю ярмарку вакансий
Чтобы попасть на ярмарку, нужно пройти предварительный отбор — решить задачи на Яндекс Контесте до 31 января включительно. Мы проверим решения, оценим анкеты и позовём лучших на день стажёра в Москве. Приглашения придут до 2 февраля включительно.
🍭 Закрытое шоу
Тех, кто решит все задачи из Контеста, мы пригласим на вечернее закрытое шоу «Всё в плюсе». Это соревнование между различными бизнес-группами Яндекса, в которых примут участие и стажёры, и топовые разработчики. Знакомство с различными сервисами, нетворкинг с действующими стажёрами, вечеринка с кавер-группой и диджеем — это то, что ждёт вас на шоу.
Узнать подробности и подать заявку — https://yandex.ru/yaintern/intern-day
Компиляция нескольких постов про то, что читать про ML/NLP/LLM:
Обучающие материалы 🗒
- https://habr.com/ru/articles/774844/
- https://lena-voita.github.io/nlp_course.html
- https://web.stanford.edu/~jurafsky/slp3/ed3book.pdf
- https://www.youtube.com/watch?v=rmVRLeJRkl4&list=PLoROMvodv4rMFqRtEuo6SGjY4XbRIVRd4
- https://huggingface.co/docs/transformers/perf_train_gpu_one
Блоги 🍿
- https://huggingface.co/blog/
- https://blog.eleuther.ai/
- https://lilianweng.github.io/
- https://oobabooga.github.io/blog/
- https://kipp.ly/
- https://mlu-explain.github.io/
- https://yaofu.notion.site/Yao-Fu-s-Blog-b536c3d6912149a395931f1e871370db
Прикладные курсы 👴
- https://github.com/yandexdataschool/nlp_course
- https://github.com/DanAnastasyev/DeepNLP-Course
(Я давно не проходил вообще никакие курсы, если есть что-то новое и хорошее - пишите!)
Каналы 🚫
- /channel/gonzo_ML
- /channel/izolenta_mebiusa
- /channel/tech_priestess
- /channel/rybolos_channel
- /channel/j_links
- /channel/lovedeathtransformers
- /channel/seeallochnaya
- /channel/doomgrad
- /channel/nadlskom
- /channel/dlinnlp
(Забыл добавить вас? Напишите в личку, список составлялся по тем каналам, что я сам читаю)
Чаты 😁
- /channel/betterdatacommunity
- /channel/natural_language_processing
- /channel/LLM_RNN_RWKV
- /channel/ldt_chat
Основные статьи 😘
- Word2Vec: Mikolov et al., Efficient Estimation of Word Representations in Vector Space https://arxiv.org/pdf/1301.3781.pdf
- FastText: Bojanowski et al., Enriching Word Vectors with Subword Information https://arxiv.org/pdf/1607.04606.pdf
- Attention: Bahdanau et al., Neural Machine Translation by Jointly Learning to Align and Translate https://arxiv.org/abs/1409.0473
- Transformers: Vaswani et al., Attention Is All You Need https://arxiv.org/abs/1706.03762
- BERT: Devlin et al., BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding https://arxiv.org/abs/1810.0480
- GPT-2, Radford et al., Language Models are Unsupervised Multitask Learners https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
- GPT-3, Brown et al, Language Models are Few-Shot Learners https://arxiv.org/abs/2005.14165
- LaBSE, Feng et al., Language-agnostic BERT Sentence Embedding https://arxiv.org/abs/2007.01852
- CLIP, Radford et al., Learning Transferable Visual Models From Natural Language Supervision https://arxiv.org/abs/2103.00020
- RoPE, Su et al., RoFormer: Enhanced Transformer with Rotary Position Embedding https://arxiv.org/abs/2104.09864
- LoRA, Hu et al., LoRA: Low-Rank Adaptation of Large Language Models https://arxiv.org/abs/2106.09685
- InstructGPT, Ouyang et al., Training language models to follow instructions with human feedback https://arxiv.org/abs/2203.02155
- Scaling laws, Hoffmann et al., Training Compute-Optimal Large Language Models https://arxiv.org/abs/2203.15556
- FlashAttention, Dao et al., FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness https://arxiv.org/abs/2205.14135
- NLLB, NLLB team, No Language Left Behind: Scaling Human-Centered Machine Translation https://arxiv.org/abs/2207.04672
- Q8, Dettmers et al., LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale https://arxiv.org/abs/2208.07339
- Self-instruct, Wang et al., Self-Instruct: Aligning Language Models with Self-Generated Instructions https://arxiv.org/abs/2212.10560
- Alpaca, Taori et al., Alpaca: A Strong, Replicable Instruction-Following Model https://crfm.stanford.edu/2023/03/13/alpaca.html
- LLaMA, Touvron, et al., LLaMA: Open and Efficient Foundation Language Models https://arxiv.org/abs/2302.13971
Давно подкаста не было, да? :)
В гостях Илья Гусев - известный NLP-специалист, сделавший большой вклад в область своими опенсорс-проектами, среди которых анализатор морфологии, генератор стихов, сборка различных датасетов и некоторые другие. Один из таких проектов как раз и стал поводом к сегодняшнему общению. Это большая языковая модель, заточенная на работу с русским языком - Сайга. Но говорим в выпуске мы далеко не только о ней. Илья сделал классный исторический экскурс в современные языковые модели, рассказал некоторые подробности об их устройстве, о тех подходах, которые применяют, чтобы такие модели можно было запускать на домашнем компьютере, как с помощью языковых моделей можно решать разные задачи и стоит ли вообще использовать локальные модели. Интересного и полезного прослушивания!
https://mlpodcast.mave.digital/ep-55
Привет, друзья!
Многие знают, что я делаю курс на Степике по Телеграм-ботам на базе фреймворка aiogram. Также многие знают, что этот курс несколько шире, чем только про ботов. В нем разобраны базовые навыки для работы с гитом, настройка виртуального окружения, работа с переменными окружения и т.п.
Вчера я выложил очередной урок, посвященный логированию с помощью библиотеки logging
. Кому требуется ввести логирование в свои python-проекты и кто пока еще этого не сделал, думаю, будет полезно.
https://stepik.org/lesson/759389/step/1?unit=761405
Приветствую, друзья!
Во-первых, хочу поздравить всех с наступающим Новым Годом и пожелать реализации ваших стремлений! А во-вторых, сообщить о выходе очередного (хотя и последнего в этом году) выпуска Machine Learning Podcast. Выпуск немного нестандартный. В нем сразу два гостя. Гостя два, а тема одна - их совместно написанная книга "Machine Learning System Design with end-to-end examples". Разговариваем о том, как вообще пришла идея написать книгу по теме проектирования ML-систем, почему в соавторстве, а не раздельно, для кого будет полезна данная книга, из каких частей состоит ML System Design, как подходить к разработке ML-систем разной сложности и так далее. Два взгляда двух разных авторов одной книги! Хорошего и интересного вам завершения года!
https://mlpodcast.mave.digital/ep-54
🔥 Крутая находка - 1900 вопросов с собеседований по анализу данных, машинному обучению. Фишка в том, что вопросы разбирают Сеньоры, которые сами проводят собесы и дают примеры правильных ответов. Вы легко получите оффер, изучив популярные вопросы 💼
А здесь собрана целая папка для тех, кто любит машинное обучение
Производители (моей компании тут не будет - мы не продаём по штучно)
Infineon
https://www.infineon.com/cms/en/product/sensor/radar-sensors/ - 60GHz для решений задач на расстоянии до ~6м https://www.infineon.com/cms/en/product/sensor/radar-sensors/radar-sensors-for-iot/60ghz-radar/
Texas Instruments - https://www.ti.com/product/IWR6843
Статьи по нейронным сетям с использованием FMCW mmwave радаров
google soli - https://github.com/simonwsw/deep-soli - проект распознавания жестов от гугл (использовался в google pixel)
Ramp-CNN - https://github.com/Xiangyu-Gao/Radar-multiple-perspective-object-detection?utm_source=catalyzex.com - датасет + статья и код по обнаружению людей и машин
https://www.researchgate.net/publication/341034527_Continuous_Human_Activity_Classification_With_Unscented_Kalman_Filter_Tracking_Using_FMCW_Radar - классификация человеческих активностей
SincNet https://github.com/mravanelli/SincNet - параметризация свертки как частотного фильтра
https://github.com/ZHOUYI1023/awesome-radar-perception/blob/main/README.md курируемый лист датасетов и проектов использующих FMCW радары
Очередной горячий выпуск подкаста в эфире!
В гостях выпуска Дмитрий Матвейчев - Deep Learning Researcher, PhD кандидат, занимающийся разработкой нейронных сетей для решения задач компьютерного зрения с использованием mmwave FMCW радаров. Разговариваем о том, зачем компьютерное зрение нужно в радиосвязи на примере микроволновых радаров. Как совместить классическую цифровую обработку сигналов с современными подходами из области машинного обучения, что такое радары и какие у них есть применения в гражданской промышленности, заменят ли радары камеры и лидары в беспилотных автомобилях, сколько стоит вставить радар в ухо и зачем потом махать руками, почему большой брат теперь не только смотрит за тобой, но и чувствует чем ты занимаешься, а также многое другое в выпуске.
https://mlpodcast.mave.digital/ep-58
🖥🧠 Хочешь получить профессию будущего? Мечтаешь создавать новые технологии и работать на переднем крае инженерной мысли? Если искусственный интеллект и RnD — твоя стихия, то ждем тебя в Инженерной школе Новосибирского госуниверситета!
⭐️ ИШ — это программа бакалавриата Мехмата НГУ по искусственному интеллекту и прикладному инжинирингу:
✨ Здесь готовят инженеров нового типа, которые работают на стыке математики и IT и умеют решать передовые задачи современности.
✨ Проектная деятельность — это то, что лежит в основе обучения. Тебя ждет практика, море практики.
✨ Ты научишься использовать различные инструменты, в том числе нейронные сети, методы глубокого машинного обучения, генетические алгоритмы и многое другое.
✨ Ты будешь учиться у крутых практиков и сможешь поработать в реальных высокотехнологичных проектах.
🔥Хочешь пройти тест-драйв обучения в ИШ уже сейчас? Записывайся в нашу отборочную Предшколу — получи фору и дополнительные баллы при поступлении! Предшкола пройдет 28-30 марта.
⁉️ Хочу в Предшколу, что нужно сделать?
- Заполнить анкету абитуриента.
- Заполнить заявку на участие в отборе.
- Пройти собеседование.
Меняй мир вместе с нами!
⚡️ Об Инженерной школе: https://education.nsu.ru/engineering_school/
™️ Группа ВК: https://vk.com/engineering_school_nsu
💬 Есть вопросы? Приходи на День открытых дверей НГУ 24 марта или подключайся к трансляции ИШ.
@nsuniversity
Нашел очень толковый курс мини-лекций по линейной алгебре. Академично, без воды, с примерами и очень последовательно.
https://www.youtube.com/watch?v=84sF2jCfrho&list=PLaX3n04-uUZoTu4DcD2Eqgq-h5wimh_uT
Приветствую, друзья!
Пока к выходу готовится очередной выпуск подкаста с классным гостем (мои постоянные слушатели его хорошо знают, хотя времени с предыдущего выпуска прошло очень немало), мы начали чтение новой книги в MLBookClub!
Чтение предыдущей книги (Себастьян Рашка. Python и машинное обучение) показало, что именно математическая подготовка большинства участников клуба не позволяла легко и непринужденно двигаться сквозь математические концепции, лежащие в основе ML-алгоритмов. Приходилось читать много побочных статей, чтобы разобраться что такое правдоподобие, чем оно отличается от вероятности, что такое плотность вероятности и как она связана с шансами, как работает распределение Бернулли и так далее. Из-за этого чтение книги превратилось не столько в изучение машинного обучения, сколько в борьбу с теорией вероятностей, матанализом и статистикой.
Поэтому было принято решение в качестве следующей книги выбрать что-то по математике, чтобы освежить в голове основные концепции, разобраться с основной терминологией и вообще посмотреть какие разделы математики могут пригодиться в ML больше других. После обсуждения была выбрана книга Математика в машинном обучении. Авторы Марк Питер Дайзенрот, А. Альдо Фейзал, Чен Сунь Он. К ее чтению мы приступили со вчерашнего дня.
В книге представлены следующие разделы:
- Линейная алгебра
- Аналитическая геометрия
- Матричные разложения
- Векторный анализ
- Вероятность и распределения
- Непрерывная оптимизация
- Линейная регрессия
- Снижение размерности с помощью анализа главных компонент
- Оценка плотности с помощью моделей гауссовой смеси
- Классификация методом опорных векторов
Уже появились первые обсуждения книги и ошибок перевода в русском издании. А в ближайшее воскресенье мы встретимся с участниками клуба онлайн и обсудим впечатления от выбора книги.
Также на прошлой встрече был запрос от одного участника запрограммировать в режиме лайв-кодинга персептрон с пошаговым объяснением работы кода. Вероятно, что-то такое тоже проведем.
Если хотите присоединиться к клубу - пожалуйста, ознакомьтесь с условиями. Участие в клубе платное. Много приходит заявок, которые люди затем не подтверждают. Возможно, это как раз связано с непониманием условий. Ну, а если условия все же вам подходят - подавайте заявку по ссылке.
Давайте повышать свои компетенции в клубе целеустремленных, образованных, читающих людей!
Друзья, публикую долгожданное интервью с Михаилом Крыжановским! 🤓
Михаил — предприниматель и Python-разработчик, автор подкаста о машинном обучении и телеграм-канала "Стать специалистом по машинному обучению". Кроме того, он является создателем бесплатного курса на Stepik "Телеграм-боты на Python и aiogram", а недавно выпустил пре-релиз нового курса "Телеграм-боты на Python: продвинутый уровень" в соавторстве с крутыми python-разработчиками.
Мы поговорили с Михаилом о программировании, изучении Python, математике и машинном обучении, создании курсов и многом другом. Рекомендуем к просмотру на выходных! 😎
#интервью
Челлендж. Сгенерируйте любой нейросеткой, генерирующей картинки, адекватную садовую тележку с ДВУМЯ колесами
Читать полностью…5-6 декабря прошла главная конференция Яндекса для IT-сообщества YaTalks. Так вышло, что наблюдаю я за конференций уже 5-ый год, и в этот раз меня заинтересовал доклад про беспилотные технологии. Спикер из Яндекса рассказал, как обстоят дела с беспилотниками и о новой ML-модели, которую недавно удалось натренировать.
Кто знаком с машинным обучением, знает, что модели работают не быстро, а предсказания на основе дорожной обстановки нужно делать несколько раз в секунду. Новая ML-модель успешно генерирует предсказания и хорошо себя показывает в тестах. Для её обучения привлекли профессиональных водителей и асессоров.
Советую посмотреть доклад полностью и поставить все точки над и в этом вопросе. Там же можно найти выступления и других спикеров - лучших умов IT-индустрии.
#реклама ООО Яндекс, ИНН ИНН 7736207543, erid: 2SDnjdKBdWp