980
На пальцах, местами с матом, местами с претензией на юмор, но познавательно.
Средняя длина собеседования в FAANG
(для маленьких)
@toshoseti
Запилил PoC, агент пытается играть в Half Life
@toshoseti
Отличный бесплатный конспект по LLM на русском языке
Праздники не такие длинные, как кажется. Будет жалко, если они снова пройдут бесполезно, потому что это, очевидно, лучшее время для развития.
В общем, пора поделиться с вами вот этим свежим конспектом. Очень качественная подача материала, емко, интересно и с множеством прекрасных схем и картинок. Внутри:
– Необходимая математика: линал и матанализ на пальцах
– Все про механизм внимания и трансформеры
– Детальное объяснение процесса предобучения (а это редкость)
– RL – с нуля до обучения ризонинг-моделей
– Полноценный гайд по тому, как зафайнтюнить модель
Всего 6 глав и 50 страниц – идеальный объем, чтобы осилить за выходные и понять принцип работы современных моделей. Сохраняйте сейчас и не откадывайте в долгий ящик.
Забрать полную pdf-версию абсолютно бесплатно можно здесь
📌GPU Glossary: исчерпывающая база по GPU.
Modal Labs составили подробный глоссарий, чтобы решить проблему, с которой сами столкнулись при работе с графическими процессорами в сервисе Modal : документация фрагментирована и зачастую очень сложно сопоставить концепции на разных уровнях стека.
Modal Labs (бренд Modal) – компания, основанная в 2021 году, которая предоставляет высокопроизводительную серверную вычислительную платформу для разработчиков, работающих с данными, ИИ и машинным обучением.
doom на микроволновке? а как насчет llm на z80 процессоре?
Типа прикиньте, это процессор из 1976 на котором запускается 40kb бинарник с моделью на несколько тысяч параметров, обученная отвечать только "OK, WHY, R U?, MAYBE, AM I"
А еще вся арифметика целочисленная + веса квантуются в 2бит. А еще эту модель можно запустить на железе которое на момент событий 1 сезона "Stranger Things" было устаревшим
code
⚡️ Nvidia забирает команду основателей Groq и лицензирует архитектуру LPU
Производитель чипов Groq объявил о сделке с Nvidia, которая больше напоминает «покупку кадров», чем обычное партнерство.
Стороны опровергли слухи о полном поглощении стартапа за $20 млрд: вместо этого подписан договор о неэксклюзивном лицензировании технологий инференса.
Ключевой момент сделки — трансфер мозгов.
Основатель и CEO Groq Джонатан Росс, президент Санни Мадра и ведущие инженеры переходят на работу в Nvidia. Им предстоит интегрировать свои наработки в экосистему «зеленой команды».
Groq при этом продолжит существовать как независимая компания под руководством бывшего финдиректора Саймона Эдвардса, а платформа GroqCloud будет работать в штатном режиме.
@ai_machinelearning_big_data
#news #ai #ml
⚡️ HF Learn: 11 бесплатных курсов по ИИ от HuggingFace.
В преддверии новогодних праздников платформа подготовила набор обучающих материалов по основным направлениям ИИ:
🟢LLM Course - познакомит с большими языковыми моделями и обработкой естественного языка с использованием библиотек экосистемы HF: Transformers, Datasets, Tokenizers и Accelerate.
🟢Robotics Course - проведет вас от классической робототехники к современным подходам, основанным на ML.
🟢Model Context Protocol Course - курс, созданный в партнерстве с Anthropic , научит пониманию, использованию и созданию приложений с помощью MCP.
🟢Smol-course - самый всеобъемлющий (и самый короткий) трек по тонкой настройке языковых моделей.
🟢AI Agents Course - научит разбираться и использовать самую топовую тему на сегодняшний день: создание и применение агентов ИИ.
🟢Deep RL Course - курс по самой интересной теме в области ИИ: глубокому обучению с подкреплением.
🟢Computer Vision Course - подробный разбор компьютерного зрения, созданный сообществом HF, состоящий из теории, практических занятий и увлекательных заданий.
🟢Audio Сourse - научит вас использовать Transformers для обработки звука. Вы получите представление о специфике работы с аудиоданными, изучите различные архитектуры Transformers и обучите собственные модели.
🟢ML for Games Course - узнаете как интегрировать модели ИИ в процессы разработки игр и создавать уникальные игровые впечатления.
🟢Diffusion Course - полномасштабный источник знаний и навыков по диффузии. Теория и практика: от изучения библиотеки Diffusers до создания конвейеров обработки данных.
🟢ML for 3D Course - авторский набор обучающих материалов по использованию машинного обучения в 3D от Дилана Эберта IndividualKex">(IndividualKex) - разработчика по 3D-графике HuggingFace.
Сохраните на праздники, в этом году они длинные
@ai_machinelearning_big_data
#AI #ML #HuggingFace
Пока ищу работу, сделал скринсейвер. Заодно познакомился с Rust, Bevy и попрактиковал ECS.
Суть: Пираньи пожирают файлы из %TEMP% папки. Прям реально удаляют. При нынешних ценах на SSD и память самое оно.
👾Itch.io: https://gamergent.itch.io/byte-prianhas
Проверялось под Windows 11, но должно работать и на Windows 10.
@toshoseti
Weird Generalization and Inductive Backdoors: New Ways to Corrupt LLMs https://arxiv.org/abs/2512.09742
Читать полностью…
Компания Resemble AI открыла исходный код своей самой быстрой и лучшей на сегодняшний день модели синтеза речи.
Компания утверждает, что превосходит ElevenLabs и Cartesia. 350 миллионов параметров. В 6 раз быстрее, чем в реальном времени, со встроенным водяным знаком AI.
Встроенные эмоции: [смех], [вздох], [вздох] и другие.
🔗 GitHub: https://github.com/resemble-ai/chatterbox
🤗 HuggingFace: https://lnkd.in/guhVrFp8
🎧 Живые демоверсии: https://huggingface.co/spaces/ResembleAI/chatterbox-turbo-demo
📊Оценка от Podonos:
Chatterbox Turbo против Elevenlabs Turbo v2.5:
https://www.podonos.com/resembleai/chatterbox-turbo-vs-elevenlabs-turbo?t=a
Chatterbox Turbo против Cartesia Sonic 3:
https://www.podonos.com/resembleai/chatterbox-turbo-vs-cartesia-sonic3?t=a
Chatterbox Turbo против Vibevoice 7B:
https://www.podonos.com/resembleai/chatterbox-turbo-vs-vibevoice7b?t=a
@toshoseti
Google Disco
Браузер с генеративными табами-приложениями под конкретный случай пользователя.
Информация веб-страниц перерабатывается в интерактивный опыт, который меняется по ходу разговора. Любопытная концепция, очень круто ложится на задачи изучения и планирования.
YouTube
@toshoseti
👀 спасибо за терпение
следующий Data Brunch 😶
🙂Когда: воскресенье, 07.12 с 11:00 до 12:30
👩❤️👨Где: кафе Auditoria (https://yandex.com/maps/-/CLW8ULK3 )
🤗Для кого: для всех желающих провести время в чудесной компании
😏Тема: живые кейсы и живое общение. обменяемся опытом и полезно проведем время
Ждем вас 👀
Прилетело спасибо от LiquidAI за туториалы по жидким нейросетям.
Ойтанушовэ... 😏
@toshoseti
💧 LFM2.5: новые модели 1B — Base, Instruct, Japanese, Vision и Audio
Вышло новое поколение моделей LFM2.5 в размере 1B параметров, включающее версии Base, Instruct, Japanese, Vision и Audio.
В рамках обновления была существенно расширена стадия pre-training — с 10T до 28T tokens. Даже при таком компактном размере моделей это дало заметный прирост качества. Одновременно выпущена base model, предназначенная для самостоятельного fine-tuning.
Для версии Instruct была применена масштабная многоэтапная RL training, благодаря чему модель значительно улучшила instruction following, knowledge reasoning, работу с math и tool use. По качеству это ощутимый шаг вперёд по сравнению с предыдущими релизами.
LFM2.5 использует быструю hybrid architecture. На процессоре AMD Ryzen AI 9 HX 370 модель достигает 2975 tok/s prefill и 116 tok/s decode в режиме Q4_0, что примерно в 2 раза быстрее, чем Qwen3-1.7B на том же оборудовании.
Визуальная модель LFM2.5-VL-1.6B построена на SigLIP2 с NaFlex (variable resolution, native aspect ratios) и применяет PixelUnshuffle для сокращения числа visual tokens. Она превосходит предыдущую версию на MM-IFEval (52.29 против 46.35) и демонстрирует улучшенное instruction following как в текстовых, так и в vision-задачах.
Audio model получила 8-кратное снижение latency за счёт кастомного LFM-based detokenizer. Использование quantization-aware training (QAT) в формате INT4 позволило сохранить качество, близкое к FP32 Mimi baseline, сделав real-time speech-to-speech на мобильных устройствах практически применимым.
Все модели доступны на Hugging Face с поддержкой с первого дня для llama.cpp, MLX, vLLM, ONNX, LM Studio и многих других инструментов и фреймворков.
@toshoseti
Чем не матрица?
https://www.linkedin.com/posts/piotr-sokolski_today-were-launching-supersim-a-neural-ugcPost-7404187892949950464-RHY9
Ловите аквариум с пираньями бесплатно.
Всех с новым годом!
Подробнее
Скачать
@toshoseti
Помните я такое предлагал? А это сделали ребята из Liquid AI, и оно работает.
@toshoseti
GPT-5.2 Planner следит за работой агентов, архивное видео
Читать полностью…
Год подходит к концу, поэтому самое время подводить итоги.
В этом посте разбираю одну из центральных тем блога в этом году: собеседования на ML/Research роли.
⚫️В первой половине года я много собеседовал и понял, что хочется делиться тем, что может помочь соискателям. Так появились эти тексты. Они разные по формату и теме, все субъективные и основаны на личном опыте. А теплые сообщения в личку о пользе текстов только мотивируют стараться ✨
Типы вопросов на собеседованиях про Трансформеры
Подборка ресурсов для изучения RL в контексте LLM
Лонгрид ML Breadth Interview Deep Dive
Как готовиться к Coding Interview
Как готовиться к ML Design Interview
Как готовиться к ML Depth Interview
Рисерч стажировки в биг техе. Часть 1. Как попасть на собеседование
Рисерч стажировки в биг техе. Часть 2. Структура Интервью
⚫️Потом я оказался по другую сторону и начал собеседоваться сам. Собесы – это во многом рандом, поэтому любая информация помогает хоть немного увеличить шансы в этой лотерее. А реальные отзывы других людей так тем более. Я начал собирать истории подписчиков канала и делиться ими здесь. В итоге получилась солидная коллекция интервью-историй за 2025 год.
Все отзывы можно найти по тегу #интервью. А здесь оставлю ссылки на истории в зарубежные компании:
🌐Research Engineer в Google DeepMind
🍏Senior ML Engineer в Apple Music
💻Performance Engineer в Nvidia, Munich
💻OpenAI, Solutions Architect, Generative AI Deployment, London
Ⓜ️ Senior ML Engineer в Meta
🖥 Research Fellowship в Anthropic
🛒Applied Scientist, Amazon
🎧 Senior DL Engineer в Spotify, Personalization, London
Senior ML Engineer в Waymo, Perception Team, California
Solutions Architect в ByteDance, Дубай.
VP of AI ML в J.P. Morgan Chase, London
AI Engineer в Mistral.AI
🔥 Буду рад если поддержите пост репостами или поделитесь с друзьями. И забирайте себе в коллекцию, если готовитесь к новому приключению в следующем году!
Ждём более доступный edge inference. Я рад этому «приобретению» Nvidia
Читать полностью…
Всем привет!
Data Breakfast номер 193 в Нови Саде
- Пьём кофе, завтракаем, знакомимся 😮
- Рассказываем кулстори из своей жизни 😮
- Обсуждаем новости AI 🧠
- Отвечаем на вопросы ❓
Пятница 19.12 с 9:30
Zmaj Jovina 7, Doza
https://www.youtube.com/watch?v=1BDYSxsVMAE
ИИ агент - тридцатиглазый гипершар с восемью тессерактовыми лапами - собирает рассыпанные по четырехмерному уровню M&M&Ms (ну выпоняли, типа M&Ms но на одно измерение больше).
@toshoseti
https://bohrium.com
Copilot for research
@toshoseti
Вышел technical report по семейству моделей Liquid Foundation Models 2 с разными модальностями от Liquid AI.
Папир: https://arxiv.org/abs/2511.23404
@toshoseti