Забавный кейс.
Huggingface обычно сканирует модели, и предупреждает юзера, если это *.pkl с подозрительным кодом.
При этом через inference api эту модель можно запустить.
Что и проделали чюваки из WIZ Research (это те, кто недавно нашел на гитхабе 38тб приватных данных MicroSoft :D)
В итоге команде удалось получить доступ к шеллу, где крутилась модель, а затем чуть ли не ко всему инференс кластеру.
Дыру, конечно, закрыли еще до публикации поста, но существовала, она скорее всего, с момента появления inference api :D
Подробнее
Видео
@derplearning
Это случилось!
Предзаказ пластинки Mujuice "Downshifting" с 11-м неизданным треком уже на сайте!
ищу чела который готов раскорвырять исходнки dysco elysium/baldorus gate, есть одна идея. пишите в. @maxalekv
Читать полностью…Наткнулся на прототип детской читалки (?) – внутри маленькая LLM и быстрая версия Stable Diffusion, все работает локально, без подписки и интернета
На видео показано приложение которое пишет сказку и параллельно рисует картинки, но в теории можно сделать любые аппы: и текстовые РПГ с диалоговыми окнами, и просто читалку реальной книги с визуализацией сцен и тп. тд.
Думаю, через какое-то время это будет прям направление устройств как для взрослых, так и для детей.
Сайт проекта тут:
https://www.pamir.ai/
Предзаказ пока выглядит как гугл-форма и стоит $99-$200, я конечно же «заказал» 🤌
Пожалуйста расскажите команде mts Ai что фитить мистрали(qwen)на трейне меры это не круто, даже для отчётности
Читать полностью…пирамида Маслоу 2024:
7. потребность в самоактуализации (хроническая депрессия)
6. эстетические потребности (оверпрайс шмотки стоимостью с бюджет небольшой африканской страны)
5. познавательные потребности (тупые рилсы и рандомные видео на ютубе)
4. потребность в уважении и признании (телеграм-канал)
3. потребность в любви (интрижка на лето)
2. потребности в безопасности (закрытый профиль в инстаграме)
1. физиологические потребности (никотин, айс латте, айс матча)
Wu's Method can Boost Symbolic AI to Rival Silver Medalists and AlphaGeometry to Outperform Gold Medalists at IMO Geometry
китайцы сказали что ваши альфа геометри хуйня, у нас есть method Wu дома, прикрутили к нему cетку для выбора лучших бимов из alpha geometry и стало лучше чем было
paper
Такс. В Японии все стабильно.
Собрали самоходный трехногий табурэт 🪑 из аниме "Suzume" с ардуинкой. У него 6 сервоприводов.
Учили вставать и ходить двумя методами: connecting essential postures (интерполяция между двумя позами для движения) и RLем в Isaac Gym.
Ходит он лучше с connecting essential postures, а вот встает лучше с RLем. (на мой вкус)
Прикольное!
Body Design and Gait Generation of
Chair-Type Asymmetrical Tripedal Low-rigidity Robot
https://arxiv.org/abs/2404.05932
Код чтобы сделать себе такое же
https://shin0805.github.io/chair-type-tripedal-robot
На сайте появился 1-ый номер Кванта за 2024 год:
https://kvant.ras.ru/pdf/2024/2024-01.pdf
Напоминаем, что номера журнала выкладываются на сайте kvant.ras.ru
Контрибьюторы вихря выложили перевод llava, русским vlm быть(когда то, пока есть чем заниматся) https://huggingface.co/datasets/Vikhrmodels/LLaVA-Instruct-ru
Спасибо команде, вы крутые!
Опубликован новый пример дизайна ML системы по шаблону Reliable ML
Пополняем базу примеров хороших дизайн-документов
Сегодня добавили новый пример дизайн-документа - проект от Симулятора ML. Даниил Картушов и команда представляют pet project по разработке чат-бота для поиска ответов на разные запросы в телеграм-каналах.
Опубликованный дизайн-док - пример хорошо проработанного и не перегруженного лишней информацией документа. Для более глубокого погружения в потребности пользователей в части про бизнес-требования команда проекта добавила User Story Map и Customer Journey Map. Это, кстати, может стать отличным дополнением к шаблону дизайн-документов.
Огромное спасибо авторам документа за вклад в развитие ML-дизайна.
Шаблон дизайн-документа ML-систем от Reliable ML
Материалы по работе с дизайн-доком
Как написать док вместе с Reliable ML
Stay tuned!
Ваш @Reliable ML
#business #tech #ml_system_design
богатые синиоры покупают тачки по 30к usd чтобы гонять под столом моделей.
в целом, ничего нового, но модели теперь какие то сжатые больно стали
внимание анекдот: команда зарелизила свой бенчмарк вместе с моделью и модель не SOTA на этом бенчмарке.
спасибо за внимание
Не, всегда можно поучится на трейн сете раз он есть, но вопросы будут.
У меня так точно
А как omnifusion первая мультимодальная модель в России если до этого были: Rudolph, ruclip, rudalle, ruimagecaptions, fusionbrain
Читать полностью…Plan GPT. Или до Q* было слово A*.
Рубрика ночное чтиво. Ознакомился тут со статьей на послевкусии хайпа с Q*. Было интересно, а были/есть ли работы и откуда пошел динамический планинг.
В папире описывается интересный merge задач оптимального поиска пути и LLM. В качестве опоры берут A*, тот самый, что ищет в среде с ограничениями (например лабиринт) оптимальный путь. Причем оптимальность лежит в оценке эвристики. Она задаëтся так, чтобы недооценивать расстояние до цели. Да, такого рода ограничение сверху или снизу, скорее всего снизу, тк есть препятствия, а они удлиняют путь. И, к примеру, манхэттен или l2 расстояния подходят для такой оценки. A* представляет собой некую смесь поиска в ширину и глубину, но за кратчайшее число шагов/время. Оптимальный путь может быть не один и зовется трейсом.
Так вот причем тут LLM? С LLM мы можем также генерировать последовательность действий при планировании. Например в виде токенов: иди вперед, поверни направо и тп. Далее транслировать генерацию в трейс и оценить путь. Важно. Задача LLM тут не изобрести новый алгоритм или найти оптимальный путь.
Цель обучения в том, чтобы приблизившись или достигнув оптимального пути из трейсов A*, научиться планированию. А далее затрансферить это умение для других задач, к примеру, принятия решения.
Логично, зачем нам искать LLM трейсы, если мы можем итак их найти быстро с помощью легкого и быстрого А*. Более того, мы уже опираемся на разные трейсы из задач в постановке А* для обучения LLM.
Зачем оно было еще надо? Да затем, что мы не хотим останавливаться только на костылях в виде CoT, ToT (tree of thought). Тем более, есть гипотеза, что это работает, тк это способ достучаться до рассуждений которые для похожих задач (или даже таких же) уже были в pretrain этой модели. Через sft с опорой на A*, мы же хотим найти альтернативу instruct подходу, но решающий уже другие классы задач.
Вот как-то так. Доброй ночи.
Если вы используете модели семейтсва вихрь и у вас есть какой то опыт - откликнитесь в личку /channel/maxalekv
Читать полностью…Ну, cmdr+ не МоЕ и в целом ллама подробная. Поздравляю ребят из cohere, крутой результат!
Читать полностью…