🧠 SELF-DISCOVER: Large Language Models Self-Compose Reasoning Structures
Новая стратегия prompt-flow
от Google, которая позволяет LLM "самостоятельно обнаруживать присущие, описанной задаче, структуры рассуждений для решения сложных проблем".
Уже ывпущено несколько первых реализаций в составе LangChain и LangGraph!
▪Paper: https://arxiv.org/pdf/2402.03620.pdf
▪LangChain example: https://github.com/langchain-ai/langchain/blob/master/cookbook/self-discover.ipynb
▪LangGraph example: https://github.com/langchain-ai/langgraph/blob/main/examples/self-discover/self-discover.ipynb
ai_machinelearning_big_data
👁️ HASSOD: Hierarchical Adaptive Self-Supervised Object Detection
HASSOD - полностью самоконтролируемый подход для обнаружения и сегментации широкого спектра объектов.
HASSOD демонстрирует значительное преводходство по сравнению с предыдущими современными методами.
🖥 Github: https://github.com/Shengcao-Cao/HASSOD
📚 Paper: https://arxiv.org/abs/2402.03311
⏩ Project: https://hassod-neurips23.github.io/
💻 Video: https://www.youtube.com/watch?v=s8u7tEKg5ew
ai_machinelearning_big_data
erid: LjN8JwNr5
Хотите начать карьеру в машинном обучении или прокачать скиллы, чтобы брать задачи посложнее и расти в зарплате? Станьте ML-инженером и углубите знания в разработке Machine Learning моделей, которые будут решать задачи бизнеса.
В этом поможет курс «ML Engineering: от базы до продукта» от онлайн-школы «karpovꓸcourses» и магистратуры ИТМО AI Talent Hub.
На курсе вас всему научат топовые эксперты лучшего образовательного проекта ИТМО 2023 по версии премии ITMO.EduAwards.
Вы получите навыки разработки и обучения Machine Learning моделей, соберете портфолио и станете полноценным специалистом, который готов выйти на рынок труда.
После выпуска у вас будет диплом ИТМО гособразца о профессиональной переподготовке и диплом о присвоении специализации от «karpovꓸcourses»+AI Talent Hub ИТМО.
А если захочется окончить магистратуру - сможете поступить на бюджет в ИТМО и учиться в магистратуре всего 1 год вместо двух - это сэкономит вам от 200 тысяч рублей
Подать заявку: https://clc.to/iL3XSQ
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627.
⚡️ Hiring days для ML и Backend-разработчиков
Станьте частью VK всего за два дня. Команды с сильным бэкграундом, современный стек, масштабные задачи и проекты ждут вас.
Отправить отклик можно до 15 февраля включительно.
👨🎓 Famous scientists and modern technologies by Kandinsky
Такой подборкой порадовала отечественная генеративная модель в честь Дня науки.
В частности, Kandinsky нарисовала Менделеева за ноутбуком, Дарвина за электронным микроскопом, Павлова с собакой-роботом и других.
🌐page: https://vk.com/kandinskiy_bot?w=wall-219823705_8793
ai_machinelearning_big_data
Узнайте больше об архитектуре сервисов, искусственном интеллекте, UX/UI и безопасности на главной конференции VK
Первая конференция, посвященная инновационным технологиям, состоится 6 марта в Доме культуры «ГЭС-2». Здесь ведущие эксперты осветят самые актуальные темы IT: «Архитектура & highload», «Machine Intelligence», «Продукт UX&UI» и «Безопасность».
Участие в VK JT 6 марта бесплатное после регистрации.
⚡Хакатон ML TALENT MATCH
Примите участие в трехдневном хакатоне гибридного формата с 28 февраля по 1 марта, выполните задание одного из трёх кейсов на выбор и станьте победителем!
📊 Кейсы:
1. Алгоритм для мэтчинга кандидатов
2. Алгоритм для структурирования информации в резюме кандидатов
3. Алгоритм для сопоставления резюме и вакансии
Для кого:
- Junior и Middle разработчики;
- Product-менеджеры;
- ML-специалисты;
- NLP- специалисты;
- Аналитики;
- Студенты;
- Команды от 3 до 5 человек.
🏆Призовой фонд - 300 000 рублей.
📍Формат: онлайн/офлайн награждение в г. Москва, Кластер Ломоносов (ИНТЦ МГУ «Воробьёвы горы»)
Подробная информация и регистрация:
https://clck.ru/38b9Wb
⚠️ С чего начать, если хотите работать в ML?
С бесплатного практического урока «Кластерный анализ данных» от OTUS. Спикер Мария Тихонова – Senior Data Scientist в «SberDevices» и преподаватель ВШЭ.
• В результате вебинара вы узнаете общие принципы кластеризации данных в ML
• Изучите ряд алгоритмов, в том числе k-means и примените их на практике
Встречаемся 7 февраля в 18:00 мск в рамках курса «Machine Learning. Professional».
Пройдите короткий тест прямо сейчас, чтобы посетить бесплатный урок и получить список вопросов и ответов для прохождения интервью
👉Регистрация
https://otus.pw/gqDQ/?erid=LjN8KJQGh
Используй ChatGPT в профессиональных целях. Создавай нейросуотрудников и зарабатывай на этом.
Вот тут ребята проводят бесплатный вебинар, на котором рассказывают:
- зачем изучать ChatGPT профессионально
- сколько на этом можно заработать
- как можно создавать проекты на основе нейронок и продавать их за иксы
Веб подойдет маркетологам, дизайнерам, врачам, юристам, руководителям, предпринимателям, разработчикам - мы можем долго перечислять. Нейронки уже нужны всем!
Регистрируйся прямо сейчас - будь в курсе всех новинок из мира AI
Реклама. ООО "ТЕРРА ЭЙАЙ". ИНН 9728019395. erid: LjN8KZapg
Как эффективно проводить эксперименты в ClearML?
Расскажет Влад Пивоваров — senior MLOps инженер, который успел поработать в Сбербанке, Airbnb, Groupon.
На бесплатном практическом уроке от OTUS разберёмся, каким образом работает инструмент ClearML и как в пару строчек кода можно запустить эксперименты и удобно сравнить их через интерфейс.
Занятие идеально подойдет для дата саентистов, MLOps и devops-инженеров.
Встречаемся 7 февраля в 20:00 мск в рамках курса «MLOps». Доступна рассрочка на обучение!
Пройдите короткий тест прямо сейчас, чтобы посетить бесплатный урок и получить запись: https://otus.pw/gFoni/?erid=LjN8K99vF
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Скажите что-то на карьерном
Тинькофф в поиске крутых ИТ-спецов. С компании — профессиональный рост, интересные финтех-задачи, решение бытовых забот и работа там, где вы живете. С вас — выбрать вакансию и откликнуться тут
АО «Тинькофф Банк», ИНН 7710140679
Отличная возможность для независимых разработчиков проявить себя и развить собственный проект — Программа грантов Yandex Open Source.
Для вас есть отдельный трек машинного обучения — можно подать заявку прямо сейчас и выиграть грант на Yandex Cloud на сумму 600 тысяч рублей.
Регистрируйте проект до 29 февраля по ссылке
⭐️ GALA: Generating Animatable Layered Assets
from a Single Scan
Новый ИИ, который может раздевать 3D модели людей.
GALA может обработать однослойную сетку одетого 3D-человека и разложить ее на полноценные многослойные 3D-объекты.
Полученные результаты могут быть объединены с другими объектов для создания новых одетых человеческих аватаров с любой позой.
🖥 Code: https://github.com/snuvclab/GALA
🚀 Project: snuvclab.github.io/gala
📚 Paper: https://arxiv.org/abs/2401.12979
@ai_machinelearning_big_data
📽 VideoCrafter2: Overcoming Data Limitations for High-Quality Video Diffusion Models 🔥 Text2Video 📹 Image2Video 🎥 Jupyter Notebook 🥳
VideoCrafter 2 - это обновленный набор инструментов с открытым исходным кодом для создания и редактирования видео высокого качества.
В настоящее время он включает модели Text2Video и Image2Video.
🖥 Code: https://github.com/AILab-CVC/VideoCrafter
🚀 Project: https://ailab-cvc.github.io/videocrafter2/
📚 Paper: https://arxiv.org/abs/2401.09047
🦉 Jupyter: https://github.com/camenduru/VideoCrafter-colab
@ai_machinelearning_big_data
Обновленная нейромодель GigaChat PRO оказалась лучше по качеству ответов, чем GPT-3.5-turbo от OpenAI не только на русском, но и на английском языке.
Специалисты, которые проводили сравнение выяснили, что GigaChat PRO на 6% лучше конкурента справилась с вопросами в тесте MMLU — он включает в себя вопросы в 57 областях знаний из математики, истории, медицины и других.
Учитывая, что GPT от OpenAI не очень хорошо справляется с запросами на русском — среди нейронок на российском рынке появился явный фаворит.
🎉 Телеграм-канал Яндекса специально для ML-специалистов
Yandex for ML — канал для ML-инженеров от Яндекса. Рассказываем, как мы применяем ML в продуктах Яндекса, и показываем людей, которые двигают вперёд технологии прямо сейчас.
Подписывайтесь 👉 @Yandex4ML
🦾 Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models
Новый метод тонкой настройки, названный Self-Play fIne-tuNing (SPIN), в основе которого, лежит механизм самовоспроизведения, в котором LLM совершенствует свои возможности, взаимодейтсвия с экземплярами самого себя и самостоятельно генерирует данные для обучения.
🖥 Github: https://github.com/uclaml/SPIN
📚 Paper: https://arxiv.org/abs/2401.01335
⏩ Project: https://uclaml.github.io/SPIN/
💻 Model: https://huggingface.co/collections/UCLA-AGI/zephyr-7b-sft-full-spin-65c361dfca65637272a02c40
🛡 Dataset: https://huggingface.co/collections/UCLA-AGI/datasets-spin-65c3624e98d4b589bbc76f3a
ai_machinelearning_big_data
⚡️ LGM: Large Multi-View Gaussian Model for High-Resolution 3D Content Creation
Новый фреймворк, предназначенный для создания 3D-моделей высокого разрешения из текстового описания или изображений с одним ракурсом.
🖥 Github: https://github.com/3DTopia/LGM
📚 Paper: https://arxiv.org/abs/2402.05054
🔗 Demo: https://huggingface.co/spaces/ashawkey/LGM
💻 Weights: https://huggingface.co/ashawkey/LGM
⏩ Project: https://me.kiui.moe/lgm/
ai_machinelearning_big_data
🔥 EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense Prediction
EfficientViT-SAM - это новое семейство ускоренных моделей Segment Anything Models для задач компьютерного зрения с высоким разрешением. Скорость до 69 раз выше, чем у SAM.
🖥 Github: https://github.com/mit-han-lab/efficientvit
📚 Paper: https://arxiv.org/abs/2205.14756
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_efficientvit.html
ai_machinelearning_big_data
⭐️ YOLO-World Real-Time Open-Vocabulary Object Detection
Обнаружение объектов в режиме реального времени БЕЗ ОБУЧЕНИЯ.
YOLO-World - это новая SOTA, которая превосходит предыдущие модели как по точности обнаружения, так и по скорости. 35,4 AP при 52,0 FPS на V100.
Все, что вам нужно, это изображение + промпт (список категорий, которые вы хотите обнаружить).
🖥 Github: https://github.com/AILab-CVC/YOLO-World
📚 Paper: https://arxiv.org/abs/2401.17270
⚡️Demo: https://www.yoloworld.cc
🤗Hf: https://huggingface.co/spaces/stevengrove/YOLO-World
ai_machinelearning_big_data
🎙 MetaVoice-1B: 1.2B parameter base model trained on 100K hours of speech for #TTS (text-to-speech)
> Новейшая модель высококачественного клонирования голоса .
> 1.2B параметрическая модель.
> Обучена на 100 тысячах часов данных.
> Синтез коротких и длинных разговоров.
> Генерация эмоциональной речи.
> Лицензия Apache 2.0. 🔥
Простая, но надежная архитектура:
> Encodec (Multi-Band Diffusion) и GPT + Encoder Transformer LM.
> DeepFilterNet для очистки от артефактов MBD.
🌐page: https://themetavoice.xyz
🧬code: https://github.com/metavoiceio/metavoice-src
🧪demo: https://ttsdemo.themetavoice.xyz
📦model: https://huggingface.co/metavoiceio/metavoice-1B-v0.1
ai_machinelearning_big_data
🔢 DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models
DeepSeekMath 7B - новая модель для решения математических задач. DeepSeekMath 7B показал впечатляющий результат в на соревновательном уровне в бенчмарке MATH , приблизившись к уровню Gemini-Ultra и GPT-4.
🖥 Github: https://github.com/deepseek-ai/deepseek-math
📚 Paper: https://arxiv.org/abs/2402.03300v1
🦾 Dataset: https://paperswithcode.com/dataset/math
ai_machinelearning_big_data
☑️ cmaes : A Simple yet Practical Python Library for CMA-ES
Простая и практичная библиотека на Python для CMA-ES.
Стратегия эволюции адаптации ковариационной матрицы (CMA-ES) - это особый вид стратегии для численной оптимизации .
Стратегии развития (ES) - это стохастические , методы без производных для числовой оптимизации не- линейной или не выпуклые задачи непрерывной оптимизации .
Они принадлежат к классу эволюционных алгоритмов и эволюционных вычислений . эволюционный алгоритм в целом основан на принципе биологической эволюции , а именно на повторяющемся взаимодействии вариаций (посредством рекомбинации и мутации) и отбора: в каждом поколении (итерации) новые особи (кандидаты решения, обозначенные как ), генерируются путем изменения, обычно стохастическим образом, текущих родительских особей. $ pip install cmaes
import numpy as np
from cmaes import CMA
def quadratic(x1, x2):
return (x1 - 3) ** 2 + (10 * (x2 + 2)) ** 2
if __name__ == "__main__":
optimizer = CMA(mean=np.zeros(2), sigma=1.3)
for generation in range(50):
solutions = []
for _ in range(optimizer.population_size):
x = optimizer.ask()
value = quadratic(x[0], x[1])
solutions.append((x, value))
print(f"#{generation} {value} (x1={x[0]}, x2 = {x[1]})")
optimizer.tell(solutions)
🖥 Github: https://github.com/CyberAgentAILab/cmaes
📕 Paper: https://arxiv.org/abs/2402.01373v1
ai_machinelearning_big_data
⚡️ MotionDirector: Motion Customization of Text-to-Video Diffusion Models
MotionDirector модель генерации текста в видео, для создания видео в движении по указанным инструкциям.
🖥 Github: https://github.com/showlab/MotionDirector
📕 Paper: https://arxiv.org/abs/2310.08465
⭐️ Project: showlab.github.io/MotionDirector/
ai_machinelearning_big_data
⚡️ MoE-LLaVA: Mixture of Experts for Large Vision-Language Models
Новая стратегия обучения MoE-tuning для LVLM, которая позволяет построить модель с огромным количеством параметров, которая эффективно решает проблему снижения производительности, обычно связанную с мультимодальным обучением и разреженностью модели.
Этот фреймворк уникальным образом активирует только топ-к экспертов через маршрутизаторы во время развертывания, оставляя остальных экспертов неактивными.
Обширные эксперименты подчеркивают возможности MoE-LLaVA
в визуальном понимании и ее потенциал для уменьшения галлюцинаций в результатах моделирования.
Примечательно, что при наличии всего 3 миллиардов редко активируемых параметров MoE-LLaVA демонстрирует производительность, сравнимую с LLaVA-1.5-7B на различных наборах данных для визуального понимания, и даже превосходит LLaVA-1.5-13B в тестах на галлюцинации объектов.
🖥 Code: https://github.com/PKU-YuanGroup/MoE-LLaVA
🚀 Jupyter: https://github.com/camenduru/MoE-LLaVA-jupyter
📚 Paper: https://arxiv.org/abs/2401.15947
@ai_machinelearning_big_data
📷 InstructIR: High-Quality Image Restoration Following Human Instructions
InstructIR принимает на вход изображение и инструкцию по его улучшению. Нейронная сеть выполняет комплексное восстановление и улучшение изображения.
InstructIR достигает передовых результатов в нескольких задачах реставрации, включая обесцвечивание, размытие и улучшение изображения (даже при слабом освещении).
🖥 Code: https://github.com/mv-lab/InstructIR
🚀 Project: mv-lab.github.io/InstructIR/
🎮 Colab: https://colab.research.google.com/drive/1OrTvS-i6uLM2Y8kIkq8ZZRwEQxQFchfq
📚 Paper: https://arxiv.org/abs/2401.16468
@ai_machinelearning_big_data
⚡️ DiffSynth Studio
Diffutoon - это новая модель диффузии для преобразования видео в анимационный стиль. Работает с высоким разрешением и быстрыми движениями.
🖥 Code: https://github.com/Artiprocher/DiffSynth-Studio
🚀 Project: https://ecnu-cilab.github.io/DiffutoonProjectPage/
📚 Paper: https://arxiv.org/pdf/2401.16224.pdf
@ai_machinelearning_big_data
🎉 Release Code Llama 70B!
Вышла Code Llama 70B: новая, более производительная версия LLM для генерации кода - доступная по той же лицензии, что и предыдущие модели Code Llama.
- CodeLlama-70B
- CodeLlama-70B-Python
- CodeLlama-70B-Instruct
CodeLlama-70B-Instruct достигает 67,8 балла в HumanEval, что делает ее одной из самых высокопроизводительных открытых моделей на сегодняшний день.
CodeLlama-70B - это самая производительная база для тонкой настройки моделей генерации кода.
✅ Разрешено коммерческое использование
➡️Скачать модели
@ai_machinelearning_big_data
⭐️ ComfyUI-3D-Pack
Модель, генерации 3D-объектов с помощью передовых алгоритмов (3DGS, NeRF, Differentiable Rendering, SDS/VSD Optimization, и др).
▪ComfyUI-3D-Pack: https://github.com/MrForExample/ComfyUI-3D-Pack
▪TGS: https://github.com/VAST-AI-Research/TriplaneGaussian
@ai_machinelearning_big_data
🖥 Depth Anything is now available
Monocular depth estimation is the task of estimating the depth value (distance relative to the camera) of each pixel given a single (monocular) RGB image.
Монокулярная оценка глубины - это задача определения значения глубины (расстояния относительно камеры) каждого пикселя по одному (монокулярному) RGB-изображению.
Depth Anything - это новая интересная модель от Университета Гонконга/TikTok, которая берет существующую архитектуру нейронной сети для монокулярной оценки глубины (а именно модель DPT с основой DINOv2) и увеличивает набор данных для обучения на ней.
Авторы разработтали "движок данных" для сбора и автоматического аннотирования масштабных немаркированных данных (~62 миллиона изображений), что значительно расширяет охват данных и позволяет снизить ошибку обобщения.
🖥 Code: https://github.com/NielsRogge/Transformers-Tutorials/blob/master/Depth%20Anything/Predicting_depth_in_an_image_with_Depth_Anything.ipynb
🚀 HF: https://huggingface.co/docs/transformers/v4.28.0/tasks/monocular_depth_estimation
📚 Paper: https://huggingface.co/papers/2401.10891
@ai_machinelearning_big_data