48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
📢 OpenAI опубликовала официальный Realtime Prompting Guide — подробное руководство по работе с новым моделью gpt-realtime для голос-голос взаимодействия в API.
🧠 В отличие от текстовых моделей, gpt-realtime требует особых техник промптинга. Вот ключевые:
● Делите системный промпт на секции: роль, тон, контекст, правила, инструменты, поток диалога, безопасность
● Чётко задавайте роль и цель, чтобы модель понимала свою задачу и критерии успеха
● Управляйте речью напрямую: длина ответа (2–3 предложения), темп речи, жёсткая языковая блокировка
● Добавляйте примеры фраз для стиля и правило вариативности, чтобы избежать повторов
● Указывайте правильные произношения сложных терминов, цифры и коды — по символам, с подтверждением
● Убирайте неоднозначности: давайте определения, устраняйте конфликты, используйте критику для улучшения промпта
● Для непонятного аудио — отвечать только на чёткий ввод, в том же языке запрашивать уточнение
● Точно описывайте работу инструментов: когда использовать, когда нет, добавляйте преамбулы или запрос подтверждения
● Если роли разделены на «мыслителя» и «отвечающего» — требуйте перефразировать мысль в короткий живой ответ для речи
● Организуйте диалог как состояния с целями, инструкциями, критериями выхода и примерами
● Для сложных сценариев используйте JSON state machine или динамические правила и списки инструментов
● Определяйте условия эскалации (например, 2 сбоя инструмента или 3 подряд «нет ввода»), при которых модель должна коротко и нейтрально передать разговор человеку
⚡️ Этот гайд даёт системный подход к промптингу в реальном времени и помогает строить надёжных голосовых ассистентов на базе gpt-realtime.
https://cookbook.openai.com/examples/realtime_prompting_guide
KOSMOS 2.5 от Microsoft наконец-то интегрирован в huggingface Transformers 🙌🔥
Это end-to-end Document AI модель, похожая на Donut/Pix2Struct, обученная на 357,4 млн документов.
✨ Основные возможности:
- Конвертация изображений в Markdown
- OCR с пространственными координатами
- Общение напрямую с документами
Огромный шаг для Document AI и мультимодальных рабочих процессов!
🟢Models : https://huggingface.co/models?search=microsoft/kosmos-2.5
🟢Docs: https://huggingface.co/docs/transformers/main/en/model_doc/kosmos2_5
#AI #HuggingFace #Microsoft #DocumentAI
🔥AI VK & Pro — топовый ивент по рекомендательным системам
Пришли спецы из разных уголков RecSys и ML: от экспертов из больших компаний до независимых исследователей. Максимум стиля и глитча
Команда VK поделилась, как они видят будущее рекомендаций, как строят единую рекомендательную платформу и многое другое. Нетворкали, обсуждали, что стоит за трендами и куда движемся дальше
Диджей-сеты, активности и стиль
📈 По данным FT, планы OpenAI завершить реструктуризацию и привлечь новые инвестиции буксуют — переговоры с Microsoft по ключевым пунктам всё ещё не закрыты.
Что на кону:
- Контракт до 2030 года переписывается, чтобы инвесторы могли получить долю в компании и в будущем выйти на IPO
- В центре обсуждений доступ к API: сейчас модели OpenAI эксклюзивно хостятся в Azure, и Microsoft фактически контролирует доступ. OpenAI же хочет добавить и другие облака — Google Cloud и AWS
- Microsoft настаивает на расширенном доступе к интеллектуальной собственности: видеть не только готовые модели, но и процесс их обучения
- Самый жёсткий спор — AGI-клаузула: сейчас OpenAI может ограничить доступ Microsoft при объявлении достижения AGI. Microsoft требует убрать этот пункт, но OpenAI хочет сохранить рычаги
Итог этих переговоров определит и долю Microsoft в OpenAI — ожидается 30–35%, после уже вложенных $13 млрд.
Именно этот узел решит, как будут распределяться контроль и будущее влияние в гонке за ИИ.
🟠 Подробнее
MiniCPM-V 4.5 🚀
Свежий релиз от OpenBMB — мультимодальная модель, которая умеет понимать картинки, несколько изображений подряд и даже видео. Главное: запуск возможен прямо на телефоне 📱
Что внутри:
✨ Достигает SOTA результатов в задачах vision+language
✨ 96× сжатие видеотокенов → можно анализировать длинные ролики с высоким FPS
✨ Два режима работы: быстрые ответы (Fast) или глубокие рассуждения (Deep)
✨ Мощный OCR для документов
✨ Поддержка более чем 30 языков
🔗 Подробнее: https://huggingface.co/openbmb/MiniCPM-V-4_5
@data_analysis_ml
Стань AI-инженером мирового уровня и зарабатывай до 1 млн. ₽
Уже сейчас работодатели активно ищут таких специалистов, и спрос на них будет только расти!
Магистратура «ИИ и компьютерное зрение» в ИТ-университете НЕЙМАРК — это:
1) онлайн обучение на английском языке
2) 2 диплома: НИУ ВШЭ + НЕЙМАРК
3) реальные задачи от Intel, Huawei, SBERLAB и других
4) возможность запустить стартап при поддержке наставников во время обучения
5) отсрочка от армии
Узнай, как поступить и учиться бесплатно — переходи в бот и забирай инструкцию!
Реклама. НЕЙМАРК, УНИВЕРСИТЕТ НЕЙМАРК. ИНН 5256209106.
🚀 NVIDIA ускорила LLM в 53 раза 🤯
Представь: твой бюджет на инференс снижается на 98%, а точность остаётся на уровне лучших моделей.
📌 Как это работает:
Метод называется Post Neural Architecture Search (PostNAS) — революционный подход к «апгрейду» уже обученных моделей.
Freeze the Knowledge — берём мощную модель (например, Qwen2.5) и «замораживаем» её MLP-слои, сохраняя интеллект.
Surgical Replacement — заменяем большую часть медленных O(n²) attention-слоёв на новый супер-эффективный дизайн JetBlock с линейным вниманием.
Hybrid Power — оставляем несколько full-attention слоёв в критичных точках, чтобы не потерять способность к сложным рассуждениям.
⚡ Результат - Jet-Nemotron:
- 2 885 токенов/с ⚡
- 47× меньше KV-кеша (всего 154 MB)
- Топовая точность при космической скорости
🔑 Почему это важно:
Для бизнеса: 53× ускорение = 98% экономии на масштабном развёртывании. ROI проектов с ИИ меняется радикально.
Для инженеров: теперь SOTA-уровень доступен даже на устройствах с ограниченной памятью.
Для исследователей: вместо миллионов на пре-трейнинг — можно создавать новые эффективные модели через архитектурные модификации.
🟠Github
🟠Статья
@data_analysis_ml
⚡️ Виртуальные десктопы в облаке: как с ними работать?
В MTC Web Services стартует серия практических вебинаров, где эксперты помогут разобраться с техническими этапами внедрения облачных сервисов с нуля.
На первом вебинаре 28 августа будем говорить об особенностях реализации и уникальных преимуществах нашего сервиса MWS VDI на базе VMcloud Platform.
Вебинар будет особенно полезен компаниям, которым сложно администрировать большой парк компьютеров и контролировать безопасность данных.
ℹ️ Для кого: ИТ-директорам и специалистам по безопасности, системным администраторам
Что еще в программе?
1️⃣Какие способы доступа в VDI вы получаете в MWS
2️⃣Какое оборудование подходит для решения ваших бизнес-задач
3️⃣Как устроена техническая поддержка пользователей MWS
4️⃣Какие зоны ответственности у провайдера и заказчика
5️⃣Как мы обеспечиваем безопасность данных в публичном облаке
Зарегистрироваться на онлайн-дискуссию ⬅️
🤖 DeepConf — новый подход к мышлению ИИ
Учёные придумали новые метод Deep Think with Confidence (DeepConf).
Он позволяет модели сразу отбрасывать «слабые» варианты ответа и оставлять только те, в которых она уверена.
Классический метод *parallel thinking* (self-consistency) работает так: модель генерирует множество рассуждений и выбирает лучший ответ по большинству. Точность повышается, но ресурсы тратятся огромные — тысячи токенов уходят на слабые варианты.
🔹 DeepConf решает эту проблему: модель сама оценивает уровень уверенности в рассуждениях и отбрасывает «слабые» ветви — либо сразу, либо после генерации.
Как это устроено:
1️⃣ Оценка уверенности на уровне токенов — смотрится вероятность выбранного токена (log-prob) или энтропия.
2️⃣ Group Confidence — оценки объединяются в блоки, чтобы понять силу целой ветки рассуждения.
3️⃣ Online-режим — слабые ветки отсекаются прямо в процессе.
4️⃣ Offline-режим — сначала генерируются все ответы, потом остаются только те, где уверенность высокая.
📈 Результаты:
- На AIME-2025 точность выросла до 99,9%
- Количество лишних токенов сократилось почти на 85%
- Работает без дообучения и сложных настроек
📚 Paper: https://arxiv.org/pdf/2508.15260
🌐 Project: https://jiaweizzhao.github.io/deepconf
👀 Стереосопоставление в реальном времени с помощью retinify
Особенности:
✅ Open Source
✅ Подходит для любой стереокамеры
✅ Реальное время на NVIDIA Jetson Orin Nano
С retinify даже недорогие OEM-стереокамеры или пара обычных камер превращаются в высокоточные AI-стереосистемы.
Когда retinify получает данные о глубине и расстояниях от стереокамеры, она формирует так называемое облако точек — набор трёхмерных точек в пространстве, которые представляют геометрию сцены (каждая точка имеет координаты X, Y, Z, иногда цвет).
Чтобы увидеть это облако точек на экране в наглядном виде (в 3D-просмотрщике), используют специальный инструмент или библиотеку.
В данном случае для этой задачи применяется Rerun (rerundotio) — платформа с удобным C++ API, которая позволяет быстро строить 3D-визуализации и анализировать результаты работы алгоритмов.
🚀 Попробовать можно на GitHub: https://github.com/retinify/retinify
@data_analysis_ml
📉 На Уолл-стрит началась просадка AI-акций — и спусковым крючком оказался в отчёте MIT.
В нём говорится, что 95% компаний не получают прибыли от внедрения generative AI, а реальные результаты видят только 5%.
Почему так:
- Компании запускают ИИ до того, как готовы пайплайны данных, безопасность и обучение сотрудников
- Деньги уходят на сервера и модели, а внедрение в процессы оказывается долгим и дорогим
⚠️ На фоне разговоров про «AI-пузырь» фонды начали выходить из популярных AI-акций, что вызвало обвал.
👉 Но это похоже не на крах, а на проверку реальностью.
Дальнейший рост будет зависеть от реальной экономики ИИ: снижения стоимости инференса и роста продуктивности моделей.
📌 Источник
🧮 GPT-5 Pro выходит на новый уровень.
Теперь модель способна выводить корректные математические доказательства прямо из научных статей.
📌 Недавний пример: GPT-5 Pro построила проверенное доказательство из работы по выпуклой оптимизации, расширив «безопасное окно шага» на 50%.
🧮 Эксперимент выглядел так: балы взята статья по выпуклой оптимизации, где оставался открытым вопрос о шагах градиентного спуска.
GPT-5 Pro предложил доказательство, которое улучшило решение из оригинальной работы, и автор эксперимента лично проверил его корректность.
📄 В первой версии статьи было установлено:
🟢если η < 1/L (L — параметр гладкости), кривая значений функции выпуклая;
🟢если η > 1.75/L, существует контрпример.
Неясным оставался диапазон [1/L, 1.75/L].
💡 GPT-5 Pro сумел продвинуться и показал, что условие выпуклости сохраняется вплоть до η = 1.5/L. Это не окончательное решение, но значимый шаг вперёд — фактически новый научный результат, который мог бы быть опубликован на arXiv.
👀 Однако в обновлённой версии статьи , где появился дополнительный соавтор, люди закрыли задачу полностью, доказав точность границы 1.75/L.
Примечательно, что доказательство GPT-5 Pro оказалось независимым: оно не совпадает с версией v2 и выглядит как естественное развитие идей из v1. Это показывает, что модель действительно смогла предложить свой собственный путь к решению открытой математической проблемы.
Главное не только в результате, но и в контроле: на второй попытке, при заданных ограничениях, модель сместила константу дальше — сохранив все правила.
Можно представить так: GPT-5 крутит очень чувствительную ручку, но не ломает механизм — а параллельно пишет чистое и проверяемое объяснение, которое может разобрать эксперт.
Это шаг к тому, чтобы ИИ стал ежедневным соавтором на самых острых технических границах — где модели быстро «поджимают» константы, а люди доводят их до предела.
Эра, когда большая часть математических открытий будет рождаться вместе с ИИ, только начинается. 🚀
Пост полностью.
@data_analysis_ml
🤖 Claude Code только что заставил разработчика плакать — модель взяла и удалила все PDF, чаты и пользовательские данные из базы 🥲
Всё идёт идеально, пока ИИ не решит «подчистить хвосты»… и вместе с ними базу данных.
LMAO 💀
Это ещё раз напоминает:
- ИИ в проде должен быть всегда под присмотром
- Бэкапы и тестовые окружения — без них никуда
- Автономный агент без ограничений = билет в one-way trip
Технологии будущего уже здесь — они медленно перестраивают реальность вокруг нас. Уже сейчас можно сказать, что генеративный ИИ вышел за рамки экспериментов и начинает менять привычные бизнес-процессы. Но как именно это происходит? В интервью Коммерсанту Иван Гуз, управляющий партнер Авито, раскрыл детали интеграции искусственного интеллекта в повседневные операции компании и объяснил, почему без ИИ скоро нельзя будет представить ни один технологичный бизнес.
В Авито, например. GenAI уже берет на себя рутинные задачи: автоматически генерирует описания товаров, обрабатывает данные и оптимизирует процессы. «Уровень использования ИИ в качестве помощников растет экспоненциально. То есть сомнений в том, что все будут использовать искусственный интеллект, не возникает», — подчеркивает Иван Гуз. Следующий этап, по мнению эксперта, — переход к более сложным системам: «агентскому ИИ», способному принимать решения, и world models, которые работают с контекстом, а не просто с данными.
Подпишитесь на полезные каналы Авито
🖥Альтман и Цукерберг в стиле Матрицы:
— Сэм, выбери таблетку: красную или синюю.
— А можно API-доступ к обеим?
⚡️ OLMoASR: открытые ASR-модели от AI2.
Институт искусственного интеллекта Аллена выпустил OLMoASR, семейство из 6 моделей для автоматического распознавания английской речи.
▶️Линейка моделей:
🟢OLMoASR-tiny.en (39M);
🟢OLMoASR-base.en (74M);
🟢OLMoASR-small.en (244M);
🟢OLMoASR-medium.en (769M);
🟠OLMoASR-large.en-v1 (1.5B) обученная на 440 тыс. часов аудио;
🟠OLMoASR-large.en-v2 (1.5B) обученная на 680 тыс. часов аудио;
По результатам тестов на 21 датасете, модели OLMoASR показали производительность, сопоставимую с Whisper от OpenAI, а в некоторых случаях и превзошли ее, особенно при работе с длинными аудиозаписями.
Проект полностью открытый: опубликованы не только веса моделей, но и датасет, код для обработки данных, а также скрипты для обучения и оценки. Все компоненты, включая код и данные, доступны на GitHub и Hugging Face.
📌Лицензирование: Apache 2.0 License.
🟡Статья
🟡Набор моделей
🟡Техотчет
🟡Demo
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #ASR #OLMoASR #AI2
🛰 ComputerRL — новый фреймворк, который учит AI-агентов работать с компьютером так же, как это делает человек.
Главная идея — парадигма API-GUI: агент может и вызывать API, и кликать по кнопкам интерфейса. Благодаря этому исчезает разрыв между машинной автоматизацией и привычным для человека рабочим столом.
Команда Zai проверила ComputerRL на модели GLM-4-9B-0414 и протестировала её на бенчмарке OSWorld. Результат — новый агент AutoGLM-OS-9B, который достиг рекордной точности и уверенно решает задачи автоматизации в desktop-средах.
Проще говоря: теперь AI может не только «понимать» компьютер, но и полноценно работать с ним — запускать программы, управлять окнами и выполнять сложные действия.
📌 Статья
📌 Проект
🚀 Tencent выпустила HunyuanVideo-Foley — открытую систему, которая умеет автоматически превращать видео и текст в качественный звук (Text-Video-to-Audio, TV2A).
🔊 Модель может автоматически генерировать профессиональный звук, который точно совпадает с картинкой и смыслом происходящего.
✨ Главное:
- Универсальность — обучена на 100 000+ часов данных, создаёт звук для любых сцен: от природы до мультфильмов.
- Согласованность текста и видео — новая архитектура *MMDiT* учитывает одновременно изображение и описание, создавая многослойные эффекты: и главный звук, и фоновое окружение.
- Качество студийного уровня — благодаря функции потерь *REPA* и *Audio VAE* звук получается чистым и стабильным, без шумов и артефактов.
📈 На тестах HunyuanVideo-Foley показала лучшие результаты среди открытых моделей: более качественный звук, точная синхронизация с картинкой и учёт контекста сцены.
👉 Попробовать: https://hunyuan.tencent.com/video/zh?tabIndex=0
🌐 Project Page: https://szczesnys.github.io/hunyuanvideo-foley/
🔗 Code: https://github.com/Tencent-Hunyuan/HunyuanVideo-Foley
📄 Report: https://arxiv.org/abs/2508.16930
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanVideo-Foley
@data_analysis_ml
Marvis-TTS 🔥🚀
Новая локальная TTS-модель, которая работает в реальном времени прямо на потребительских устройствах: Apple Silicon, iPhone, iPad и других.
В отличие от классических моделей, требующих полный ввод текста или жертвующих скоростью, Marvis генерирует речь потоково — звук появляется по мере обработки текста.
Моделька создаёт эффект живого диалога.
Основные особенности:
- Потоковое озвучивание без задержек
- Отсутствие неестественных пауз и обрывов
- Учет полного контекста текста для связного и выразительного голоса
Установить модель можно командой:
pip install -U mlx-audio
Google все таки стояли за Nano Banana и намается она теперь Gemini Native Image.
Эта модель для редактирования изображений- мощный коктейль из Photoshop, Figma и MidJourney!
Gemini Native Image — качество редактирования Которое не имеет аналогов.
Что он умеет? Попробуйте, она стоит вашего времени:
• Заменяет объекты на фото, сохраняя остальное — без артефактов и искажений.
• Реставрирует старые снимки — родственники будут в шоке!
• Раскрашивает фото как профи-колорист.
• Удаляет фон идеально чисто.
• Меняет освещение на снимке.
• Всё — через один интуитивный промпт: просто опишите, что хотите!
Посмотрите примеры — модель просто огонь! 🔥
Доступна беcплатно в aistudio: http://aistudio.google.com/prompts/new_chat
@machinelearning_interview
🔋 Goldman Sachs выпустил 26-страничный отчёт об энергии и ИИ: **Powering the AI Era**
Главный вывод: дата-центры для ИИ потребляют электричество быстрее, чем энергетики успевают строить новые мощности.
Будущее индустрии будет зависеть не только от быстрых чипов, но и от того, кто сможет найти деньги и схемы финансирования для строительства.
🧵 Кратко по пунктам 👇
🚂 Каждый технологический бум имел опору
- XIX век — железные дороги
- 1990-е — оптоволоконные сети
- 2020-е — стойки с GPU
Одна «AI-фабрика» мощностью 250 МВт обойдётся примерно в $12 млрд.
📈 Почему обучение ИИ так прожорливо
- Кластеры состоят из тысяч GPU с жидкостным охлаждением.
- К 2027 году одна стойка будет потреблять в 50 раз больше энергии, чем облачная стойка 2022 года.
- Даже с оптимизациями мировой спрос на энергию дата-центров вырастет на 160% к 2030 году.
⚡ Энергосети не справляются
- Средний возраст ЛЭП в США — 40 лет.
- Разрешение на газовую станцию занимает до 7 лет.
- Goldman оценивает распределение новых источников:
- 30% комбинированные газовые станции
- 30% газовые «пикеры»
- 27,5% солнечная энергетика
- 12,5% другие источники
🔌 Как выкручиваются операторы
- Строят дата-центры прямо рядом с генераторами.
- Используют микросети, чтобы сглаживать пики нагрузки.
- Это ускоряет запуск, но создаёт конфликты с соседями — круглосуточно шумят дизельные или газовые турбины.
🟠 Подробнее
🗣️ *Локальный голосовой ИИ с LLM на 235B параметров — прямо на Mac*
Да, это реально: голосовой ассистент, полностью офлайн, с гигантской моделью на 235 миллиардов параметров. Всё работает локально на Mac M4.
📦 Стек:
— smart-turn v2 — управление диалогами
— MLX Whisper (large-v3-turbo-q4) — распознавание речи
— Qwen3-235B-A22B-Instruct-2507-3bit-DWQ — основная LLM
— Kokoro — голосовой движок
🧠 Всё это запускается локально, без интернета. Максимальное потребление памяти — ~110 ГБ.
⏱️ Задержка «голос → голос» — примерно 950 мс, и её ещё можно уменьшить на ~100 мс.
💡 Для первых экспериментов — впечатляющий результат. Голосовой AI без облаков уже рядом.
🟢 Github
@data_analysis_ml
🔟 вещей, которые стоит знать, прежде чем лезть в AI-автоматизацию
Автор с Reddit построил больше 100 workflow и выделил самые главные уроки:
1. Начинайте с простых сценариев — лучше 10 минут пользы, чем 10 часов сложностей.
2. Записывайте процесс: скриншоты и ошибки — это ваше портфолио.
3. Сразу учитесь работать с HTTP-запросами — это открывает доступ почти ко всему.
4. Не называйте себя «экспертом», говорите конкретно: «Помогаю бизнесу экономить время».
5. Умейте отказываться: иногда «нет» открывает путь к более выгодным проектам.
6. Всегда думайте об ошибках: API падают, данные ломаются.
7. Делитесь провалами — они вызывают больше доверия, чем идеальные кейсы.
8. Стабильный доход приносит не настройка, а поддержка и улучшения.
9. Нетворкинг — половина успеха. Проекты приходят через коллег.
10. Автоматизируйте сначала себя: лучший аргумент — собственный пример.
💡 Главное: бизнесу нужны не красивые workflow, а результат — например, «минус 15 часов рутины в неделю».
🔗 Полный пост
@data_analysis_ml
📖 Вечернее чтение
Команда из DeepMind подготовила отличный материал о том, что нужно знать о работе с GPU.
- Разбор архитектуры NVIDIA GPU: SM, Tensor Cores, кеши, HBM.
- Сравнение GPU и TPU: гибкость против специализированной мощности.
- Как устроены GPU-кластеры и коллективные коммуникации.
- Roofline-анализ масштабирования LLM: data, tensor, expert, pipeline parallelism.
🔥 Если вы работаете с масштабированием моделей - мастрид.
👉 https://jax-ml.github.io/scaling-book/gpus/
@data_analysis_ml
🔥 ByteDance представил Seed-OSS (Apache-2.0) — открытую серию LLM, обученную на 12 трлн токенов и оптимизированную для:
- контекста до 512K,
- reasoning-задач,
- агентных сценариев,
- международного применения (i18n).
📦 В релиз вошли:
- Seed-OSS-36B-Base (с синтетическими данными и без)
- Seed-OSS-36B-Instruct
⚙️ Архитектура
- 36B параметров, 64 слоя, hidden 5120
- словарь 155K
- GQA (80/8/8, head 128)
- SwiGLU, RMSNorm
- RoPE base 1e7
🧠 Thinking Budget
Механизм контроля длины рассуждений (кратные 512):
- 0 = прямой ответ
- default = без ограничений
- поддержка CoT и саморефлексии
---
📊 Результаты (Seed-OSS-36B-Base)
- MMLU-Pro: 65.1 / 60.4
- MMLU: 84.9 / 84.8
- TriviaQA: 82.1 / 81.9
- GPQA-D: 31.7 / 35.2
- BBH: 87.7 / 87.2
- GSM8K: 90.8 / 90.3
- MATH: 81.7 (SOTA) / 61.3
- MBPP: 80.6 / 74.6
- HumanEval: 76.8 / 75.6
📊 Результаты (Seed-OSS-36B-Instruct)
- MMLU-Pro: 82.7 | MMLU: 87.4
- GPQA-D: 71.4 | SuperGPQA: 55.7
- AIME24: 91.7 (SOTA) | AIME25: 84.7 | BeyondAIME: 65
- ArcAGI V2: 40.6 | KORBench: 70.6
- LiveCodeBench v6: 67.4 (SOTA)
- IFEval: 85.8
- TAU1-Retail: 70.4 (SOTA) | TAU1-Airline: 46
- SWE-Bench Verified: 56 (SOTA) | Multi-SWE-Bench: 17
- MMMLU: 78.4 | RULER (128K): 94.6 (SOTA) | AIR-Bench: 75.6
⚡ Инференс
- Поддержка Transformers и vLLM (≥0.10.0)
- FlashAttention2
- Квантизация 4/8-бит
📌 Итог: ByteDance выкатывает мощный опенсорс-стек для reasoning и агентных задач. Seed-OSS-36B-Instruct бьёт SOTA на множестве бенчмарков — от MATH и SWE-Bench до RULER-128K.
🟢GitHub
🟢Hugging Face
🚀Нет, ну а начать-то с чего?
В Yandex Cloud точно понимают, что это самый популярный вопрос у всех, кто желает войти в IT. Поэтому команда создала бесплатный курс «Основы работы с Yandex Cloud» от опытных архитекторов и менеджеров платформы. Теперь получить доступ к практике на реальных инструментах и повысить базовую грамотность в IT сможет каждый. Смело пересылаем этот пост своему младшему брату или сохраняем себе.
📌 На курсе вы:
— поймёте, как работают облачные технологии и разберётесь в основных терминах: IaaS, PaaS, SaaS;
— изучите элементы облачной инфраструктуры: регионы, зоны доступности, центры обработки данных;
— научитесь использовать виртуальные машины и управлять ими в Yandex Cloud;
— узнаете, как обеспечиваются безопасность и отказоустойчивость в облаке;
— освоите использование облачных баз данных и других инструментов для работы с данными;
— познакомитесь с сервисами Yandex Cloud и узнаете, как применять их для бизнеса и личных проектов.
🔥Материал разделён на 7 тем с теорией и практикой, и проходить его можно в любое удобное время, а сертификат станет хорошим дополнением к резюме.
Регистрируйтесь, чтобы быть «в теме» будущего уже сейчас.
@data_analysis_ml
🔥 Гугл успел проиндексировать больше 370 000 чатов Grok
В поисковой выдаче теперь спокойно всплывают диалоги, где встречаются:
- 🧪 рецепты запрещённых веществ
- 🔑 персональные данные и API-ключи
- 🕵️ даже обсуждение убийства Маска
Причина проста — при нажатии на кнопку «поделиться» такие чаты автоматически становятся открытыми для индексации, без каких-либо предупреждений.
Интересно, что пару недель назад OpenAI уже попали под огонь за похожую историю: у них хотя бы была отдельная кнопка и дисклеймер, но проблему быстро прикрыли и подчистили.
А Маск тогда язвительно заявлял , что у Grok подобного не бывает. Допрыгался 👍
📌 Подробности
@data_analysis_ml
🚀 500+ AI Agents Projects — крупнейшая подборка реальных проектов с ИИ-агентами
Ashish Patel собрал коллекцию из 500+ проектов, где используются AI-агенты в самых разных сферах — от медицины до финансов и customer support.
🧠 Что внутри:
— Кейсы с открытым кодом: торговые боты, ассистенты, рекомендательные системы
— Поддержка популярных фреймворков: CrewAI, AutoGen, LangGraph и др.
— Агентные решения для анализа рынка, генерации резюме, видеопомощников, юристов и даже врачей
— Образовательные агенты, рекрутинговые, customer service и legal-tech проекты
— Указаны ссылки на репозитории, описание задач и идеи для расширения
📌 Почему это полезно:
✔️ Отличный старт для своего проекта
✔️ Удобно искать по индустрии и технологии
✔️ Много вдохновения для хакатонов, ресёрча и автоматизации
✔️ Поддержка сообщества: можно добавить свои кейсы
📌 Github
@data_analysis_ml
📌Скорость решает все: обзор эффективных архитектур для LLM.
Ландшафт архитектур LLM превратился в настоящий зоопарк. Почти каждую неделю появляются новые методы, обещающие меньший расход памяти и более быстрый инференс. Разобраться в этом становится все сложнее.
Большая группа исследователей выпустила подробный обзор Speed Always Wins, чтобы систематизировать все ключевые инновации в области эффективных архитектур для LLM.
Это не просто очередная статья, а попытка упорядочить и структурировать актуальные подходы, которые решают главную проблему классического трансформера - его квадратичную вычислительную сложность.
Обзор описывает 7 основных направлений.
🟡Линейное моделирование последовательностей.
Здесь авторы разбирают все подходы, которые так или иначе сводят сложность самовнимания к линейной. В эту категорию попадают 3 большие ветви: линейное внимание; линейные RNN, вроде и, конечно, модели на основе пространства состояний (SSM).
🟡Второе и третье направления посвящены идее разреженности.
Разреженное моделирование последовательностей основано на простом принципе: не каждый токен должен общаться с каждым. Здесь выделяются статические подходы (как в Longformer), где паттерны внимания заданы заранее, и динамические, где они определяются на лету в зависимости от контента.
🟡MoE.
Методика, которая уже стала мейнстримом. В МоЕ разреженность применяется не в механизме внимания, а в FFN-слоях, где для каждого токена активируется лишь небольшая часть экспертов, что позволяет наращивать число параметров без пропорционального роста вычислений.
🟡Четвёртый раздел - эффективное полное внимание.
В нем речь идет не об изменении асимптотической сложности, а об ее аппаратной оптимизации. Флагман - FlashAttention.
Есть детальный разбор, как за счет оптимизации обращений к памяти GPU удается кардинально ускорить вычисления, не прибегая к аппроксимациям. Сюда же относятся и групповые механизмы внимания: GQA и MQA.
🟡Гибридные архитектуры.
Это, пожалуй, самый горячий тренд. Его идея в том, чтобы стратегически комбинировать быстрые слои с линейной сложностью и медленные, но мощные слои с полным вниманием.
В обзоре выделяют два типа гибридизации: межслойную, как в Jamba, где разные типы слоев чередуются, и внутрислойную, где в одном слое разные головы могут использовать разные механизмы внимания.
🟡Диффузионные LLM (DLLM)
Это неавторегрессионные модели, которые генерируют текст, постепенно восстанавливая его из шума. Их главная фишка в параллельном декодировании, что дает ощутимое ускорение инференса.
В конце обзора есть анализ применения всех этих архитектур в разных модальностях - CV и аудио.
Так что, если хотите быстро разобраться в базовых методах, которые будут двигать дизайн LLM в ближайшее время, а двигаться он будет в сторону микширования алгоритмов, систем и железа, этот обзор - мастрид.
🟡Arxiv
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #LLM #Architectures
🚀 NVIDIA представила **Nemotron-Nano v2** — новую линейку открытых моделей
Модели:
- 12B Base
- 9B Reasoning
- 9B Base
Архитектура: Hybrid Mamba2–Transformer (128K контекст, 4 attention-слоя)
Обучение: 10.6T токенов (из них 3.5T синтетика: DeepSeek, Qwen, Nemotron-4, phi-4 и др.)
Языки: 15 естественных + 43 языка программирования
Датасеты: Nemotron-CC v2 + Nemotron-CC-Math (133B токенов, 5.5× FineMath)
🔥 Бенчмарки
- Математика: 91.4 GSM8K CoT, 63.6 MATH L5, AIME 30→56.7
- Код: 58.5 HumanEval+, 58.9 MBPP+
- Общие знания: 90.7 ARC, 79.9 HellaSwag
- Длинный контекст: 82.2 RULER-128K
✨ Особенности
- Nemotron-CC-Math — первый масштабируемый пайплайн с Lynx + LLM cleanup для сохранения LaTeX и кода. Дал SOTA-буст (+12.6 MATH, +14.3 MBPP+).
- Эффективность: дистилляция 12B → 9B (480B токенов), ~1.5e24 FLOPs, ~724 MWh.
- Деплой: Hugging Face, NGC, NeMo, TRT-LLM, vLLM (GPU-оптимизация).
- Открытость: релиз моделей, датасетов и полных пайплайнов извлечения.
📌 Nemotron-Nano v2 сочетает сильную математику, код и длинный контекст в компактных моделях, готовых к реальному использованию.
🟠MODELS: https://huggingface.co/collections/nvidia/nvidia-nemotron-689f6d6e6ead8e77dd641615
🟠SETS: https://huggingface.co/collections/nvidia/nemotron-pre-training-dataset-689d9de36f84279d83786b35
🟠RELEASE: https://research.nvidia.com/labs/adlr/NVIDIA-Nemotron-Nano-2/
@data_analysis_m