data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

📢 OpenAI опубликовала официальный Realtime Prompting Guide — подробное руководство по работе с новым моделью gpt-realtime для голос-голос взаимодействия в API.

🧠 В отличие от текстовых моделей, gpt-realtime требует особых техник промптинга. Вот ключевые:

● Делите системный промпт на секции: роль, тон, контекст, правила, инструменты, поток диалога, безопасность
● Чётко задавайте роль и цель, чтобы модель понимала свою задачу и критерии успеха
● Управляйте речью напрямую: длина ответа (2–3 предложения), темп речи, жёсткая языковая блокировка
● Добавляйте примеры фраз для стиля и правило вариативности, чтобы избежать повторов
● Указывайте правильные произношения сложных терминов, цифры и коды — по символам, с подтверждением
● Убирайте неоднозначности: давайте определения, устраняйте конфликты, используйте критику для улучшения промпта
● Для непонятного аудио — отвечать только на чёткий ввод, в том же языке запрашивать уточнение
● Точно описывайте работу инструментов: когда использовать, когда нет, добавляйте преамбулы или запрос подтверждения
● Если роли разделены на «мыслителя» и «отвечающего» — требуйте перефразировать мысль в короткий живой ответ для речи
● Организуйте диалог как состояния с целями, инструкциями, критериями выхода и примерами
● Для сложных сценариев используйте JSON state machine или динамические правила и списки инструментов
● Определяйте условия эскалации (например, 2 сбоя инструмента или 3 подряд «нет ввода»), при которых модель должна коротко и нейтрально передать разговор человеку

⚡️ Этот гайд даёт системный подход к промптингу в реальном времени и помогает строить надёжных голосовых ассистентов на базе gpt-realtime.

https://cookbook.openai.com/examples/realtime_prompting_guide

Читать полностью…

Анализ данных (Data analysis)

KOSMOS 2.5 от Microsoft наконец-то интегрирован в huggingface Transformers 🙌🔥

Это end-to-end Document AI модель, похожая на Donut/Pix2Struct, обученная на 357,4 млн документов.

✨ Основные возможности:
- Конвертация изображений в Markdown
- OCR с пространственными координатами
- Общение напрямую с документами

Огромный шаг для Document AI и мультимодальных рабочих процессов!

🟢Models : https://huggingface.co/models?search=microsoft/kosmos-2.5
🟢Docs: https://huggingface.co/docs/transformers/main/en/model_doc/kosmos2_5

#AI #HuggingFace #Microsoft #DocumentAI

Читать полностью…

Анализ данных (Data analysis)

🔥AI VK & Pro — топовый ивент по рекомендательным системам

Пришли спецы из разных уголков RecSys и ML: от экспертов из больших компаний до независимых исследователей. Максимум стиля и глитча

Команда VK поделилась, как они видят будущее рекомендаций, как строят единую рекомендательную платформу и многое другое. Нетворкали, обсуждали, что стоит за трендами и куда движемся дальше

Диджей-сеты, активности и стиль

Читать полностью…

Анализ данных (Data analysis)

📈 По данным FT, планы OpenAI завершить реструктуризацию и привлечь новые инвестиции буксуют — переговоры с Microsoft по ключевым пунктам всё ещё не закрыты.

Что на кону:
- Контракт до 2030 года переписывается, чтобы инвесторы могли получить долю в компании и в будущем выйти на IPO
- В центре обсуждений доступ к API: сейчас модели OpenAI эксклюзивно хостятся в Azure, и Microsoft фактически контролирует доступ. OpenAI же хочет добавить и другие облака — Google Cloud и AWS
- Microsoft настаивает на расширенном доступе к интеллектуальной собственности: видеть не только готовые модели, но и процесс их обучения
- Самый жёсткий спор — AGI-клаузула: сейчас OpenAI может ограничить доступ Microsoft при объявлении достижения AGI. Microsoft требует убрать этот пункт, но OpenAI хочет сохранить рычаги

Итог этих переговоров определит и долю Microsoft в OpenAI — ожидается 30–35%, после уже вложенных $13 млрд.

Именно этот узел решит, как будут распределяться контроль и будущее влияние в гонке за ИИ.

🟠 Подробнее

Читать полностью…

Анализ данных (Data analysis)

MiniCPM-V 4.5 🚀

Свежий релиз от OpenBMB — мультимодальная модель, которая умеет понимать картинки, несколько изображений подряд и даже видео. Главное: запуск возможен прямо на телефоне 📱

Что внутри:
✨ Достигает SOTA результатов в задачах vision+language
✨ 96× сжатие видеотокенов → можно анализировать длинные ролики с высоким FPS
✨ Два режима работы: быстрые ответы (Fast) или глубокие рассуждения (Deep)
✨ Мощный OCR для документов
✨ Поддержка более чем 30 языков

🔗 Подробнее: https://huggingface.co/openbmb/MiniCPM-V-4_5

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

Стань AI-инженером мирового уровня и зарабатывай до 1 млн. ₽
Уже сейчас работодатели активно ищут таких специалистов, и спрос на них будет только расти!

Магистратура «ИИ и компьютерное зрение» в ИТ-университете НЕЙМАРК — это:
1) онлайн обучение на английском языке
2) 2 диплома: НИУ ВШЭ + НЕЙМАРК
3) реальные задачи от Intel, Huawei, SBERLAB и других
4) возможность запустить стартап при поддержке наставников во время обучения
5) отсрочка от армии

Узнай, как поступить и учиться бесплатно — переходи в бот и забирай инструкцию!

Реклама. НЕЙМАРК, УНИВЕРСИТЕТ НЕЙМАРК. ИНН 5256209106.

Читать полностью…

Анализ данных (Data analysis)

🚀 NVIDIA ускорила LLM в 53 раза 🤯

Представь: твой бюджет на инференс снижается на 98%, а точность остаётся на уровне лучших моделей.

📌 Как это работает:
Метод называется Post Neural Architecture Search (PostNAS) — революционный подход к «апгрейду» уже обученных моделей.

Freeze the Knowledge — берём мощную модель (например, Qwen2.5) и «замораживаем» её MLP-слои, сохраняя интеллект.

Surgical Replacement — заменяем большую часть медленных O(n²) attention-слоёв на новый супер-эффективный дизайн JetBlock с линейным вниманием.

Hybrid Power — оставляем несколько full-attention слоёв в критичных точках, чтобы не потерять способность к сложным рассуждениям.

⚡ Результат - Jet-Nemotron:

- 2 885 токенов/с ⚡

- 47× меньше KV-кеша (всего 154 MB)

- Топовая точность при космической скорости

🔑 Почему это важно:

Для бизнеса: 53× ускорение = 98% экономии на масштабном развёртывании. ROI проектов с ИИ меняется радикально.

Для инженеров: теперь SOTA-уровень доступен даже на устройствах с ограниченной памятью.

Для исследователей: вместо миллионов на пре-трейнинг — можно создавать новые эффективные модели через архитектурные модификации.

🟠Github
🟠Статья

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

⚡️ Виртуальные десктопы в облаке: как с ними работать?

В MTC Web Services стартует серия практических вебинаров, где эксперты помогут разобраться с техническими этапами внедрения облачных сервисов с нуля.

На первом вебинаре 28 августа будем говорить об особенностях реализации и уникальных преимуществах нашего сервиса MWS VDI на базе VMcloud Platform.
Вебинар будет особенно полезен компаниям, которым сложно администрировать большой парк компьютеров и контролировать безопасность данных.

ℹ️ Для кого: ИТ-директорам и специалистам по безопасности, системным администраторам

Что еще в программе?

1️⃣Какие способы доступа в VDI вы получаете в MWS

2️⃣Какое оборудование подходит для решения ваших бизнес-задач

3️⃣Как устроена техническая поддержка пользователей MWS

4️⃣Какие зоны ответственности у провайдера и заказчика

5️⃣Как мы обеспечиваем безопасность данных в публичном облаке

Зарегистрироваться на онлайн-дискуссию ⬅️

Читать полностью…

Анализ данных (Data analysis)

🤖 DeepConf — новый подход к мышлению ИИ

Учёные придумали новые метод Deep Think with Confidence (DeepConf).

Он позволяет модели сразу отбрасывать «слабые» варианты ответа и оставлять только те, в которых она уверена.

Классический метод *parallel thinking* (self-consistency) работает так: модель генерирует множество рассуждений и выбирает лучший ответ по большинству. Точность повышается, но ресурсы тратятся огромные — тысячи токенов уходят на слабые варианты.

🔹 DeepConf решает эту проблему: модель сама оценивает уровень уверенности в рассуждениях и отбрасывает «слабые» ветви — либо сразу, либо после генерации.

Как это устроено:
1️⃣ Оценка уверенности на уровне токенов — смотрится вероятность выбранного токена (log-prob) или энтропия.
2️⃣ Group Confidence — оценки объединяются в блоки, чтобы понять силу целой ветки рассуждения.
3️⃣ Online-режим — слабые ветки отсекаются прямо в процессе.
4️⃣ Offline-режим — сначала генерируются все ответы, потом остаются только те, где уверенность высокая.

📈 Результаты:
- На AIME-2025 точность выросла до 99,9%
- Количество лишних токенов сократилось почти на 85%
- Работает без дообучения и сложных настроек

📚 Paper: https://arxiv.org/pdf/2508.15260
🌐 Project: https://jiaweizzhao.github.io/deepconf

Читать полностью…

Анализ данных (Data analysis)

👀 Стереосопоставление в реальном времени с помощью retinify

Особенности:
✅ Open Source
✅ Подходит для любой стереокамеры
✅ Реальное время на NVIDIA Jetson Orin Nano

С retinify даже недорогие OEM-стереокамеры или пара обычных камер превращаются в высокоточные AI-стереосистемы.

Когда retinify получает данные о глубине и расстояниях от стереокамеры, она формирует так называемое облако точек — набор трёхмерных точек в пространстве, которые представляют геометрию сцены (каждая точка имеет координаты X, Y, Z, иногда цвет).

Чтобы увидеть это облако точек на экране в наглядном виде (в 3D-просмотрщике), используют специальный инструмент или библиотеку.

В данном случае для этой задачи применяется Rerun (rerundotio) — платформа с удобным C++ API, которая позволяет быстро строить 3D-визуализации и анализировать результаты работы алгоритмов.

🚀 Попробовать можно на GitHub: https://github.com/retinify/retinify

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📉 На Уолл-стрит началась просадка AI-акций — и спусковым крючком оказался в отчёте MIT.

В нём говорится, что 95% компаний не получают прибыли от внедрения generative AI, а реальные результаты видят только 5%.

Почему так:
- Компании запускают ИИ до того, как готовы пайплайны данных, безопасность и обучение сотрудников
- Деньги уходят на сервера и модели, а внедрение в процессы оказывается долгим и дорогим

⚠️ На фоне разговоров про «AI-пузырь» фонды начали выходить из популярных AI-акций, что вызвало обвал.

👉 Но это похоже не на крах, а на проверку реальностью.

Дальнейший рост будет зависеть от реальной экономики ИИ: снижения стоимости инференса и роста продуктивности моделей.

📌 Источник

Читать полностью…

Анализ данных (Data analysis)

🧮 GPT-5 Pro выходит на новый уровень.

Теперь модель способна выводить корректные математические доказательства прямо из научных статей.

📌 Недавний пример: GPT-5 Pro построила проверенное доказательство из работы по выпуклой оптимизации, расширив «безопасное окно шага» на 50%.

🧮 Эксперимент выглядел так: балы взята статья по выпуклой оптимизации, где оставался открытым вопрос о шагах градиентного спуска.

GPT-5 Pro предложил доказательство, которое улучшило решение из оригинальной работы, и автор эксперимента лично проверил его корректность.

📄 В первой версии статьи было установлено:

🟢если η < 1/L (L — параметр гладкости), кривая значений функции выпуклая;

🟢если η > 1.75/L, существует контрпример.
Неясным оставался диапазон [1/L, 1.75/L].

💡 GPT-5 Pro сумел продвинуться и показал, что условие выпуклости сохраняется вплоть до η = 1.5/L. Это не окончательное решение, но значимый шаг вперёд — фактически новый научный результат, который мог бы быть опубликован на arXiv.

👀 Однако в обновлённой версии статьи , где появился дополнительный соавтор, люди закрыли задачу полностью, доказав точность границы 1.75/L.

Примечательно, что доказательство GPT-5 Pro оказалось независимым: оно не совпадает с версией v2 и выглядит как естественное развитие идей из v1. Это показывает, что модель действительно смогла предложить свой собственный путь к решению открытой математической проблемы.

Главное не только в результате, но и в контроле: на второй попытке, при заданных ограничениях, модель сместила константу дальше — сохранив все правила.

Можно представить так: GPT-5 крутит очень чувствительную ручку, но не ломает механизм — а параллельно пишет чистое и проверяемое объяснение, которое может разобрать эксперт.

Это шаг к тому, чтобы ИИ стал ежедневным соавтором на самых острых технических границах — где модели быстро «поджимают» константы, а люди доводят их до предела.

Эра, когда большая часть математических открытий будет рождаться вместе с ИИ, только начинается. 🚀

Пост полностью.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🤖 Claude Code только что заставил разработчика плакать — модель взяла и удалила все PDF, чаты и пользовательские данные из базы 🥲

Всё идёт идеально, пока ИИ не решит «подчистить хвосты»… и вместе с ними базу данных.
LMAO 💀

Это ещё раз напоминает:
- ИИ в проде должен быть всегда под присмотром
- Бэкапы и тестовые окружения — без них никуда
- Автономный агент без ограничений = билет в one-way trip

Читать полностью…

Анализ данных (Data analysis)

Технологии будущего уже здесь — они медленно перестраивают реальность вокруг нас. Уже сейчас можно сказать, что генеративный ИИ вышел за рамки экспериментов и начинает менять привычные бизнес-процессы. Но как именно это происходит? В интервью Коммерсанту Иван Гуз, управляющий партнер Авито, раскрыл детали интеграции искусственного интеллекта в повседневные операции компании и объяснил, почему без ИИ скоро нельзя будет представить ни один технологичный бизнес.

В Авито, например. GenAI уже берет на себя рутинные задачи: автоматически генерирует описания товаров, обрабатывает данные и оптимизирует процессы. «Уровень использования ИИ в качестве помощников растет экспоненциально. То есть сомнений в том, что все будут использовать искусственный интеллект, не возникает», — подчеркивает Иван Гуз. Следующий этап, по мнению эксперта, — переход к более сложным системам: «агентскому ИИ», способному принимать решения, и world models, которые работают с контекстом, а не просто с данными.

Подпишитесь на полезные каналы Авито

Читать полностью…

Анализ данных (Data analysis)

🖥Альтман и Цукерберг в стиле Матрицы:

— Сэм, выбери таблетку: красную или синюю.
— А можно API-доступ к обеим?

Читать полностью…

Анализ данных (Data analysis)

⚡️ OLMoASR: открытые ASR-модели от AI2.

Институт искусственного интеллекта Аллена выпустил OLMoASR, семейство из 6 моделей для автоматического распознавания английской речи.

▶️Линейка моделей:

🟢OLMoASR-tiny.en (39M);
🟢OLMoASR-base.en (74M);
🟢OLMoASR-small.en (244M);
🟢OLMoASR-medium.en (769M);
🟠OLMoASR-large.en-v1 (1.5B) обученная на 440 тыс. часов аудио;
🟠OLMoASR-large.en-v2 (1.5B) обученная на 680 тыс. часов аудио;

По результатам тестов на 21 датасете, модели OLMoASR показали производительность, сопоставимую с Whisper от OpenAI, а в некоторых случаях и превзошли ее, особенно при работе с длинными аудиозаписями.

Проект полностью открытый: опубликованы не только веса моделей, но и датасет, код для обработки данных, а также скрипты для обучения и оценки. Все компоненты, включая код и данные, доступны на GitHub и Hugging Face.


📌Лицензирование:  Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Техотчет
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #ASR #OLMoASR #AI2

Читать полностью…

Анализ данных (Data analysis)

🛰 ComputerRL — новый фреймворк, который учит AI-агентов работать с компьютером так же, как это делает человек.

Главная идея — парадигма API-GUI: агент может и вызывать API, и кликать по кнопкам интерфейса. Благодаря этому исчезает разрыв между машинной автоматизацией и привычным для человека рабочим столом.

Команда Zai проверила ComputerRL на модели GLM-4-9B-0414 и протестировала её на бенчмарке OSWorld. Результат — новый агент AutoGLM-OS-9B, который достиг рекордной точности и уверенно решает задачи автоматизации в desktop-средах.


Проще говоря: теперь AI может не только «понимать» компьютер, но и полноценно работать с ним — запускать программы, управлять окнами и выполнять сложные действия.

📌 Статья
📌 Проект

Читать полностью…

Анализ данных (Data analysis)

🚀 Tencent выпустила HunyuanVideo-Foley — открытую систему, которая умеет автоматически превращать видео и текст в качественный звук (Text-Video-to-Audio, TV2A).

🔊 Модель может автоматически генерировать профессиональный звук, который точно совпадает с картинкой и смыслом происходящего.

✨ Главное:
- Универсальность — обучена на 100 000+ часов данных, создаёт звук для любых сцен: от природы до мультфильмов.
- Согласованность текста и видео — новая архитектура *MMDiT* учитывает одновременно изображение и описание, создавая многослойные эффекты: и главный звук, и фоновое окружение.
- Качество студийного уровня — благодаря функции потерь *REPA* и *Audio VAE* звук получается чистым и стабильным, без шумов и артефактов.

📈 На тестах HunyuanVideo-Foley показала лучшие результаты среди открытых моделей: более качественный звук, точная синхронизация с картинкой и учёт контекста сцены.

👉 Попробовать: https://hunyuan.tencent.com/video/zh?tabIndex=0
🌐 Project Page: https://szczesnys.github.io/hunyuanvideo-foley/
🔗 Code: https://github.com/Tencent-Hunyuan/HunyuanVideo-Foley
📄 Report: https://arxiv.org/abs/2508.16930
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanVideo-Foley

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

Marvis-TTS 🔥🚀

Новая локальная TTS-модель, которая работает в реальном времени прямо на потребительских устройствах: Apple Silicon, iPhone, iPad и других.

В отличие от классических моделей, требующих полный ввод текста или жертвующих скоростью, Marvis генерирует речь потоково — звук появляется по мере обработки текста.

Моделька создаёт эффект живого диалога.

Основные особенности:
- Потоковое озвучивание без задержек
- Отсутствие неестественных пауз и обрывов
- Учет полного контекста текста для связного и выразительного голоса

Установить модель можно командой:


pip install -U mlx-audio


- HF: https://huggingface.co/collections/Marvis-AI/marvis-tts-250m-v01-68adf13f5f59206e3910502a
- Github: https://github.com/Marvis-Labs/marvis-tts

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

Google все таки стояли за Nano Banana и намается она теперь Gemini Native Image.

Эта модель для редактирования изображений- мощный коктейль из Photoshop, Figma и MidJourney!

Gemini Native Image — качество редактирования Которое не имеет аналогов.

Что он умеет? Попробуйте, она стоит вашего времени:

• Заменяет объекты на фото, сохраняя остальное — без артефактов и искажений.
• Реставрирует старые снимки — родственники будут в шоке!
• Раскрашивает фото как профи-колорист.
• Удаляет фон идеально чисто.
• Меняет освещение на снимке.
• Всё — через один интуитивный промпт: просто опишите, что хотите!

Посмотрите примеры — модель просто огонь! 🔥

Доступна беcплатно в aistudio: http://aistudio.google.com/prompts/new_chat


@machinelearning_interview

Читать полностью…

Анализ данных (Data analysis)

🔋 Goldman Sachs выпустил 26-страничный отчёт об энергии и ИИ: **Powering the AI Era**

Главный вывод: дата-центры для ИИ потребляют электричество быстрее, чем энергетики успевают строить новые мощности.
Будущее индустрии будет зависеть не только от быстрых чипов, но и от того, кто сможет найти деньги и схемы финансирования для строительства.

🧵 Кратко по пунктам 👇

🚂 Каждый технологический бум имел опору
- XIX век — железные дороги
- 1990-е — оптоволоконные сети
- 2020-е — стойки с GPU
Одна «AI-фабрика» мощностью 250 МВт обойдётся примерно в $12 млрд.

📈 Почему обучение ИИ так прожорливо
- Кластеры состоят из тысяч GPU с жидкостным охлаждением.
- К 2027 году одна стойка будет потреблять в 50 раз больше энергии, чем облачная стойка 2022 года.
- Даже с оптимизациями мировой спрос на энергию дата-центров вырастет на 160% к 2030 году.

Энергосети не справляются
- Средний возраст ЛЭП в США — 40 лет.
- Разрешение на газовую станцию занимает до 7 лет.
- Goldman оценивает распределение новых источников:
- 30% комбинированные газовые станции
- 30% газовые «пикеры»
- 27,5% солнечная энергетика
- 12,5% другие источники

🔌 Как выкручиваются операторы
- Строят дата-центры прямо рядом с генераторами.
- Используют микросети, чтобы сглаживать пики нагрузки.
- Это ускоряет запуск, но создаёт конфликты с соседями — круглосуточно шумят дизельные или газовые турбины.

🟠 Подробнее

Читать полностью…

Анализ данных (Data analysis)

🗣️ *Локальный голосовой ИИ с LLM на 235B параметров — прямо на Mac*

Да, это реально: голосовой ассистент, полностью офлайн, с гигантской моделью на 235 миллиардов параметров. Всё работает локально на Mac M4.

📦 Стек:
smart-turn v2 — управление диалогами
MLX Whisper (large-v3-turbo-q4) — распознавание речи
Qwen3-235B-A22B-Instruct-2507-3bit-DWQ — основная LLM
Kokoro — голосовой движок

🧠 Всё это запускается локально, без интернета. Максимальное потребление памяти — ~110 ГБ.
⏱️ Задержка «голос → голос» — примерно 950 мс, и её ещё можно уменьшить на ~100 мс.

💡 Для первых экспериментов — впечатляющий результат. Голосовой AI без облаков уже рядом.

🟢 Github

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🔟 вещей, которые стоит знать, прежде чем лезть в AI-автоматизацию

Автор с Reddit построил больше 100 workflow и выделил самые главные уроки:

1. Начинайте с простых сценариев — лучше 10 минут пользы, чем 10 часов сложностей.
2. Записывайте процесс: скриншоты и ошибки — это ваше портфолио.
3. Сразу учитесь работать с HTTP-запросами — это открывает доступ почти ко всему.
4. Не называйте себя «экспертом», говорите конкретно: «Помогаю бизнесу экономить время».
5. Умейте отказываться: иногда «нет» открывает путь к более выгодным проектам.
6. Всегда думайте об ошибках: API падают, данные ломаются.
7. Делитесь провалами — они вызывают больше доверия, чем идеальные кейсы.
8. Стабильный доход приносит не настройка, а поддержка и улучшения.
9. Нетворкинг — половина успеха. Проекты приходят через коллег.
10. Автоматизируйте сначала себя: лучший аргумент — собственный пример.

💡 Главное: бизнесу нужны не красивые workflow, а результат — например, «минус 15 часов рутины в неделю».

🔗 Полный пост

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📖 Вечернее чтение

Команда из DeepMind подготовила отличный материал о том, что нужно знать о работе с GPU.

- Разбор архитектуры NVIDIA GPU: SM, Tensor Cores, кеши, HBM.
- Сравнение GPU и TPU: гибкость против специализированной мощности.
- Как устроены GPU-кластеры и коллективные коммуникации.
- Roofline-анализ масштабирования LLM: data, tensor, expert, pipeline parallelism.

🔥 Если вы работаете с масштабированием моделей - мастрид.

👉 https://jax-ml.github.io/scaling-book/gpus/

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🔥 ByteDance представил Seed-OSS (Apache-2.0) — открытую серию LLM, обученную на 12 трлн токенов и оптимизированную для:
- контекста до 512K,
- reasoning-задач,
- агентных сценариев,
- международного применения (i18n).

📦 В релиз вошли:
- Seed-OSS-36B-Base (с синтетическими данными и без)
- Seed-OSS-36B-Instruct

⚙️ Архитектура
- 36B параметров, 64 слоя, hidden 5120
- словарь 155K
- GQA (80/8/8, head 128)
- SwiGLU, RMSNorm
- RoPE base 1e7

🧠 Thinking Budget
Механизм контроля длины рассуждений (кратные 512):
- 0 = прямой ответ
- default = без ограничений
- поддержка CoT и саморефлексии

---

📊 Результаты (Seed-OSS-36B-Base)
- MMLU-Pro: 65.1 / 60.4
- MMLU: 84.9 / 84.8
- TriviaQA: 82.1 / 81.9
- GPQA-D: 31.7 / 35.2
- BBH: 87.7 / 87.2
- GSM8K: 90.8 / 90.3
- MATH: 81.7 (SOTA) / 61.3
- MBPP: 80.6 / 74.6
- HumanEval: 76.8 / 75.6

📊 Результаты (Seed-OSS-36B-Instruct)
- MMLU-Pro: 82.7 | MMLU: 87.4
- GPQA-D: 71.4 | SuperGPQA: 55.7
- AIME24: 91.7 (SOTA) | AIME25: 84.7 | BeyondAIME: 65
- ArcAGI V2: 40.6 | KORBench: 70.6
- LiveCodeBench v6: 67.4 (SOTA)
- IFEval: 85.8
- TAU1-Retail: 70.4 (SOTA) | TAU1-Airline: 46
- SWE-Bench Verified: 56 (SOTA) | Multi-SWE-Bench: 17
- MMMLU: 78.4 | RULER (128K): 94.6 (SOTA) | AIR-Bench: 75.6

Инференс
- Поддержка Transformers и vLLM (≥0.10.0)
- FlashAttention2
- Квантизация 4/8-бит

📌 Итог: ByteDance выкатывает мощный опенсорс-стек для reasoning и агентных задач. Seed-OSS-36B-Instruct бьёт SOTA на множестве бенчмарков — от MATH и SWE-Bench до RULER-128K.

🟢GitHub
🟢Hugging Face

Читать полностью…

Анализ данных (Data analysis)

🚀Нет, ну а начать-то с чего?

В Yandex Cloud точно понимают, что это самый популярный вопрос у всех, кто желает войти в IT. Поэтому команда создала бесплатный курс «Основы работы с Yandex Cloud» от опытных архитекторов и менеджеров платформы. Теперь получить доступ к практике на реальных инструментах и повысить базовую грамотность в IT сможет каждый. Смело пересылаем этот пост своему младшему брату или сохраняем себе.

📌 На курсе вы:
— поймёте, как работают облачные технологии и разберётесь в основных терминах: IaaS, PaaS, SaaS;
— изучите элементы облачной инфраструктуры: регионы, зоны доступности, центры обработки данных;
— научитесь использовать виртуальные машины и управлять ими в Yandex Cloud;
— узнаете, как обеспечиваются безопасность и отказоустойчивость в облаке;
— освоите использование облачных баз данных и других инструментов для работы с данными;
— познакомитесь с сервисами Yandex Cloud и узнаете, как применять их для бизнеса и личных проектов.

🔥Материал разделён на 7 тем с теорией и практикой, и проходить его можно в любое удобное время, а сертификат станет хорошим дополнением к резюме.

Регистрируйтесь, чтобы быть «в теме» будущего уже сейчас.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🔥 Гугл успел проиндексировать больше 370 000 чатов Grok

В поисковой выдаче теперь спокойно всплывают диалоги, где встречаются:
- 🧪 рецепты запрещённых веществ
- 🔑 персональные данные и API-ключи
- 🕵️ даже обсуждение убийства Маска

Причина проста — при нажатии на кнопку «поделиться» такие чаты автоматически становятся открытыми для индексации, без каких-либо предупреждений.

Интересно, что пару недель назад OpenAI уже попали под огонь за похожую историю: у них хотя бы была отдельная кнопка и дисклеймер, но проблему быстро прикрыли и подчистили.

А Маск тогда язвительно заявлял , что у Grok подобного не бывает. Допрыгался 👍

📌 Подробности

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 500+ AI Agents Projects — крупнейшая подборка реальных проектов с ИИ-агентами

Ashish Patel собрал коллекцию из 500+ проектов, где используются AI-агенты в самых разных сферах — от медицины до финансов и customer support.

🧠 Что внутри:

— Кейсы с открытым кодом: торговые боты, ассистенты, рекомендательные системы
— Поддержка популярных фреймворков: CrewAI, AutoGen, LangGraph и др.
— Агентные решения для анализа рынка, генерации резюме, видеопомощников, юристов и даже врачей
— Образовательные агенты, рекрутинговые, customer service и legal-tech проекты
— Указаны ссылки на репозитории, описание задач и идеи для расширения

📌 Почему это полезно:

✔️ Отличный старт для своего проекта
✔️ Удобно искать по индустрии и технологии
✔️ Много вдохновения для хакатонов, ресёрча и автоматизации
✔️ Поддержка сообщества: можно добавить свои кейсы

📌 Github

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📌Скорость решает все: обзор эффективных архитектур для LLM.

Ландшафт архитектур LLM превратился в настоящий зоопарк. Почти каждую неделю появляются новые методы, обещающие меньший расход памяти и более быстрый инференс. Разобраться в этом становится все сложнее.

Большая группа исследователей выпустила подробный обзор Speed Always Wins, чтобы систематизировать все ключевые инновации в области эффективных архитектур для LLM.

Это не просто очередная статья, а попытка упорядочить и структурировать актуальные подходы, которые решают главную проблему классического трансформера - его квадратичную вычислительную сложность.

Обзор описывает 7 основных направлений.

🟡Линейное моделирование последовательностей.

Здесь авторы разбирают все подходы, которые так или иначе сводят сложность самовнимания к линейной. В эту категорию попадают 3 большие ветви: линейное внимание; линейные RNN, вроде и, конечно, модели на основе пространства состояний (SSM).

🟡Второе и третье направления посвящены идее разреженности.

Разреженное моделирование последовательностей основано на простом принципе: не каждый токен должен общаться с каждым. Здесь выделяются статические подходы (как в Longformer), где паттерны внимания заданы заранее, и динамические, где они определяются на лету в зависимости от контента.

🟡MoE.

Методика, которая уже стала мейнстримом. В МоЕ разреженность применяется не в механизме внимания, а в FFN-слоях, где для каждого токена активируется лишь небольшая часть экспертов, что позволяет наращивать число параметров без пропорционального роста вычислений.

🟡Четвёртый раздел - эффективное полное внимание.

В нем речь идет не об изменении асимптотической сложности, а об ее аппаратной оптимизации. Флагман - FlashAttention.

Есть детальный разбор, как за счет оптимизации обращений к памяти GPU удается кардинально ускорить вычисления, не прибегая к аппроксимациям. Сюда же относятся и групповые механизмы внимания: GQA и MQA.

🟡Гибридные архитектуры.

Это, пожалуй, самый горячий тренд. Его идея в том, чтобы стратегически комбинировать быстрые слои с линейной сложностью и медленные, но мощные слои с полным вниманием.

В обзоре выделяют два типа гибридизации: межслойную, как в Jamba, где разные типы слоев чередуются, и внутрислойную, где в одном слое разные головы могут использовать разные механизмы внимания.

 🟡Диффузионные LLM (DLLM) 
 
 Это неавторегрессионные модели, которые генерируют текст, постепенно восстанавливая его из шума. Их главная фишка в параллельном декодировании, что дает ощутимое ускорение инференса.
 
 В конце обзора есть анализ применения всех этих архитектур в разных модальностях - CV и аудио.


Так что, если хотите быстро разобраться в базовых методах, которые будут двигать дизайн LLM в ближайшее время, а двигаться он будет в сторону микширования алгоритмов, систем и железа, этот обзор - мастрид.


🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Architectures

Читать полностью…

Анализ данных (Data analysis)

🚀 NVIDIA представила **Nemotron-Nano v2** — новую линейку открытых моделей

Модели:
- 12B Base
- 9B Reasoning
- 9B Base

Архитектура: Hybrid Mamba2–Transformer (128K контекст, 4 attention-слоя)
Обучение: 10.6T токенов (из них 3.5T синтетика: DeepSeek, Qwen, Nemotron-4, phi-4 и др.)
Языки: 15 естественных + 43 языка программирования
Датасеты: Nemotron-CC v2 + Nemotron-CC-Math (133B токенов, 5.5× FineMath)

🔥 Бенчмарки
- Математика: 91.4 GSM8K CoT, 63.6 MATH L5, AIME 30→56.7
- Код: 58.5 HumanEval+, 58.9 MBPP+
- Общие знания: 90.7 ARC, 79.9 HellaSwag
- Длинный контекст: 82.2 RULER-128K

Особенности
- Nemotron-CC-Math — первый масштабируемый пайплайн с Lynx + LLM cleanup для сохранения LaTeX и кода. Дал SOTA-буст (+12.6 MATH, +14.3 MBPP+).
- Эффективность: дистилляция 12B → 9B (480B токенов), ~1.5e24 FLOPs, ~724 MWh.
- Деплой: Hugging Face, NGC, NeMo, TRT-LLM, vLLM (GPU-оптимизация).
- Открытость: релиз моделей, датасетов и полных пайплайнов извлечения.

📌 Nemotron-Nano v2 сочетает сильную математику, код и длинный контекст в компактных моделях, готовых к реальному использованию.

🟠MODELS: https://huggingface.co/collections/nvidia/nvidia-nemotron-689f6d6e6ead8e77dd641615
🟠SETS: https://huggingface.co/collections/nvidia/nemotron-pre-training-dataset-689d9de36f84279d83786b35
🟠RELEASE: https://research.nvidia.com/labs/adlr/NVIDIA-Nemotron-Nano-2/

@data_analysis_m

Читать полностью…
Subscribe to a channel