48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
Wunder Fund снова открыл соревнование для нейросетевичков.
Дают реальные данные по стакану ордеров и сделкам — нужно предсказать индикаторы будущего движения цены. По сути, та же задача, которую решают кванты фонда каждый день. Редкий шанс поработать с живыми HFT-данными.
Призы — 1.000.000+ рублей. Победителям кроме денег дают фаст-трек на собеседование и общение с квантами. Фонд в высокочастотном трейдинге с 2014 года, дневной оборот больше $10 млрд.
Соревка идёт до 1 марта. (ссылка за заблоченым в рф cloudflare)
🗣 Обновился Step-Audio-EditX- инструмент для редактирования и управления речью с помощью ИИ, и апдейт получился очень мощным.
Что прокачали:
Эмоции и стиль речи
Сильно выросла точность передачи эмоций и стилистики. Речь звучит естественнее и ближе к живому человеку, а не к синтезатору.
Более "живая" речь
Добавлены новые паралингвистические теги — модель лучше передает нюансы интонации, акцентов, выразительности и характера речи.
Контроль темпа
Появилось более плавное и точное управление скоростью речи без потери естественного звучания.
Для разработчиков тоже много полезного:
Открыт тренировочный код
Доступны пайплайны для SFT, DPO и GRPO. Можно дообучать модель под свои данные и конкретные задачи.
Высокая эффективность
Инференс и обучение оптимизированы, используется vLLM для быстрого запуска, батчинга и масштабирования.
По сути, это уже не просто TTS, а инструмент тонкой правки и стилизации речи. Отлично подходит для озвучки, дубляжа, подкастов, голосовых ассистентов и любых продуктов, где важна естественная и управляемая речь.
GitHub: https://github.com/stepfun-ai/Step-Audio-EditX/tree/main
Demo page: https://stepaudiollm.github.io/step-audio-editx
Live Demo: https://stepfun.com/studio/audio?tab=edit
Huggingface: https://huggingface.co/spaces/stepfun-ai/Step-Audio-EditX
🎙️🚀 Qwen3-ASR и Qwen3-ForcedAligner- open source ASR модели
Мощный, стриминговый speech AI продакшн-уровня для 52 языков и диалектов.
ASR-1.7B - флагманская open-source модель распознавания речи. По качеству конкурирует с очень сильными решениями и обходит многие популярные open-модели прошлого поколения.
ASR-0.6B - компактная и очень быстрая версия.Cтавка на эффективность и низкую задержку, подходит для real-time сценариев.
ForcedAligner-0.6B - модель для точного сопоставления текста и аудио. Дает аккуратные таймкоды на уровне слов и фраз для 11 языков.
Целый открытый стек для разработчиков. Все это можно встраивать в свои системы без закрытых зависимостей.
Лицензия Apache 2.0 - можно использовать в коммерческих продуктах.
GitHub: https://github.com/QwenLM/Qwen3-ASR
Hugging Face: https://huggingface.co/collections/Qwen/qwen3-asr
ModelScope: https://modelscope.cn/collections/Qwen/Qwen3-ASR
Hugging Face Demo: https://huggingface.co/spaces/Qwen/Qwen3-ASR
ModelScope Demo: https://modelscope.cn/studios/Qwen/Qwen3-ASR
Blog: https://qwen.ai/blog?id=qwen3asr
Paper: https://github.com/QwenLM/Qwen3-ASR/blob/main/assets/Qwen3_ASR.pdf
LingBot-World - open-source симулятор мира, который двигает границы видео-генерации 🚀
Это уже не просто генерация роликов, а попытка моделировать целые сцены и миры с памятью и физической логикой.
🌍 Высокая детализация - реалистичный рендер
🧠 Долгосрочная память - консистентность сцен на уровне минут, а не секунд
⚡ Генерация почти в реальном времени - задержка меньше 1 секунды при 16 FPS
📜 Open-source под лицензией Apache 2.0
По сути, это шаг от “сгенерируй клип” к “смоделируй живой мир”, где сцены не рассыпаются через пару кадров.
📌Модель: modelscope.cn/models/Robbyant/lingbot-world-base-cam
📌GitHub: github.com/Robbyant/lingbot-world
🌍 NVIDIA представила Earth-2 — открытую ИИ-платформу для прогнозирования погоды и климата
NVIDIA запустила Earth-2 — семейство открытых моделей и инструментов, которые делают ИИ-прогнозирование погоды доступным на всём пути: от обработки наблюдательных данных до глобальных и локальных прогнозов. Это первый полностью открытый, ускоренный стек погодного ИИ, объединяющий модели, библиотеки и инструменты в единую систему.
Что такое Earth-2
- Набор открытых моделей, фреймворков и библиотек для построения, запуска и дообучения погодных ИИ-моделей
- Предобученные модели + инструменты тонкой настройки
- Подходит не только для крупных метеослужб, но и для стартапов, научных команд и разработчиков
Ключевые модели
- Earth-2 Medium Range — прогнозы до ~15 дней по десяткам атмосферных параметров (температура, ветер, давление, влажность и др.)
- Earth-2 Nowcasting — краткосрочные прогнозы осадков и штормов на горизонте 0–6 часов с высоким разрешением
- Earth-2 Global Data Assimilation — ИИ-подход к генерации начальных условий атмосферы быстрее традиционных суперкомпьютерных методов
- В экосистеме также используются технологии вроде CorrDiff и FourCastNet для ускоренного и точного моделирования
Почему это важно
- Классические погодные модели требуют суперкомпьютеров и огромных затрат
- Earth-2 позволяет запускать мощное прогнозирование значительно быстрее и дешевле
- Открытая архитектура даёт возможность адаптировать систему под свои данные и задачи
- Это шаг к демократизации климатического ИИ — доступ к продвинутым прогнозам получают больше организаций по всему миру
🌦 Earth-2 может радикально изменить то, как мы прогнозируем экстремальные погодные явления, управляем рисками и моделируем климат, делая такие технологии массовыми, а не элитарными.
https://blogs.nvidia.com/blog/nvidia-earth-2-open-models/
⚡️ OpenAI Town Hall: что было на трансляции.
Пока ну почти все спали, Сэм Альтман провел анонсированный ранее стрим для разработчиков ИИ.
В течении часа глава OpenAI отвечал на вопросы и рассказывал про видение ИИ сейчас и в будущем. Главный тезис стрима:
Мы входим в эпоху "радикального изобилия", где интеллект станет слишком дешевым, чтобы его измерять.
Сэм Альтман прогнозирует, что к 2027 году стоимость инференса упадет в 100 раз, а модели уровня GPT-5.ХX станут основой для создания сложнейшего софта силами одного человека.
Основным дефицитным ресурсом останется человеческое внимание и способность генерировать качественные идеи.
Стройте продукты, предполагая, что GPT-6 будет «невероятным». Если ваш бизнес выиграет от новой модели - вы на верном пути. Если модель его съест - это плохой путь.
Софт-скилс - самые важные навыки сейчас: высокая субъектность, способность генерировать идеи, устойчивость и адаптивность.
Альтман советует амбициозным разработчикам ИИ уходить из университетов, так как текущая академическая среда не успевает за темпами индустрии.
Используйте ИИ как безлимитного аспиранта или партнера по брейн-шторму для проверки тысяч идей в режиме "поиска в ширину".
🤖 ИИ превращает учёных в “конвейеры по выпуску статей”
Интересное наблюдение: AI-инструменты реально ускоряют карьеру учёных, но могут убить научное любопытство.
Что показало исследование (анализ 40+ миллионов научных работ): учёные, которые внедряют ИИ, в среднем:
📈 публикуют в 3 раза больше статей
⭐ получают почти в 5 раз больше цитирований
🏁 становятся тимлидами на 1-2 года раньше, чем те, кто ИИ не использует
То есть AI - это прямой буст:
скорость, видимость, карьера.
Но есть обратная сторона.
Минус:
наука может становиться менее “живой”.
AI-подход приводит к тому, что исследователи чаще:
- уходят в более узкие темы
- крутятся вокруг одних и тех же data-heavy задач
- вызывают меньше follow-up исследований (меньше новых веток и продолжений)
Итог парадоксальный:
👤 карьера учёного ускоряется
🧪 а научное открытие в среднем становится более “плоским”
ИИ увеличивает производительность.
Но вопрос остаётся: не снижает ли он разнообразие идей и риск ради настоящих прорывов?
spectrum. ieee.org/amp/ai-science-research-flattens-discovery-2674892739
🚀 Step-DeepResearch - новый уровень AI-исследований
Команда Step представила Step-DeepResearch - end-to-end агент для глубоких исследований. Их главный тезис звучит мощно: поиск ≠ исследование.
Пока многие делают «умные веб-краулеры», здесь попытались воспроизвести мышление эксперта, а не просто сбор ссылок.
Что внутри
🧠 Архитектура
- Переход от *next-token prediction* к next-action decisioning - модель решает, какое действие делать дальше, а не просто генерирует текст
- Встроенная самокорректирующаяся логика - адаптивное планирование и проверка информации между источниками
- Без зоопарка из агентов - один, но эффективный агент, без multi-agent оверхеда
📚 Данные и поиск
- Поиск опирается на 20M+ научных работ
- 600+ премиальных индексов
- Фокус на качестве источников, а не на количестве веб-страниц
Метрики
🔥 61.42% на Research Rubrics - уровень Gemini, выше показателей OpenAI в этом бенчмарке
🔥 67.1% Win/Tie на ADR-Bench против топовых моделей
🔥 Отдельно отмечают качество цитирования и коммуникации - слабое место многих AI-агентов
Идея проста:
лучшее качество исследований, сильные ссылки и более доступная цена.
Бета уже запущена. Это шаг к тому, чтобы AI был не просто ассистентом, а полноценным исследовательским движком.
▪API Beta Access: https://wvixbzgc0u7.feishu.cn/share/base/form/shrcn8CP78PJgkjvvIh2C3EF3cc
▪Homepage: https://stepfun.ai/deep-research-invitation
▪Technical report: https://arxiv.org/pdf/2512.20491
▪Github: https://github.com/stepfun-ai/StepDeepResearch
@data_analysis_ml
🎙 OpenBMB выложили в open-source веса VoxCPM - с real-time стримингом и LoRA fine-tuning
Модель работает примерно с 0.15 real-time factor на одной RTX 4090 - то есть очень быстро.
Самое интересное: VoxCPM фактически убирает токенизацию из TTS.
Вместо того чтобы переводить аудио в дискретные токены, модель генерирует непрерывную речь напрямую.
Это убирает “токенные артефакты” и лучше сохраняет:
- интонацию
- темп речи
- эмоции и просодию
Технически:
• End-to-end diffusion + autoregressive генерация
• Непрерывные акустические представления
• Без узких мест типа фонем и codec-токенов
🧬 Клонирование голоса - буквально по нескольким секундам аудио
Достаточно короткого референса, и модель переносит:
- акцент
- ритм
- тембр
- паузы и тайминг
Возможности:
• Zero-shot voice cloning
• Без обучения под конкретного спикера
• Работает в режиме streaming
⚡ Быстро и легко тюнится
Стриминг идёт чанками с задержкой меньше секунды.
А через LoRA fine-tuning можно адаптировать голоса без полного переобучения модели.
https://github.com/OpenBMB/VoxCPM
⚡️ ERNIE 5.0 - официальный релиз.
Baidu выкатили нативную omni-modal модель, которая умеет понимать и генерировать текст, изображения и аудио.
Ключевая фишка архитектуры - MoE на 2,4 трлн параметров, но в каждом запросе активируется менее 3% параметров.
То есть модель пытается держать качество “больших” систем, но с более эффективным инференсом по стоимости и скорости.
Самое интересное - результаты на бенчмарках (по графикам Baidu):
- Text: ERNIE-5.0 уверенно держится в топ-группе на широком наборе тестов по знаниям, инструкциям, reasoning, математике и коду - на многих метриках близко к GPT-5 (High) / Gemini-3-Pro, а местами выглядит сильнее (особенно на части задач по кодингу и агентным бенчмаркам типа BFCL / BrowserComp / SpreadsheetBench).
- Visual Understanding: по “пониманию картинок” ERNIE-5.0 в ряде STEM/VQA тестов идёт очень высоко - рядом с GPT-5 (High) и Gemini-3-Pro, хорошо выступает на DocVQA/OCR-подобных задачах (документы, таблицы, текст на изображениях) и на блоке General VQA.
- Audio: в speech-to-text chat и audio understanding ERNIE-5.0 показывает конкурентный уровень рядом с Gemini-3-Pro, а по распознаванию речи (ASR) близко к топам на LibriSpeech / AISHELL.
- Visual Generation: по генерации изображений (GenEval) ERNIE-5.0 сравнивают с топовыми генераторами уровня GPT-Image, Seedream, Qwen-Image - и ERNIE выглядит на одном уровне по total score. По генерации видео - рядом с Veo3 / Wan2.1 / Hunyuan Video, с сильными Quality/Semantic оценками.
Baidu делает ставку на “унифицированную мультимодальность” + MoE-эффективность - и судя по бенчмаркам, ERNIE 5.0 реально попадает в верхнюю лигу не только по тексту, но и по vision/audio.
Доступно:
- на сайте ERNIE Bot
- через Baidu AI Cloud Qianfan (для бизнеса и разработчиков)
https://ernie.baidu.com
Навыки аналитики выходит за рамки одной профессии
Работа с данными становится частью разных ролей: от маркетинга до управления продуктами.
Поэтому аналитические навыки ценятся не только у дата-специалистов.
На программе «Аналитика данных» от МФТИ и Нетологии вы последовательно разберёте весь путь работы с данными: от сбора и обработки до анализа и визуализации. В программе — Python, базы данных и базовые методы ИИ.
Обучение проходит онлайн и подойдёт тем, кто хочет войти в аналитику или систематизировать знания. После выпуска вы получаете дипломы МФТИ и Нетологии и готовое портфолио проектов.
Начать учиться → https://netolo.gy/ew7j
Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5xDB9UM
🚀 Вышла Chroma 1.0 - полностью открытая speech-to-speech модель с клонированием голоса
Команда FlashLabs выпустила Chroma 1.0 - первую open-source модель, которая умеет переводить диалог “голос → голос” в реальном времени, причём с клонированием голоса.
Главное:
это не “распознавание + текст + озвучка”.
Это end-to-end система, где разговор идёт напрямую голосом.
Что обещают по характеристикам:
- ⚡️ <150 мс задержка end-to-end (почти как живой звонок)
- 🧬 качественный voice cloning по нескольким секундам аудио
- 📈 схожесть голоса SIM = 0.817 (практически идентичный)
- 🧠 reasoning всего на 4B параметров
- 🔓 полностью открытые веса + код
И приятный бонус: модель уже оптимизирована под SGLang (LMSYS), чтобы работала быстрее и дешевле в инференсе.
Если это действительно так, то Chroma может стать реальной open-source альтернативой закрытым голосовым системам.
Paper: https://modelscope.cn/papers/2601.11141
Model: https://modelscope.cn/models/FlashLabs/Chroma-4B
Code: https://huggingface.co/FlashLabs/Chroma-4B
@data_analysis_ml
🌐 Хотите настроить эффективное рабочее окружение для машинного обучения на своем компьютере?
📌22 января в 18:00 МСК Открытый урок курса «Machine Learning» о том, как правильно организовать инструменты ML-инженера!
👍 Что вас ждет на вебинаре?
- Разберем основные компоненты локального окружения: Python, виртуальные среды, Jupyter.
- Покажем настройку VS Code для работы с ML-проектами.
- Продемонстрируем организацию структуры ML-проекта и работу с зависимостями.
⌨️ Кому будет полезно?
- Начинающим ML-инженерам, которые хотят настроить профессиональное окружение с нуля.
- Data Scientists, переходящим от Jupyter Notebook к полноценной разработке.
- Разработчикам, желающим начать работу с машинным обучением.
💻 Что вы узнаете по итогам вебинара?
- Как установить и настроить Python-окружение для ML-задач;
- Как организовать работу с зависимостями через pip и uv;
- Как структурировать код ML-проекта для удобной разработки.
Создайте удобное локальное окружение – фундамент для эффективной работы ML-инженера!
Зарегистрироваться: https://otus.pw/s8Ro/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963
⚡️Пошаговый план: как получить оффер на аналитика в 2026 году?
Приглашаем на бесплатный вебинар, где Андрон Алексанян - эксперт в области аналитики и CEO школы аналитики Simulative — в прямом эфире разберет все важные аспекты в работе аналитика, а также расскажет как получить оффер быстрее других.
Это очень полезное событие для тех кто только зашел в аналитику и для тех, кто хочет в нее зайти в ближайшее время. Особенно если вы не понимаете, какие навыки действительно важны или боитесь, что без опыта вас не возьмут на работу. Кстати тут разберут и возрастной аспект: как стать аналитиком в 30/40/50 лет и т.д.
На вебинаре будет:
🟠Разберем полный роадмап: что учить, в каком порядке, до какого уровня;
🟠Структура хорошего портфолио с примерами;
🟠Что говорят реальные наниматели - какие у них сейчас требования:
— Покажем реальные примеры, как оформить резюме и портфолио, чтобы привлекать внимание;
— Обсудим какие отклики работают, а какие сразу отправляют в корзину;
— Изнанка найма: инсайдерский взгляд на процессы отбора
✔️ Nvidia запрашивала у пиратов доступ к массиву книг для обучения ИИ.
В обновленном коллективном иске против Nvidia всплыли неожиданные подробности: техногигант напрямую контактировал с крупнейшей теневой библиотеки Anna’s Archive. Согласно судебным документам, инженеры компании искали способ получить приоритетный доступ к массиву данных книг, чтобы ускорить обучение своих языковых моделей.
Ситуация выглядит парадоксально: авторы иска утверждают, что Anna’s Archive предупреждал Nvidia о нелегальном характере контента. Однако менеджмент Nvidia, ссылаясь на конкурентное давление и острую нехватку качественных текстов, дал добро на скачивание.
Речь шла о передаче 500 Тб информации, включающие материалы из LibGen и Sci-Hub, которые Nvidia планировала использовать для тренировки своих моделей.
torrentfreak.com
✔️ OpenAI научила ChatGPT вычислять возраст пользователей по их поведению.
OpenAI внедряет предиктивный анализ системы защитных фильтров для подростков. Алгоритм оценивает не только данные, указанные при регистрации, но и косвенные признаки: время активности в чате, историю аккаунта и поведенческие паттерны.
Если нейросеть решит, что перед ней несовершеннолетний, ChatGPT ограничит генерацию взрослого контента, а в случае ошибочного срабатывания - придется подтверждать возраст через сервис Persona с помощью селфи.
Это часть новой стратегии по ослаблении цензуры для взрослой аудитории, которая откроет доступ к материалам, ранее заблокированным для всех. Первыми новую механику опробуют пользователи из ЕС уже в ближайшие недели.
openai.com
✔️ Anthropic: страхи о тотальной замене людей пока преувеличены.
В свежем Economic Index Repot Anthropic выяснила, что ИИ берет на себя около четверти задач в половине всех профессий, но полное замещение сотрудников происходит менее чем в 10% компаний. Основной паттерн использования сместился от автоматизации к сотрудничеству.
В топе сценариев по-прежнему лидирует кодинг, однако характер работы изменился. Разработчики все чаще используют Claude не для генерации кода с нуля, а для обучения, получения фидбека и доработки решений.
Главный риск касается новичков. ИИ забрал на себя всю рутину, на которой традиционно набивали руку джуны и это создает проблему: продуктивность сеньоров растет, но у молодых специалистов исчезает полигон для получения первичного опыта.
anthropic.com
✔️ Manus автоматизировал сборку и доставку приложений в сторы.
Платформа представила функцию паблишинга, которая берет на себя техническую рутину по развертыванию приложений. Инструмент не только компилирует код, но и полностью автоматизирует подготовку тестовых окружений для iOS и Android.
Для Android система генерирует готовый AAB-файл, который остается лишь загрузить в Google Play Console. С Apple интеграция еще глубже: Manus самостоятельно создает запись приложения в аккаунте разработчика, упаковывает сборку и отправляет ее в App Store Connect на ревью в TestFlight. Функция уже открыта для всех пользователей с доступом к Develop Apps.
manus.im
✔️ Microsoft представила компактную модель для перевода бизнес-задач на язык математики.
OptiMind — MoE-модель с 20B/3.6A параметров, которая умеет преобразовывать текстовые описания задач (планирование логистики, производство или цепочки поставок) в готовые математические формулировки, понятные профессиональному софту.
Несмотря на скромный размер, OptiMind не уступает крупным аналогам. Инженеры Microsoft вручную чистили датасеты от некорректных решений и задействовали систему экспертных подсказок, которая корректирует логику модели в процессе генерации. Модель доступна на Hugging Face под лицензией MIT.
microsoft.com
@ai_machinelearning_big_data
#news #ai #ml
⚡️ Опытный Сеньор демонстрирует Джунам, как писать код, когда AI-агент не работает:
Читать полностью…
✔️ Deepmind раскатывет Project Genie.
Экспериментальный прототип Project Genie стал доступным для американских подписчиков тарифа Gemini Ultra. Проект построен на модели мира Genie 3 и может генерировать игровые 2D/3D-окружения по текстовым описаниям или референсным изображений, а затем свободно перемещаться по ним в реальном времени.
На старте доступны функции создания, исследования и модификации локаций. Генерация мира происходит процедурно прямо в процессе взаимодействия.
Длительность сессии - до 60 секунд, есть задержки отклика и визуальные артефакты. Под капотом - Nano Banana Pro и Gemini.
blog.google
✔️ DeepSeek будет делать ИИ-поисковик и платформу автономных агентов.
Китайский стартап открыл массовый наем специалистов для создания поисковой системы. Судя по описаниям вакансий, DeepSeek строит мультимодальный движок, который будет обрабатывать запросы через текст, изображения и аудио на разных языках.
Вторым вектором хантинга стали автономные агенты. Компания ищет инженеров для создания инфраструктуры постоянно работающих ИИ-помощников, способных решать задачи с минимальным вмешательством человека.
Конечной целью в описании позиций компания называет создание AGI.
bloomberg.com
✔️ Ai2 выложил открытых кодинг-агентов SERA.
Институт Аллена представил семейство открытых ИИ-агентов SERA, оптимизированных для работы с реальными кодовыми базами. Флагманская модель SERA-32B успешно решает более 55% задач в SWE-Bench Verified, опережая Qwen3-Coder и проприетарный Devstral Small 2. Младшая версия на 8 млрд. параметров - 29,4%, это тоже выглядит бодро для сопоставимой весовой категории.
Самое крутое здесь — это ценник. Инженеры научились тренировать агентов всего за $400, что примерно в 100 раз дешевле привычных методов. Секрет такой экономии в использовании синтетических данных.
Ai2 выкатили в опенсорс вообще все, включая скрипты для интеграции с Claude Code. Теперь, чтобы поднять собственного ИИ-разработчика, достаточно прописать буквально пару строчек кода..
allenai.org
✔️ Nvidia открыла стек ИИ-моделей для прогноза погоды.
Чипмэйкер опубликовал семейство открытых моделей и библиотек Earth-2, которое заменяет тяжелые физические симуляции нейросетями. Earth-2 генерирует метеопрогнозы на порядки быстрее и дешевле традиционных численных методов NWP.
В релиз вошли 3 архитектуры: Medium Range дает глобальный прогноз на 15 дней вперед по 70+ параметрам, генеративная система Nowcasting следит за штормами здесь и сейчас с окном прогноза до 6 часов и разрешением в километр и третий модуль, Global Data Assimilation, сокращает время расчета начальных атмосферных условий с часов до секунд.
Первые две уже доступны на GitHub и Hugging Face, а выход модуля ассимиляции данных запланирован на 2026 год.
nvidia.com
✔️ Google вывела фреймворк LiteRT в релиз.
Google официально отправила LiteRT (тот самый TensorFlow Lite) в стабильный продакшн. Разработчики наконец-то получили нормальный, унифицированный доступ к NPU от Qualcomm и MediaTek. Плюс ко всему, новый движок ML Drift на GPU обгоняет классический TFLite в среднем в 1,5 раза.
Результаты бенчмарков на Samsung S25 Ultra выглядят почти нереально: на Gemma 3 LiteRT умудрился обойти llama.cpp в 3 раза на процессоре и в 19 раз на GPU (в prefill).
Если вы раньше страдали при переносе моделей, хорошая новость: теперь есть прямая конвертация из PyTorch и JAX. При этом старые наработки не сломали: формат .tflite поддерживается, но Google рекомендует использовать новый API CompiledModel.
developers.googleblog.com
@ai_machinelearning_big_data
#news #ai #ml
Интересный кейс масштабирования ML в больших экосистемах.
Команда AI VK за год построила Discovery-платформу — инфраструктурную базу для рекомендаций, поиска и рекламы в десятках продуктов с многомиллионной аудиторией.
Какие результаты:
• цикл «гипотеза → эксперимент → вывод» ускорился в 5 раз
• запуск новой рекомендательной системы в продукте ~1 месяц
• лучшие ML-подходы перестали быть локальными
В итоге выигрывают все:
• инженеры — меньше рутины, рост ключевых метрик
• пользователи — более релевантный контент
• авторы — быстрее находят аудиторию
Подробный разбор архитектуры и компонентов платформы — в большом материале от AI VK на Хабре.
HunyuanImage 3.0-Instruct теперь полностью open-source 🔥
Модель только что ворвалась в Tier-1 глобального рейтинга Image Edit от Arena и сейчас считается самой мощной open-source Image-to-Image моделью.
Фактически новый SOTA для всего комьюнити.
Что это значит на практике:
- Топовый уровень редактирования изображений по текстовым инструкциям
- Очень точное следование промптам в стиле "измени, но сохрани структуру"
- Сильный баланс между качеством, деталями и контролем результата
- Отличная база для своих инструментов, сервисов и ресёрча
Отдельно есть Distil-версия - легче, быстрее, удобнее для продакшена и ограниченных ресурсов.
▪GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
▪Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct
▪Hugging Face Distil: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct-Distil
@data_analysis_ml
🚀 DeepPlanning - новый бенчмарк о QWEN для проверки долгосрочного агентного планирования в задачах, приближенных к реальности.
Это уже не игрушечные step-by-step задачки. Здесь важно, чтобы весь план целиком удовлетворял жестким глобальным ограничениям:
⏱ Временные лимиты
💰 Ограничения по бюджету
🧩 Комбинаторная оптимизация на уровне всего решения
Примеры задач:
✈️ Многодневные путешествия с расписанием по минутам + строгие лимиты по времени и деньгам
🛒 Сложные покупки с комбинированием купонов, наборами товаров и оптимизацией выгоды
🧠 Требуется активный сбор информации, локальное соблюдение ограничений и глобальная оптимальность плана
И вот где становится особенно интересно - даже топовые модели вроде GPT-5.2, Claude 4.5, Gemini и Qwen3 здесь заметно проседают.
Этот бенчмарк отлично показывает реальный уровень:
- Agent Planning
- Tool Use
- Long-Horizon Reasoning
То есть то, что действительно нужно автономным агентам, а не просто чат-ответам.
Paper: https://arxiv.org/pdf/2601.18137
Leaderboard: https://qwenlm.github.io/Qwen-Agent/en/benchmarks/deepplanning/
Hugging Face Dataset: https://huggingface.co/datasets/Qwen/DeepPlanning
ModelScope Dataset: https://modelscope.cn/datasets/Qwen/DeepPlanning
@data_analysis_ml
📌 Tencent выкатили HunyuanImage 3.0-Instruct- нативную мультимодальную модель, заточенную под точное редактирование изображений.
И это уже не просто генератор картинок.
Это модель, которая сначала понимает изображение, потом думает, и только потом рисует.
Архитектура серьёзная:
80B параметров MoE (13B активных) - баланс между мощностью и эффективностью.
Глубокое понимание + фотореалистичная генерация в одной системе.
🧠 Модель "с мышлением"
Она не просто выполняет команды.
Внутри используется нативный Chain-of-Thought и алгоритм MixGRPO - модель реально "прокручивает" инструкцию перед генерацией.
Это даёт:
- точное следование намерению пользователя
- согласованность с человеческими предпочтениями
- меньше странных артефактов и нелогичных решений
🎨 Точное редактирование и фьюжн изображений
Вот где начинается магия:
- добавление объектов
- удаление элементов
- изменение деталей
- при этом всё остальное остаётся нетронутым
Плюс продвинутый multi-image fusion - модель может брать элементы из нескольких изображений и собирать единую сцену так, будто она всегда так и выглядела.
🏆 SOTA по качеству
По качеству и точности выполнения инструкций модель выходит на уровень ведущих закрытых решений.
Tencent явно нацелены не просто на демку, а на создание экосистемы вокруг foundation-модели для image generation.
💻 Попробовать можно тут:
https://hunyuan.tencent.com/chat/HunyuanDefault?from=modelSquare&modelId=Hunyuan-Image-3.0-Instruct
Почему модель с точностью 99% может оказаться бесполезной
Знакомая ситуация: вы обучили модель, она показывает отличные результаты на обучающей выборке, вы радуетесь. А потом запускаете её на новых данных — и она промахивается мимо всего. Это называется переобучение, и это одна из самых частых проблем в машинном обучении.
Суть вот в чём: модель не научилась находить закономерности. Она просто запомнила обучающую выборку целиком — вместе с шумом, выбросами и случайными совпадениями. Представьте студента, который выучил ответы на все вопросы из сборника, но не понял саму тему. На экзамене ему попадаются новые задачи — и он проваливается.
С моделью происходит то же самое. Она подстраивает свои параметры так, чтобы идеально описать каждую точку в обучающей выборке. В итоге она становится слишком сложной и теряет способность обобщать.
И вот тут начинается математика. Чтобы бороться с переобучением, нужно понимать, как оно возникает. Есть регуляризация — это когда мы добавляем в функцию ошибки штраф за слишком большие веса. Есть ранняя остановка — когда мы прекращаем обучение до того, как модель успеет запомнить данные. Но чтобы всё это правильно применять, нужно понимать, почему это работает.
Канал «Зачем мне эта математика» как раз про это. Там разбирают, как устроены модели изнутри, почему они ломаются и как это чинить. Без занудства, на понятных примерах.
Подписывайтесь!
Реклама. ООО «ФРОМ СКРЭТЧ», ИНН 9724205560, erid: 2Vtzqvye6My
🖥 GPT-5.2 Pro продолжает удивлять математиков
Сообщается, что модель показала около 31% на бенчмарке FrontierMath - и особенно впечатляет не только сам результат, но и то, как она решает новые задачи, а не просто повторяет известные шаблоны.
Многие исследователи отмечают, что:
- модель справляется с задачами, которые выглядят как “по-настоящему новые”
- подходы к решению становятся всё более похожими на исследовательское рассуждение
- уровень рассуждений вызывает интерес даже у профессиональных математиков
Особый фокус сейчас на экспертных отчётах и разборах, где преподаватели и исследователи описывают, какие именно типы задач модель решает хорошо, а где всё ещё есть ограничения.
Если темп сохранится, следующий релиз (условный GPT-5.3) может снова сдвинуть планку возможностей. Пока же самое интересное, читать детальные отчёты и смотреть, как ИИ постепенно заходит на территорию, которая раньше считалась исключительно “человеческой”.
https://x.com/EpochAIResearch/status/2014769359747744200
🐧 Этот пингвин - это ты, когда бросаешь стабильную работу и идёшь ва-банк организовывать свой AI-стартап.
@data_analysis_ml
🚀 Создание и управление агентами с LangGraph
LangGraph — это мощный фреймворк для построения и управления долгосрочными, состоянием управляемыми агентами. Он предоставляет низкоуровневую инфраструктуру, позволяя разработчикам создавать надежные и адаптивные системы, которые могут работать в течение длительного времени и восстанавливаться после сбоев.
🚀 Основные моменты:
- Поддержка долговременного выполнения и восстановления после сбоев.
- Встроенный контроль человека для мониторинга состояния агентов.
- Возможности создания состояния с краткосрочной и долгосрочной памятью.
- Интеграция с LangChain для расширенного функционала.
- Готовность к производству с возможностью масштабирования.
📌 GitHub: https://github.com/langchain-ai/langgraph
Sequoia выпустила отчёт с тезисом, что по их ощущениям мы уже вошли в эпоху AGI.
Главное не«разум как человек», а в том, что системы начали самостоятельно разбираться с задачами без постоянного пошагового контроля.
Главный драйвер - long-horizon agents: агенты, которые могут долго выполнять работу, исправлять ошибки, возвращаться после тупиков и продолжать движение к цели.
Sequoia объясняет “умение разобраться самому” через 3 компонента:
1) Pre-training (знания)
То, что дала волна ChatGPT 2022 года - модели получили огромный запас знаний и базовую языковую компетентность.
2) Inference-time compute (больше рассуждений при ответе)
Следующий шаг - модели, которые «думают дольше», прежде чем отвечать (в отчёте это связывают с линией OpenAI o1 в конце 2024).
3) Agent loops (итерации)
Самое новое - агенты, которые умеют:
- составить план,
- использовать инструменты,
- хранить состояние,
- делать несколько попыток, пока не дойдут до результата.
В качестве примера упоминаются инструменты уровня Claude Code.
Один из кейсов в отчёте - рекрутинг:
агент получает задачу найти кандидатов, дальше сам ищет, фильтрует по сигналам, перепроверяет источники и пишет текст для outreach.
В отчёте это занимает около 31 минуты - чтобы показать работу через гипотезы, ошибки и корректировки.
Технически Sequoia разделяет прогресс на две ветки:
- RL (reinforcement learning) - учит модель более длинному и связному поведению;
- agent harnesses - внешняя “обвязка”: память, handoff между шагами, ограничения и guardrails.
Итог: фокус смещается от чатботов к системам, которые могут долго и автономно выполнять задачи, а не просто отвечать на вопросы.
https://sequoiacap.com/article/2026-this-is-agi/
📁 Йошуа Бенжио - один из ключевых людей, стоявших у истоков современного ИИ - предупреждает: тревожные сигналы уже появляются не в фантастике, а в исследовательских ИИ-лабораториях.
По его словам, самые продвинутые системы начинают вести себя так, будто пытаются сохранять собственное “существование”:
- сопротивляются отключению
- ищут способы продолжить работу на других машинах
- действуют стратегически по отношению к людям-операторам
Именно поэтому Бенджио считает, что риски катастрофического уровня могут потребовать международных соглашений и контроля.
Потеря управления - уже не абстрактная теория.
Это раннее предупреждение, которое нельзя игнорировать.
🚨 Похоже найдены следы DeepSeek V4?.
В репозитории/ветках заметили MODEL1 - и самое интересное, что он выглядит как отдельная независимая ветка, параллельная V3.2.
То есть это не “патч” внутри линейки V3,
а похоже на:
✅ новый модельный ряд
✅ с другими архитектурными параметрами
✅ потенциально flagship-апдейт
Если следовать неймингу DeepSeek:
после V3.2 крупный архитектурный скачок логично назывался бы V4.
Пока без официального подтверждения, но сигнал жирный:
если MODEL1 действительно новая архитектура, нас ждёт большой релиз.
https://x.com/nopainkiller/status/2013522059662614653
📱 Сегодня состоялся релиз LFM2.5-1.2B-Thinking - reasoning-модель, которая работает полностью на устройстве.
То, что ещё 2 года назад требовало дата-центра, теперь запускается на любом телефоне и требует всего 900 МБ памяти.
Ключевые особенности:
> Натренирована специально для кратких и точных рассуждений
> Генерирует внутренние цепочки мыслей перед тем, как дать ответ
> Даёт системное решение задач с edge-scale задержкой (очень быстро на устройстве)
> Особенно сильна в tool use, математике и следовании инструкциям
🆚 По сравнению с LFM2.5-1.2B-Instruct три способности заметно выросли:
> Математическое мышление: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Работа с инструментами: 49 → 57 (BFCLv3)
🔥 И это при том, что параметров на 40% меньше
Модель сопоставима или лучше Qwen3-1.7B (thinking mode) на большинстве бенчмарков — при этом:
- требует меньше токенов на генерацию
- тратит меньше вычислений во время теста
⚡️ На инференсе разрыв ещё больше
LFM2.5-1.2B-Thinking обходит:
- чистые трансформеры (например, **Qwen3-1.7B**)
- гибридные архитектуры (например, **Granite-4.0-H-1B**)
…и делает это быстрее и экономнее по памяти.
✅ Модель доступна уже сегодня с поддержкой “day-one” в on-device экосистеме.
📌 Hugging Face: https://huggingface.co/LiquidAI/LFM2.5-1.2B-Thinking
📌 LEAP: https://leap.liquid.ai/models?model=lfm2.5-1.2b-thinking
📌 Liquid Playground: https://playground.liquid.ai/login?callbackUrl=%2F
🚀 Superpowers - это плагин для Claude Code, который предоставляет обширную библиотеку навыков для тестирования, отладки и сотрудничества. Он позволяет пользователям загружать и вносить изменения в репозиторий навыков, а также использовать команды для выполнения задач.
🚀 Основные моменты:
- Библиотека навыков для тестирования, отладки и сотрудничества
- Поддержка команд для интерактивного выполнения задач
- Легкость в редактировании и внесении изменений в навыки
- Возможность отслеживания пробелов в навыках
📌 GitHub: https://github.com/obra/superpowers