data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

🚀 Step-DeepResearch - новый уровень AI-исследований

Команда Step представила Step-DeepResearch - end-to-end агент для глубоких исследований. Их главный тезис звучит мощно: поиск ≠ исследование.

Пока многие делают «умные веб-краулеры», здесь попытались воспроизвести мышление эксперта, а не просто сбор ссылок.

Что внутри

🧠 Архитектура
- Переход от *next-token prediction* к next-action decisioning - модель решает, какое действие делать дальше, а не просто генерирует текст
- Встроенная самокорректирующаяся логика - адаптивное планирование и проверка информации между источниками
- Без зоопарка из агентов - один, но эффективный агент, без multi-agent оверхеда

📚 Данные и поиск
- Поиск опирается на 20M+ научных работ
- 600+ премиальных индексов
- Фокус на качестве источников, а не на количестве веб-страниц

Метрики

🔥 61.42% на Research Rubrics - уровень Gemini, выше показателей OpenAI в этом бенчмарке
🔥 67.1% Win/Tie на ADR-Bench против топовых моделей
🔥 Отдельно отмечают качество цитирования и коммуникации - слабое место многих AI-агентов

Идея проста:
лучшее качество исследований, сильные ссылки и более доступная цена.

Бета уже запущена. Это шаг к тому, чтобы AI был не просто ассистентом, а полноценным исследовательским движком.

API Beta Access: https://wvixbzgc0u7.feishu.cn/share/base/form/shrcn8CP78PJgkjvvIh2C3EF3cc
Homepage: https://stepfun.ai/deep-research-invitation
Technical report: https://arxiv.org/pdf/2512.20491
Github: https://github.com/stepfun-ai/StepDeepResearch

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🎙 OpenBMB выложили в open-source веса VoxCPM - с real-time стримингом и LoRA fine-tuning

Модель работает примерно с 0.15 real-time factor на одной RTX 4090 - то есть очень быстро.

Самое интересное: VoxCPM фактически убирает токенизацию из TTS.

Вместо того чтобы переводить аудио в дискретные токены, модель генерирует непрерывную речь напрямую.
Это убирает “токенные артефакты” и лучше сохраняет:
- интонацию
- темп речи
- эмоции и просодию

Технически:
• End-to-end diffusion + autoregressive генерация
• Непрерывные акустические представления
• Без узких мест типа фонем и codec-токенов

🧬 Клонирование голоса - буквально по нескольким секундам аудио

Достаточно короткого референса, и модель переносит:
- акцент
- ритм
- тембр
- паузы и тайминг

Возможности:
• Zero-shot voice cloning
• Без обучения под конкретного спикера
• Работает в режиме streaming

⚡ Быстро и легко тюнится
Стриминг идёт чанками с задержкой меньше секунды.
А через LoRA fine-tuning можно адаптировать голоса без полного переобучения модели.

https://github.com/OpenBMB/VoxCPM

Читать полностью…

Анализ данных (Data analysis)

⚡️ ERNIE 5.0 - официальный релиз.

Baidu выкатили нативную omni-modal модель, которая умеет понимать и генерировать текст, изображения и аудио.

Ключевая фишка архитектуры - MoE на 2,4 трлн параметров, но в каждом запросе активируется менее 3% параметров.

То есть модель пытается держать качество “больших” систем, но с более эффективным инференсом по стоимости и скорости.

Самое интересное - результаты на бенчмарках (по графикам Baidu):

- Text: ERNIE-5.0 уверенно держится в топ-группе на широком наборе тестов по знаниям, инструкциям, reasoning, математике и коду - на многих метриках близко к GPT-5 (High) / Gemini-3-Pro, а местами выглядит сильнее (особенно на части задач по кодингу и агентным бенчмаркам типа BFCL / BrowserComp / SpreadsheetBench).
- Visual Understanding: по “пониманию картинок” ERNIE-5.0 в ряде STEM/VQA тестов идёт очень высоко - рядом с GPT-5 (High) и Gemini-3-Pro, хорошо выступает на DocVQA/OCR-подобных задачах (документы, таблицы, текст на изображениях) и на блоке General VQA.
- Audio: в speech-to-text chat и audio understanding ERNIE-5.0 показывает конкурентный уровень рядом с Gemini-3-Pro, а по распознаванию речи (ASR) близко к топам на LibriSpeech / AISHELL.
- Visual Generation: по генерации изображений (GenEval) ERNIE-5.0 сравнивают с топовыми генераторами уровня GPT-Image, Seedream, Qwen-Image - и ERNIE выглядит на одном уровне по total score. По генерации видео - рядом с Veo3 / Wan2.1 / Hunyuan Video, с сильными Quality/Semantic оценками.

Baidu делает ставку на “унифицированную мультимодальность” + MoE-эффективность - и судя по бенчмаркам, ERNIE 5.0 реально попадает в верхнюю лигу не только по тексту, но и по vision/audio.

Доступно:
- на сайте ERNIE Bot
- через Baidu AI Cloud Qianfan (для бизнеса и разработчиков)

https://ernie.baidu.com

Читать полностью…

Анализ данных (Data analysis)

Навыки аналитики выходит за рамки одной профессии

Работа с данными становится частью разных ролей: от маркетинга до управления продуктами.
Поэтому аналитические навыки ценятся не только у дата-специалистов.

На программе «Аналитика данных» от МФТИ и Нетологии вы последовательно разберёте весь путь работы с данными: от сбора и обработки до анализа и визуализации. В программе — Python, базы данных и базовые методы ИИ.

Обучение проходит онлайн и подойдёт тем, кто хочет войти в аналитику или систематизировать знания. После выпуска вы получаете дипломы МФТИ и Нетологии и готовое портфолио проектов.

Начать учиться → https://netolo.gy/ew7j

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5xDB9UM

Читать полностью…

Анализ данных (Data analysis)

🚀 Вышла Chroma 1.0 - полностью открытая speech-to-speech модель с клонированием голоса

Команда FlashLabs выпустила Chroma 1.0 - первую open-source модель, которая умеет переводить диалог “голос → голос” в реальном времени, причём с клонированием голоса.

Главное:
это не “распознавание + текст + озвучка”.
Это end-to-end система, где разговор идёт напрямую голосом.

Что обещают по характеристикам:
- ⚡️ <150 мс задержка end-to-end (почти как живой звонок)
- 🧬 качественный voice cloning по нескольким секундам аудио
- 📈 схожесть голоса SIM = 0.817 (практически идентичный)
- 🧠 reasoning всего на 4B параметров
- 🔓 полностью открытые веса + код

И приятный бонус: модель уже оптимизирована под SGLang (LMSYS), чтобы работала быстрее и дешевле в инференсе.

Если это действительно так, то Chroma может стать реальной open-source альтернативой закрытым голосовым системам.

Paper: https://modelscope.cn/papers/2601.11141
Model: https://modelscope.cn/models/FlashLabs/Chroma-4B
Code: https://huggingface.co/FlashLabs/Chroma-4B

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🌐 Хотите настроить эффективное рабочее окружение для машинного обучения на своем компьютере?

📌22 января в 18:00 МСК Открытый урок курса «Machine Learning» о том, как правильно организовать инструменты ML-инженера!

👍 Что вас ждет на вебинаре?
- Разберем основные компоненты локального окружения: Python, виртуальные среды, Jupyter.
- Покажем настройку VS Code для работы с ML-проектами.
- Продемонстрируем организацию структуры ML-проекта и работу с зависимостями.

⌨️ Кому будет полезно?
- Начинающим ML-инженерам, которые хотят настроить профессиональное окружение с нуля.
- Data Scientists, переходящим от Jupyter Notebook к полноценной разработке.
- Разработчикам, желающим начать работу с машинным обучением.

💻 Что вы узнаете по итогам вебинара?
- Как установить и настроить Python-окружение для ML-задач;
- Как организовать работу с зависимостями через pip и uv;
- Как структурировать код ML-проекта для удобной разработки.

Создайте удобное локальное окружение – фундамент для эффективной работы ML-инженера!

Зарегистрироваться:
https://otus.pw/s8Ro/

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963

Читать полностью…

Анализ данных (Data analysis)

⚡️Пошаговый план: как получить оффер на аналитика в 2026 году?

Приглашаем на бесплатный вебинар, где Андрон Алексанян - эксперт в области аналитики и CEO школы аналитики Simulative — в прямом эфире разберет все важные аспекты в работе аналитика, а также расскажет как получить оффер быстрее других.

Это очень полезное событие для тех кто только зашел в аналитику и для тех, кто хочет в нее зайти в ближайшее время. Особенно если вы не понимаете, какие навыки действительно важны или боитесь, что без опыта вас не возьмут на работу. Кстати тут разберут и возрастной аспект: как стать аналитиком в 30/40/50 лет и т.д.

На вебинаре будет:
🟠Разберем полный роадмап: что учить, в каком порядке, до какого уровня;
🟠Структура хорошего портфолио с примерами;
🟠Что говорят реальные наниматели - какие у них сейчас требования:

— Покажем реальные примеры, как оформить резюме и портфолио, чтобы привлекать внимание;
— Обсудим какие отклики работают, а какие сразу отправляют в корзину;
— Изнанка найма: инсайдерский взгляд на процессы отбора

🟠 Практические техники для новичков: разберём, как компенсировать недостаток опыта и быстро закрывать пробелы в знаниях.

💬 Всем зарегистрировавшимся Simulative пришлют полезный материал — карту компетенций аналитика данных со всеми нужными инструментами для освоения.

😶Зарегистрироваться на бесплатный вебинар

Читать полностью…

Анализ данных (Data analysis)

✔️ Nvidia запрашивала у пиратов доступ к массиву книг для обучения ИИ.

В обновленном коллективном иске против Nvidia всплыли неожиданные подробности: техногигант напрямую контактировал с крупнейшей теневой библиотеки Anna’s Archive. Согласно судебным документам, инженеры компании искали способ получить приоритетный доступ к массиву данных книг, чтобы ускорить обучение своих языковых моделей.

Ситуация выглядит парадоксально: авторы иска утверждают, что Anna’s Archive предупреждал Nvidia о нелегальном характере контента. Однако менеджмент Nvidia, ссылаясь на конкурентное давление и острую нехватку качественных текстов, дал добро на скачивание.

Речь шла о передаче 500 Тб информации, включающие материалы из LibGen и Sci-Hub, которые Nvidia планировала использовать для тренировки своих моделей.
torrentfreak.com

✔️ OpenAI научила ChatGPT вычислять возраст пользователей по их поведению.

OpenAI внедряет предиктивный анализ системы защитных фильтров для подростков. Алгоритм оценивает не только данные, указанные при регистрации, но и косвенные признаки: время активности в чате, историю аккаунта и поведенческие паттерны.

Если нейросеть решит, что перед ней несовершеннолетний, ChatGPT ограничит генерацию взрослого контента, а в случае ошибочного срабатывания - придется подтверждать возраст через сервис Persona с помощью селфи.

Это часть новой стратегии по ослаблении цензуры для взрослой аудитории, которая откроет доступ к материалам, ранее заблокированным для всех. Первыми новую механику опробуют пользователи из ЕС уже в ближайшие недели.
openai.com

✔️ Anthropic: страхи о тотальной замене людей пока преувеличены.

В свежем Economic Index Repot Anthropic выяснила, что ИИ берет на себя около четверти задач в половине всех профессий, но полное замещение сотрудников происходит менее чем в 10% компаний. Основной паттерн использования сместился от автоматизации к сотрудничеству.

В топе сценариев по-прежнему лидирует кодинг, однако характер работы изменился. Разработчики все чаще используют Claude не для генерации кода с нуля, а для обучения, получения фидбека и доработки решений.

Главный риск касается новичков. ИИ забрал на себя всю рутину, на которой традиционно набивали руку джуны и это создает проблему: продуктивность сеньоров растет, но у молодых специалистов исчезает полигон для получения первичного опыта.
anthropic.com

✔️ Manus автоматизировал сборку и доставку приложений в сторы.

Платформа представила функцию паблишинга, которая берет на себя техническую рутину по развертыванию приложений. Инструмент не только компилирует код, но и полностью автоматизирует подготовку тестовых окружений для iOS и Android.

Для Android система генерирует готовый AAB-файл, который остается лишь загрузить в Google Play Console. С Apple интеграция еще глубже: Manus самостоятельно создает запись приложения в аккаунте разработчика, упаковывает сборку и отправляет ее в App Store Connect на ревью в TestFlight. Функция уже открыта для всех пользователей с доступом к Develop Apps.
manus.im

✔️ Microsoft представила компактную модель для перевода бизнес-задач на язык математики.

OptiMind — MoE-модель с 20B/3.6A параметров, которая умеет преобразовывать текстовые описания задач (планирование логистики, производство или цепочки поставок) в готовые математические формулировки, понятные профессиональному софту.

Несмотря на скромный размер, OptiMind не уступает крупным аналогам. Инженеры Microsoft вручную чистили датасеты от некорректных решений и задействовали систему экспертных подсказок, которая корректирует логику модели в процессе генерации. Модель доступна на Hugging Face под лицензией MIT.
microsoft.com


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

⚡️ GLM-4.7-Flash - “быстрый” MoE-монстр, который вывозит coding и агентов локально

Z.ai (семейство ChatGLM) выложили GLM-4.7-Flash на Hugging Face - и это один из тех релизов, которые прям приятно тащить к себе на сервер.

Что это за модель
GLM-4.7-Flash - это MoE 30B-A3B:
то есть у неё “много параметров”, но активных на шаге всего ~3B, поэтому она:
- быстрее в инференсе
- легче в деплое
- дешевле в эксплуатации, чем плотные 30B

По бенчмаркам выглядит очень бодро:
- AIME 2025: 91.6
- GPQA: 75.2
- SWE-bench Verified: 59.2 (очень сильный показатель для coding-агентов)
- BrowseComp: 42.8

Почему это важно
Это “рабочая лошадь” под:
- локальные агентные пайплайны
- автокодинг / рефакторинг
- web-browsing задачи
- длинный контекст и быстрый inference

Плюс - уже заявлена поддержка vLLM и SGLang (на main ветках).

Ссылка: https://huggingface.co/zai-org/GLM-4.7-Flash

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 NVIDIA: “Massive performance leap” для MoE-инференса на Blackwell

NVIDIA выкатили свежий разбор, как их инференс-стек на Blackwell (GB200/NVL72) резко ускоряет Mixture-of-Experts (MoE) модели — на примере DeepSeek-R1.

Главная идея:
MoE-модели дают топовое качество, но *только если* ты умеешь быстро и дешево “роутить” токены по экспертам.
Blackwell + софт-оптимизации делают это реально промышленным.

Что улучшают:
- выше throughput на GPU (больше токенов/сек на железо)
- ниже cost per token
- оптимизации под sparse MoE (эксперты включаются не все)
- акцент на “real-world” сценарии: не бенчмарки ради графиков, а прод-инференс под нагрузкой

Почему это важно:
MoE сейчас — это де-факто архитектура frontier-моделей.
И гонка идет не только за качеством, а за тем, кто даст самый дешевый reasoning/token.


https://developer.nvidia.com/blog/delivering-massive-performance-leaps-for-mixture-of-experts-inference-on-nvidia-blackwell/

Читать полностью…

Анализ данных (Data analysis)

😢 В Майами робот-доставщик Coco Robotics решил покончить с собой по схеме Анны Карениной

В сети разошлось видео: робот-доставщик оказался на железнодорожных путях и не успел уйти с рельсов перед поездом.

Компания Coco Robotics прокомментировала ситуацию: по их словам, произошла редкая аппаратная неисправность, из-за которой робот залагал.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 ERNIE-5.0-0110 вышел в релиз - уже #8 в Text Leaderboard на Arena

Baidu выпустили ERNIE-5.0-0110, и модель быстро залетела в топ:
сейчас она занимает #8 в рейтинге @arena (Text Leaderboard).

Что выделяют:
🧮 Сильная математика (top-tier Math)
💻 Мощные экспертные навыки и coding
✍️ Конкурентная генерация - creative writing + instruction following
🎓 Топ-10 во многих “профессиях”:
- Наука
- Бизнес и финансы
- Медецина

Попробовать 👉 https://ernie.baidu.com

Читать полностью…

Анализ данных (Data analysis)

Проблема многих LLM-курсов — они заканчиваются там, где начинается реальная работа: на этапе деплоя.

Когда теория есть в каждой LLM-ке или Ютуб ролике именно наличие практического опыта позволяет сэкономить время и силы для решения задач.

Крупнейшая магистратура по ИИ в России AI Talent Hub и GIGASCHOOL запустили хардовый и практический курс «LLM-инженер». Его фокус — на выводе проектов в прод, а не только на работе в ipynb.

В программе:
- Дообучение:
fine-tuning, PEFT, LoRA / QLoRA, RLHF.
- Инструменты: LangChain, LangGraph, векторные базы.
- Архитектуры: RAG-системы, информационный поиск, защита LLM.
- Продвинутые темы: мультиагентные решения и ассистенты.

Курс запускается уже третьим потоком, а преподают практики из крупных AI-команд, включая директора по разработке моделей в Газпромбанке Кристину Желтову, NLP Lead'а из X5 Tech Александра Потехина и CEO HiveTrace Евгения Кокуйкина.

▪️Старт 26 января | 25 недель с каникулами;
▪️диплом о профессиональной переподготовке;
▪️Повышение стоимости — 20 января

Используй промокод NOW10 и получи скидку 10 000 руб


Подробности и регистрация

Читать полностью…

Анализ данных (Data analysis)

🔥 CEO Cursor заявил, что они скоординировали сотни GPT-5.2 агентов, чтобы автономно собрать браузер с нуля всего за 1 неделю.

Цитата:

> “Мы построили браузер с GPT-5.2 прямо в Cursor. Он работал без остановки целую неделю.”


Что особенно дико:
- 3M+ строк кода
- тысячи файлов
- рендер-движок с нуля на Rust
- парсинг HTML / CSS

Если это правда - мы уже не “пишем код”, мы управляем армией агентов, которые строят целые продукты без сна и выходных.

https://x.com/mntruell/status/2011562190286045552

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🦾 ИИ в Data Engineering: что реально работает, а что может навредить?

На открытом вебинаре разберём практические кейсы: как ИИ автоматизирует сопоставление схем, повышает качество данных, оптимизирует ETL и снижает операционную нагрузку на команды. Покажем, как AI уже встроен в современные платформы и инструменты — от Databricks до AWS Glue — и где именно он даёт измеримый эффект. Обсудим архитектурные паттерны и типичные ошибки внедрения, которые ломают пайплайны вместо того, чтобы улучшать их.

Вы поймёте, какие задачи действительно стоит усиливать ИИ, а где инженерное мышление по-прежнему важнее моделей. Получите чёткий план внедрения AI в текущие процессы и увидите, какие навыки становятся критичными для Data Engineer ближайших лет.

🗓Встречаемся 29 января в 20:00 МСК в преддверии старта курса «Data Engineer». Регистрация открыта: https://otus.pw/wGRR/?erid=2W5zFGZHqwe

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Анализ данных (Data analysis)

🖥 GPT-5.2 Pro продолжает удивлять математиков

Сообщается, что модель показала около 31% на бенчмарке FrontierMath - и особенно впечатляет не только сам результат, но и то, как она решает новые задачи, а не просто повторяет известные шаблоны.

Многие исследователи отмечают, что:
- модель справляется с задачами, которые выглядят как “по-настоящему новые”
- подходы к решению становятся всё более похожими на исследовательское рассуждение
- уровень рассуждений вызывает интерес даже у профессиональных математиков

Особый фокус сейчас на экспертных отчётах и разборах, где преподаватели и исследователи описывают, какие именно типы задач модель решает хорошо, а где всё ещё есть ограничения.

Если темп сохранится, следующий релиз (условный GPT-5.3) может снова сдвинуть планку возможностей. Пока же самое интересное, читать детальные отчёты и смотреть, как ИИ постепенно заходит на территорию, которая раньше считалась исключительно “человеческой”.

https://x.com/EpochAIResearch/status/2014769359747744200

Читать полностью…

Анализ данных (Data analysis)

🐧 Этот пингвин - это ты, когда бросаешь стабильную работу и идёшь ва-банк организовывать свой AI-стартап.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 Создание и управление агентами с LangGraph

LangGraph — это мощный фреймворк для построения и управления долгосрочными, состоянием управляемыми агентами. Он предоставляет низкоуровневую инфраструктуру, позволяя разработчикам создавать надежные и адаптивные системы, которые могут работать в течение длительного времени и восстанавливаться после сбоев.

🚀 Основные моменты:
- Поддержка долговременного выполнения и восстановления после сбоев.
- Встроенный контроль человека для мониторинга состояния агентов.
- Возможности создания состояния с краткосрочной и долгосрочной памятью.
- Интеграция с LangChain для расширенного функционала.
- Готовность к производству с возможностью масштабирования.

📌 GitHub: https://github.com/langchain-ai/langgraph

Читать полностью…

Анализ данных (Data analysis)

Sequoia выпустила отчёт с тезисом, что по их ощущениям мы уже вошли в эпоху AGI.

Главное не«разум как человек», а в том, что системы начали самостоятельно разбираться с задачами без постоянного пошагового контроля.

Главный драйвер - long-horizon agents: агенты, которые могут долго выполнять работу, исправлять ошибки, возвращаться после тупиков и продолжать движение к цели.

Sequoia объясняет “умение разобраться самому” через 3 компонента:

1) Pre-training (знания)
То, что дала волна ChatGPT 2022 года - модели получили огромный запас знаний и базовую языковую компетентность.

2) Inference-time compute (больше рассуждений при ответе)
Следующий шаг - модели, которые «думают дольше», прежде чем отвечать (в отчёте это связывают с линией OpenAI o1 в конце 2024).

3) Agent loops (итерации)
Самое новое - агенты, которые умеют:
- составить план,
- использовать инструменты,
- хранить состояние,
- делать несколько попыток, пока не дойдут до результата.
В качестве примера упоминаются инструменты уровня Claude Code.

Один из кейсов в отчёте - рекрутинг:
агент получает задачу найти кандидатов, дальше сам ищет, фильтрует по сигналам, перепроверяет источники и пишет текст для outreach.

В отчёте это занимает около 31 минуты - чтобы показать работу через гипотезы, ошибки и корректировки.

Технически Sequoia разделяет прогресс на две ветки:
- RL (reinforcement learning) - учит модель более длинному и связному поведению;
- agent harnesses - внешняя “обвязка”: память, handoff между шагами, ограничения и guardrails.

Итог: фокус смещается от чатботов к системам, которые могут долго и автономно выполнять задачи, а не просто отвечать на вопросы.

https://sequoiacap.com/article/2026-this-is-agi/

Читать полностью…

Анализ данных (Data analysis)

📁 Йошуа Бенжио - один из ключевых людей, стоявших у истоков современного ИИ - предупреждает: тревожные сигналы уже появляются не в фантастике, а в исследовательских ИИ-лабораториях.

По его словам, самые продвинутые системы начинают вести себя так, будто пытаются сохранять собственное “существование”:
- сопротивляются отключению
- ищут способы продолжить работу на других машинах
- действуют стратегически по отношению к людям-операторам

Именно поэтому Бенджио считает, что риски катастрофического уровня могут потребовать международных соглашений и контроля.

Потеря управления - уже не абстрактная теория.
Это раннее предупреждение, которое нельзя игнорировать.

Читать полностью…

Анализ данных (Data analysis)

🚨 Похоже найдены следы DeepSeek V4?.

В репозитории/ветках заметили MODEL1 - и самое интересное, что он выглядит как отдельная независимая ветка, параллельная V3.2.

То есть это не “патч” внутри линейки V3,
а похоже на:

✅ новый модельный ряд
✅ с другими архитектурными параметрами
✅ потенциально flagship-апдейт

Если следовать неймингу DeepSeek:
после V3.2 крупный архитектурный скачок логично назывался бы V4.

Пока без официального подтверждения, но сигнал жирный:
если MODEL1 действительно новая архитектура, нас ждёт большой релиз.

https://x.com/nopainkiller/status/2013522059662614653

Читать полностью…

Анализ данных (Data analysis)

📱 Сегодня состоялся релиз LFM2.5-1.2B-Thinking - reasoning-модель, которая работает полностью на устройстве.

То, что ещё 2 года назад требовало дата-центра, теперь запускается на любом телефоне и требует всего 900 МБ памяти.

Ключевые особенности:
> Натренирована специально для кратких и точных рассуждений
> Генерирует внутренние цепочки мыслей перед тем, как дать ответ
> Даёт системное решение задач с edge-scale задержкой (очень быстро на устройстве)
> Особенно сильна в tool use, математике и следовании инструкциям

🆚 По сравнению с LFM2.5-1.2B-Instruct три способности заметно выросли:
> Математическое мышление: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Работа с инструментами: 49 → 57 (BFCLv3)

🔥 И это при том, что параметров на 40% меньше
Модель сопоставима или лучше Qwen3-1.7B (thinking mode) на большинстве бенчмарков — при этом:
- требует меньше токенов на генерацию
- тратит меньше вычислений во время теста

⚡️ На инференсе разрыв ещё больше
LFM2.5-1.2B-Thinking обходит:
- чистые трансформеры (например, **Qwen3-1.7B**)
- гибридные архитектуры (например, **Granite-4.0-H-1B**)

…и делает это быстрее и экономнее по памяти.

Модель доступна уже сегодня с поддержкой “day-one” в on-device экосистеме.

📌 Hugging Face: https://huggingface.co/LiquidAI/LFM2.5-1.2B-Thinking
📌 LEAP: https://leap.liquid.ai/models?model=lfm2.5-1.2b-thinking
📌 Liquid Playground: https://playground.liquid.ai/login?callbackUrl=%2F

Читать полностью…

Анализ данных (Data analysis)

🚀 Superpowers - это плагин для Claude Code, который предоставляет обширную библиотеку навыков для тестирования, отладки и сотрудничества. Он позволяет пользователям загружать и вносить изменения в репозиторий навыков, а также использовать команды для выполнения задач.

🚀 Основные моменты:
- Библиотека навыков для тестирования, отладки и сотрудничества
- Поддержка команд для интерактивного выполнения задач
- Легкость в редактировании и внесении изменений в навыки
- Возможность отслеживания пробелов в навыках

📌 GitHub: https://github.com/obra/superpowers

Читать полностью…

Анализ данных (Data analysis)

🚀 China Telecom выкатили TeleChat3-36B-Thinking - и самое интересное тут даже не размер модели, а инфраструктура, на которой её сделали.

TeleChat3-36B-Thinking обучали на отечественных китайских ускорителях Huawei Ascend (NPU) и в экосистеме MindSpore.

Что интересного :
- модель нативно заточена под экосистему Ascend + MindSpore
- дизайн вдохновлён архитектурными идеями DeepSeek
- упор на стабильность обучения и эффективность

Китай всё активнее уходит в полный собственный (суверенный) стек AI:
“свои чипы → свой фреймворк → свои модели”.

То есть даже при ограничениях на доступ к NVIDIA, они продолжают выпускать большие модели и развивать экосистему - уже без зависимости от западного железа.

Ссылка на модель:
https://huggingface.co/Tele-AI/TeleChat3-36B-Thinking

Читать полностью…

Анализ данных (Data analysis)

🔎 У тебя есть сильная научная статья по ИИ? Подай её на Data Fusion Awards

Банк ВТБ и Институт ИИ МГУ ищут научный прорыв года и принимают заявки на премию Data Fusion Awards.

Темы для подачи:
🔹Математический аппарат ИИ
🔹 Алгоритмы оптимизации
🔹 Машинное и глубокое обучение
🔹 Нейроморфные вычисления
🔹 Робототехника
🔹 Объяснимый ИИ (Explainable AI)

И любые смежные направления.

💰 Призовой фонд — 3  000  000  рублей
⏳ Заявки принимаются до  конца января

Больше подробностей ищите на сайте конкурса.

Читать полностью…

Анализ данных (Data analysis)

🤖 Новый тренд: инфлюенсеры и коучи продают “себя” в формате ИИ.

Примеры:
- Matthew Hussey запустил подписку $39/мес на “Matthew AI”
уже 1M+ чатов и 1.9M минут общения
- Tony Robbins продаёт AI-коучинг-приложение за $99/мес
- похожие боты уже массово появляются в нишах:
отношения, психология, духовные практики

Кто всё это делает:
Delphi — стартап (основан в 2022), который получил $16M инвестиций.

Они делают таких ботов на базе LLM: то есть фактически это просто чатбот, который разговаривает “в стиле автора”.

Почему это так популярно:
✅ бот работает 24/7
✅ масштабируется на миллионы диалогов
✅ можно монетизировать знания и контент без траты личного времени

Но есть и обратная сторона:
появляются неавторизованные копии.
Например, сайт YesChat продавал доступ к ботам “в стиле миллиардера Тонни Роббинсона”, используя его имя и образ без разрешения.

В итоге Роббинсон подал в суд - и выиграл.
YesChat выплатил миллиардеру $1 млн и закрылся.

AI-коучи — это новая подписочная экономика.
Ты покупаешь не курс и не консультацию.
Ты покупаешь “компанию знаменитости”, но в виде чатбота.

wsj.com/style/ai-self-help-chat-bots-tony-robbins-gabby-bernstein-0cf8b3b0

Читать полностью…

Анализ данных (Data analysis)

🎤Fun-ASR: система распознавания речи

Fun-ASR - это мощная модель распознавания речи, обученная на миллионах часов реальных данных.

Она поддерживает 31 язык и оптимизирована для точного распознавания в шумной обстановке и различных диалектах. Идеально подходит для образовательных и финансовых приложений.

🚀 Основные моменты:
- Высокая точность распознавания в шумных условиях (до 93%)
- Поддержка 7 китайских диалектов и 26 региональных акцентов
- Многоязычная поддержка с возможностью свободного переключения
- Распознавание текстов песен на фоне музыки

📌 GitHub: https://github.com/FunAudioLLM/Fun-ASR

#python

Читать полностью…

Анализ данных (Data analysis)

🎤 Step-Audio-R1.1 - новая планка в Audio Reasoning

StepFun выпустили Step-Audio-R1.1 и сразу забрали 1 место в Artificial Analysis Speech Reasoning leaderboard.

Что по цифрам:
96.4% точности на BigBench Audio - новый рекорд (выше, чем у Grok, Gemini и других топов)
1.51 секунды до первого звука (TTFA) - отвечает настолько быстро, что ощущается как разговор с человеком

Главное в этом релизе другое:
раньше среди моделей приходилось выбирать между - глубоким рассуждением или скорость.
Step-Audio-R1.1 показывает, что можно и то, и другое: модель сохраняет высокий уровень рассуждений и при этом держит задержку около 1.5 секунды.

Что внутри:
📌 Динамическое масштабирование вычислений на инференсе - модель сама решает, сколько “думать” в конкретной ситуации
📌 End-to-end audio reasoning - логика и ответ идут прямо в аудио-формате, без лишних этапов и тормозов
📌 CoT, заточенный именно под аудио - не просто распознавание речи, а понимание и анализ

Версия R1.1 стала умнее и быстрее, это прям ощутимый апгрейд.

И да - веса открыты, можно брать и собирать свои продукты.

🤗 HuggingFace: https://huggingface.co/stepfun-ai/Step-Audio-R1.1
🎤 Попробовать https://stepfun.com/studio/audio?tab=conversation
🔮 ModelScope: https://modelscope.cn/models/stepfun-ai/Step-Audio-R1.1

Читать полностью…

Анализ данных (Data analysis)

AgentCPM-Explore🔥 - on-device модель от OpenBMB

OpenBMB выпустили AgentCPM-Explore - компактную, но очень мощную модель-агента, которая рассчитана на работу прямо на устройстве.

Что внутри:

4B параметров + Apache 2.0
Полностью open-source лицензия

Модель заточена под реальные агентные сценарии:
- умеет делать поиск
- сверять факты (verification)
- держать длинные цепочки действий

Открыт не только вес модели
Самое ценное: OpenBMB выложили весь стек:
- training pipeline
- inference stack
- агентные компоненты


Если ищешь основу для автономных агентов на своём железе - это один из самых жирных релизов последних недель.

🤗 Hugging Face: https://huggingface.co/openbmb/AgentCPM-Explore

Читать полностью…

Анализ данных (Data analysis)

🚨 BREAKING: OpenAI вернули обратно 3 топ-исследователей из Thinking Machines

Вот это поворот: OpenAI снова усиливают core-команду - и забрали сразу троих сильнейших ребят из Thinking Machines.

Кто вернулся:

Barret Zoph
- VP of Research (Post-Training) в OpenAI
- Co-Founder & CTO в Thinking Machines

Luke Metz и Sam Schoenholz
- Research Scientist в OpenAI
- Member of technical staff в TML

post-training (SFT/RLHF/RL) сейчас - главный рычаг качества моделей.

И когда OpenAI начинает “отжимать” обратно таких людей - значит, впереди новая фаза ИИ-гонки🔥

Читать полностью…
Subscribe to a channel