data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

🤖 ИИ превращает учёных в “конвейеры по выпуску статей”

Интересное наблюдение: AI-инструменты реально ускоряют карьеру учёных, но могут убить научное любопытство.

Что показало исследование (анализ 40+ миллионов научных работ): учёные, которые внедряют ИИ, в среднем:

📈 публикуют в 3 раза больше статей
⭐ получают почти в 5 раз больше цитирований
🏁 становятся тимлидами на 1-2 года раньше, чем те, кто ИИ не использует

То есть AI - это прямой буст:
скорость, видимость, карьера.

Но есть обратная сторона.

Минус:
наука может становиться менее “живой”.
AI-подход приводит к тому, что исследователи чаще:
- уходят в более узкие темы
- крутятся вокруг одних и тех же data-heavy задач
- вызывают меньше follow-up исследований (меньше новых веток и продолжений)

Итог парадоксальный:
👤 карьера учёного ускоряется
🧪 а научное открытие в среднем становится более “плоским”

ИИ увеличивает производительность.
Но вопрос остаётся: не снижает ли он разнообразие идей и риск ради настоящих прорывов?

spectrum. ieee.org/amp/ai-science-research-flattens-discovery-2674892739

Читать полностью…

Анализ данных (Data analysis)

🚀 Step-DeepResearch - новый уровень AI-исследований

Команда Step представила Step-DeepResearch - end-to-end агент для глубоких исследований. Их главный тезис звучит мощно: поиск ≠ исследование.

Пока многие делают «умные веб-краулеры», здесь попытались воспроизвести мышление эксперта, а не просто сбор ссылок.

Что внутри

🧠 Архитектура
- Переход от *next-token prediction* к next-action decisioning - модель решает, какое действие делать дальше, а не просто генерирует текст
- Встроенная самокорректирующаяся логика - адаптивное планирование и проверка информации между источниками
- Без зоопарка из агентов - один, но эффективный агент, без multi-agent оверхеда

📚 Данные и поиск
- Поиск опирается на 20M+ научных работ
- 600+ премиальных индексов
- Фокус на качестве источников, а не на количестве веб-страниц

Метрики

🔥 61.42% на Research Rubrics - уровень Gemini, выше показателей OpenAI в этом бенчмарке
🔥 67.1% Win/Tie на ADR-Bench против топовых моделей
🔥 Отдельно отмечают качество цитирования и коммуникации - слабое место многих AI-агентов

Идея проста:
лучшее качество исследований, сильные ссылки и более доступная цена.

Бета уже запущена. Это шаг к тому, чтобы AI был не просто ассистентом, а полноценным исследовательским движком.

API Beta Access: https://wvixbzgc0u7.feishu.cn/share/base/form/shrcn8CP78PJgkjvvIh2C3EF3cc
Homepage: https://stepfun.ai/deep-research-invitation
Technical report: https://arxiv.org/pdf/2512.20491
Github: https://github.com/stepfun-ai/StepDeepResearch

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🎙 OpenBMB выложили в open-source веса VoxCPM - с real-time стримингом и LoRA fine-tuning

Модель работает примерно с 0.15 real-time factor на одной RTX 4090 - то есть очень быстро.

Самое интересное: VoxCPM фактически убирает токенизацию из TTS.

Вместо того чтобы переводить аудио в дискретные токены, модель генерирует непрерывную речь напрямую.
Это убирает “токенные артефакты” и лучше сохраняет:
- интонацию
- темп речи
- эмоции и просодию

Технически:
• End-to-end diffusion + autoregressive генерация
• Непрерывные акустические представления
• Без узких мест типа фонем и codec-токенов

🧬 Клонирование голоса - буквально по нескольким секундам аудио

Достаточно короткого референса, и модель переносит:
- акцент
- ритм
- тембр
- паузы и тайминг

Возможности:
• Zero-shot voice cloning
• Без обучения под конкретного спикера
• Работает в режиме streaming

⚡ Быстро и легко тюнится
Стриминг идёт чанками с задержкой меньше секунды.
А через LoRA fine-tuning можно адаптировать голоса без полного переобучения модели.

https://github.com/OpenBMB/VoxCPM

Читать полностью…

Анализ данных (Data analysis)

⚡️ ERNIE 5.0 - официальный релиз.

Baidu выкатили нативную omni-modal модель, которая умеет понимать и генерировать текст, изображения и аудио.

Ключевая фишка архитектуры - MoE на 2,4 трлн параметров, но в каждом запросе активируется менее 3% параметров.

То есть модель пытается держать качество “больших” систем, но с более эффективным инференсом по стоимости и скорости.

Самое интересное - результаты на бенчмарках (по графикам Baidu):

- Text: ERNIE-5.0 уверенно держится в топ-группе на широком наборе тестов по знаниям, инструкциям, reasoning, математике и коду - на многих метриках близко к GPT-5 (High) / Gemini-3-Pro, а местами выглядит сильнее (особенно на части задач по кодингу и агентным бенчмаркам типа BFCL / BrowserComp / SpreadsheetBench).
- Visual Understanding: по “пониманию картинок” ERNIE-5.0 в ряде STEM/VQA тестов идёт очень высоко - рядом с GPT-5 (High) и Gemini-3-Pro, хорошо выступает на DocVQA/OCR-подобных задачах (документы, таблицы, текст на изображениях) и на блоке General VQA.
- Audio: в speech-to-text chat и audio understanding ERNIE-5.0 показывает конкурентный уровень рядом с Gemini-3-Pro, а по распознаванию речи (ASR) близко к топам на LibriSpeech / AISHELL.
- Visual Generation: по генерации изображений (GenEval) ERNIE-5.0 сравнивают с топовыми генераторами уровня GPT-Image, Seedream, Qwen-Image - и ERNIE выглядит на одном уровне по total score. По генерации видео - рядом с Veo3 / Wan2.1 / Hunyuan Video, с сильными Quality/Semantic оценками.

Baidu делает ставку на “унифицированную мультимодальность” + MoE-эффективность - и судя по бенчмаркам, ERNIE 5.0 реально попадает в верхнюю лигу не только по тексту, но и по vision/audio.

Доступно:
- на сайте ERNIE Bot
- через Baidu AI Cloud Qianfan (для бизнеса и разработчиков)

https://ernie.baidu.com

Читать полностью…

Анализ данных (Data analysis)

Навыки аналитики выходит за рамки одной профессии

Работа с данными становится частью разных ролей: от маркетинга до управления продуктами.
Поэтому аналитические навыки ценятся не только у дата-специалистов.

На программе «Аналитика данных» от МФТИ и Нетологии вы последовательно разберёте весь путь работы с данными: от сбора и обработки до анализа и визуализации. В программе — Python, базы данных и базовые методы ИИ.

Обучение проходит онлайн и подойдёт тем, кто хочет войти в аналитику или систематизировать знания. После выпуска вы получаете дипломы МФТИ и Нетологии и готовое портфолио проектов.

Начать учиться → https://netolo.gy/ew7j

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5xDB9UM

Читать полностью…

Анализ данных (Data analysis)

🚀 Вышла Chroma 1.0 - полностью открытая speech-to-speech модель с клонированием голоса

Команда FlashLabs выпустила Chroma 1.0 - первую open-source модель, которая умеет переводить диалог “голос → голос” в реальном времени, причём с клонированием голоса.

Главное:
это не “распознавание + текст + озвучка”.
Это end-to-end система, где разговор идёт напрямую голосом.

Что обещают по характеристикам:
- ⚡️ <150 мс задержка end-to-end (почти как живой звонок)
- 🧬 качественный voice cloning по нескольким секундам аудио
- 📈 схожесть голоса SIM = 0.817 (практически идентичный)
- 🧠 reasoning всего на 4B параметров
- 🔓 полностью открытые веса + код

И приятный бонус: модель уже оптимизирована под SGLang (LMSYS), чтобы работала быстрее и дешевле в инференсе.

Если это действительно так, то Chroma может стать реальной open-source альтернативой закрытым голосовым системам.

Paper: https://modelscope.cn/papers/2601.11141
Model: https://modelscope.cn/models/FlashLabs/Chroma-4B
Code: https://huggingface.co/FlashLabs/Chroma-4B

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🌐 Хотите настроить эффективное рабочее окружение для машинного обучения на своем компьютере?

📌22 января в 18:00 МСК Открытый урок курса «Machine Learning» о том, как правильно организовать инструменты ML-инженера!

👍 Что вас ждет на вебинаре?
- Разберем основные компоненты локального окружения: Python, виртуальные среды, Jupyter.
- Покажем настройку VS Code для работы с ML-проектами.
- Продемонстрируем организацию структуры ML-проекта и работу с зависимостями.

⌨️ Кому будет полезно?
- Начинающим ML-инженерам, которые хотят настроить профессиональное окружение с нуля.
- Data Scientists, переходящим от Jupyter Notebook к полноценной разработке.
- Разработчикам, желающим начать работу с машинным обучением.

💻 Что вы узнаете по итогам вебинара?
- Как установить и настроить Python-окружение для ML-задач;
- Как организовать работу с зависимостями через pip и uv;
- Как структурировать код ML-проекта для удобной разработки.

Создайте удобное локальное окружение – фундамент для эффективной работы ML-инженера!

Зарегистрироваться:
https://otus.pw/s8Ro/

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963

Читать полностью…

Анализ данных (Data analysis)

⚡️Пошаговый план: как получить оффер на аналитика в 2026 году?

Приглашаем на бесплатный вебинар, где Андрон Алексанян - эксперт в области аналитики и CEO школы аналитики Simulative — в прямом эфире разберет все важные аспекты в работе аналитика, а также расскажет как получить оффер быстрее других.

Это очень полезное событие для тех кто только зашел в аналитику и для тех, кто хочет в нее зайти в ближайшее время. Особенно если вы не понимаете, какие навыки действительно важны или боитесь, что без опыта вас не возьмут на работу. Кстати тут разберут и возрастной аспект: как стать аналитиком в 30/40/50 лет и т.д.

На вебинаре будет:
🟠Разберем полный роадмап: что учить, в каком порядке, до какого уровня;
🟠Структура хорошего портфолио с примерами;
🟠Что говорят реальные наниматели - какие у них сейчас требования:

— Покажем реальные примеры, как оформить резюме и портфолио, чтобы привлекать внимание;
— Обсудим какие отклики работают, а какие сразу отправляют в корзину;
— Изнанка найма: инсайдерский взгляд на процессы отбора

🟠 Практические техники для новичков: разберём, как компенсировать недостаток опыта и быстро закрывать пробелы в знаниях.

💬 Всем зарегистрировавшимся Simulative пришлют полезный материал — карту компетенций аналитика данных со всеми нужными инструментами для освоения.

😶Зарегистрироваться на бесплатный вебинар

Читать полностью…

Анализ данных (Data analysis)

✔️ Nvidia запрашивала у пиратов доступ к массиву книг для обучения ИИ.

В обновленном коллективном иске против Nvidia всплыли неожиданные подробности: техногигант напрямую контактировал с крупнейшей теневой библиотеки Anna’s Archive. Согласно судебным документам, инженеры компании искали способ получить приоритетный доступ к массиву данных книг, чтобы ускорить обучение своих языковых моделей.

Ситуация выглядит парадоксально: авторы иска утверждают, что Anna’s Archive предупреждал Nvidia о нелегальном характере контента. Однако менеджмент Nvidia, ссылаясь на конкурентное давление и острую нехватку качественных текстов, дал добро на скачивание.

Речь шла о передаче 500 Тб информации, включающие материалы из LibGen и Sci-Hub, которые Nvidia планировала использовать для тренировки своих моделей.
torrentfreak.com

✔️ OpenAI научила ChatGPT вычислять возраст пользователей по их поведению.

OpenAI внедряет предиктивный анализ системы защитных фильтров для подростков. Алгоритм оценивает не только данные, указанные при регистрации, но и косвенные признаки: время активности в чате, историю аккаунта и поведенческие паттерны.

Если нейросеть решит, что перед ней несовершеннолетний, ChatGPT ограничит генерацию взрослого контента, а в случае ошибочного срабатывания - придется подтверждать возраст через сервис Persona с помощью селфи.

Это часть новой стратегии по ослаблении цензуры для взрослой аудитории, которая откроет доступ к материалам, ранее заблокированным для всех. Первыми новую механику опробуют пользователи из ЕС уже в ближайшие недели.
openai.com

✔️ Anthropic: страхи о тотальной замене людей пока преувеличены.

В свежем Economic Index Repot Anthropic выяснила, что ИИ берет на себя около четверти задач в половине всех профессий, но полное замещение сотрудников происходит менее чем в 10% компаний. Основной паттерн использования сместился от автоматизации к сотрудничеству.

В топе сценариев по-прежнему лидирует кодинг, однако характер работы изменился. Разработчики все чаще используют Claude не для генерации кода с нуля, а для обучения, получения фидбека и доработки решений.

Главный риск касается новичков. ИИ забрал на себя всю рутину, на которой традиционно набивали руку джуны и это создает проблему: продуктивность сеньоров растет, но у молодых специалистов исчезает полигон для получения первичного опыта.
anthropic.com

✔️ Manus автоматизировал сборку и доставку приложений в сторы.

Платформа представила функцию паблишинга, которая берет на себя техническую рутину по развертыванию приложений. Инструмент не только компилирует код, но и полностью автоматизирует подготовку тестовых окружений для iOS и Android.

Для Android система генерирует готовый AAB-файл, который остается лишь загрузить в Google Play Console. С Apple интеграция еще глубже: Manus самостоятельно создает запись приложения в аккаунте разработчика, упаковывает сборку и отправляет ее в App Store Connect на ревью в TestFlight. Функция уже открыта для всех пользователей с доступом к Develop Apps.
manus.im

✔️ Microsoft представила компактную модель для перевода бизнес-задач на язык математики.

OptiMind — MoE-модель с 20B/3.6A параметров, которая умеет преобразовывать текстовые описания задач (планирование логистики, производство или цепочки поставок) в готовые математические формулировки, понятные профессиональному софту.

Несмотря на скромный размер, OptiMind не уступает крупным аналогам. Инженеры Microsoft вручную чистили датасеты от некорректных решений и задействовали систему экспертных подсказок, которая корректирует логику модели в процессе генерации. Модель доступна на Hugging Face под лицензией MIT.
microsoft.com


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

⚡️ GLM-4.7-Flash - “быстрый” MoE-монстр, который вывозит coding и агентов локально

Z.ai (семейство ChatGLM) выложили GLM-4.7-Flash на Hugging Face - и это один из тех релизов, которые прям приятно тащить к себе на сервер.

Что это за модель
GLM-4.7-Flash - это MoE 30B-A3B:
то есть у неё “много параметров”, но активных на шаге всего ~3B, поэтому она:
- быстрее в инференсе
- легче в деплое
- дешевле в эксплуатации, чем плотные 30B

По бенчмаркам выглядит очень бодро:
- AIME 2025: 91.6
- GPQA: 75.2
- SWE-bench Verified: 59.2 (очень сильный показатель для coding-агентов)
- BrowseComp: 42.8

Почему это важно
Это “рабочая лошадь” под:
- локальные агентные пайплайны
- автокодинг / рефакторинг
- web-browsing задачи
- длинный контекст и быстрый inference

Плюс - уже заявлена поддержка vLLM и SGLang (на main ветках).

Ссылка: https://huggingface.co/zai-org/GLM-4.7-Flash

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 NVIDIA: “Massive performance leap” для MoE-инференса на Blackwell

NVIDIA выкатили свежий разбор, как их инференс-стек на Blackwell (GB200/NVL72) резко ускоряет Mixture-of-Experts (MoE) модели — на примере DeepSeek-R1.

Главная идея:
MoE-модели дают топовое качество, но *только если* ты умеешь быстро и дешево “роутить” токены по экспертам.
Blackwell + софт-оптимизации делают это реально промышленным.

Что улучшают:
- выше throughput на GPU (больше токенов/сек на железо)
- ниже cost per token
- оптимизации под sparse MoE (эксперты включаются не все)
- акцент на “real-world” сценарии: не бенчмарки ради графиков, а прод-инференс под нагрузкой

Почему это важно:
MoE сейчас — это де-факто архитектура frontier-моделей.
И гонка идет не только за качеством, а за тем, кто даст самый дешевый reasoning/token.


https://developer.nvidia.com/blog/delivering-massive-performance-leaps-for-mixture-of-experts-inference-on-nvidia-blackwell/

Читать полностью…

Анализ данных (Data analysis)

😢 В Майами робот-доставщик Coco Robotics решил покончить с собой по схеме Анны Карениной

В сети разошлось видео: робот-доставщик оказался на железнодорожных путях и не успел уйти с рельсов перед поездом.

Компания Coco Robotics прокомментировала ситуацию: по их словам, произошла редкая аппаратная неисправность, из-за которой робот залагал.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 ERNIE-5.0-0110 вышел в релиз - уже #8 в Text Leaderboard на Arena

Baidu выпустили ERNIE-5.0-0110, и модель быстро залетела в топ:
сейчас она занимает #8 в рейтинге @arena (Text Leaderboard).

Что выделяют:
🧮 Сильная математика (top-tier Math)
💻 Мощные экспертные навыки и coding
✍️ Конкурентная генерация - creative writing + instruction following
🎓 Топ-10 во многих “профессиях”:
- Наука
- Бизнес и финансы
- Медецина

Попробовать 👉 https://ernie.baidu.com

Читать полностью…

Анализ данных (Data analysis)

Проблема многих LLM-курсов — они заканчиваются там, где начинается реальная работа: на этапе деплоя.

Когда теория есть в каждой LLM-ке или Ютуб ролике именно наличие практического опыта позволяет сэкономить время и силы для решения задач.

Крупнейшая магистратура по ИИ в России AI Talent Hub и GIGASCHOOL запустили хардовый и практический курс «LLM-инженер». Его фокус — на выводе проектов в прод, а не только на работе в ipynb.

В программе:
- Дообучение:
fine-tuning, PEFT, LoRA / QLoRA, RLHF.
- Инструменты: LangChain, LangGraph, векторные базы.
- Архитектуры: RAG-системы, информационный поиск, защита LLM.
- Продвинутые темы: мультиагентные решения и ассистенты.

Курс запускается уже третьим потоком, а преподают практики из крупных AI-команд, включая директора по разработке моделей в Газпромбанке Кристину Желтову, NLP Lead'а из X5 Tech Александра Потехина и CEO HiveTrace Евгения Кокуйкина.

▪️Старт 26 января | 25 недель с каникулами;
▪️диплом о профессиональной переподготовке;
▪️Повышение стоимости — 20 января

Используй промокод NOW10 и получи скидку 10 000 руб


Подробности и регистрация

Читать полностью…

Анализ данных (Data analysis)

🔥 CEO Cursor заявил, что они скоординировали сотни GPT-5.2 агентов, чтобы автономно собрать браузер с нуля всего за 1 неделю.

Цитата:

> “Мы построили браузер с GPT-5.2 прямо в Cursor. Он работал без остановки целую неделю.”


Что особенно дико:
- 3M+ строк кода
- тысячи файлов
- рендер-движок с нуля на Rust
- парсинг HTML / CSS

Если это правда - мы уже не “пишем код”, мы управляем армией агентов, которые строят целые продукты без сна и выходных.

https://x.com/mntruell/status/2011562190286045552

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

Почему модель с точностью 99% может оказаться бесполезной

Знакомая ситуация: вы обучили модель, она показывает отличные результаты на обучающей выборке, вы радуетесь. А потом запускаете её на новых данных — и она промахивается мимо всего. Это называется переобучение, и это одна из самых частых проблем в машинном обучении.

Суть вот в чём: модель не научилась находить закономерности. Она просто запомнила обучающую выборку целиком — вместе с шумом, выбросами и случайными совпадениями. Представьте студента, который выучил ответы на все вопросы из сборника, но не понял саму тему. На экзамене ему попадаются новые задачи — и он проваливается.

С моделью происходит то же самое. Она подстраивает свои параметры так, чтобы идеально описать каждую точку в обучающей выборке. В итоге она становится слишком сложной и теряет способность обобщать.

И вот тут начинается математика. Чтобы бороться с переобучением, нужно понимать, как оно возникает. Есть регуляризация — это когда мы добавляем в функцию ошибки штраф за слишком большие веса. Есть ранняя остановка — когда мы прекращаем обучение до того, как модель успеет запомнить данные. Но чтобы всё это правильно применять, нужно понимать, почему это работает.

Канал «Зачем мне эта математика» как раз про это. Там разбирают, как устроены модели изнутри, почему они ломаются и как это чинить. Без занудства, на понятных примерах.

Подписывайтесь!

Реклама. ООО «ФРОМ СКРЭТЧ», ИНН 9724205560, erid: 2Vtzqvye6My

Читать полностью…

Анализ данных (Data analysis)

🖥 GPT-5.2 Pro продолжает удивлять математиков

Сообщается, что модель показала около 31% на бенчмарке FrontierMath - и особенно впечатляет не только сам результат, но и то, как она решает новые задачи, а не просто повторяет известные шаблоны.

Многие исследователи отмечают, что:
- модель справляется с задачами, которые выглядят как “по-настоящему новые”
- подходы к решению становятся всё более похожими на исследовательское рассуждение
- уровень рассуждений вызывает интерес даже у профессиональных математиков

Особый фокус сейчас на экспертных отчётах и разборах, где преподаватели и исследователи описывают, какие именно типы задач модель решает хорошо, а где всё ещё есть ограничения.

Если темп сохранится, следующий релиз (условный GPT-5.3) может снова сдвинуть планку возможностей. Пока же самое интересное, читать детальные отчёты и смотреть, как ИИ постепенно заходит на территорию, которая раньше считалась исключительно “человеческой”.

https://x.com/EpochAIResearch/status/2014769359747744200

Читать полностью…

Анализ данных (Data analysis)

🐧 Этот пингвин - это ты, когда бросаешь стабильную работу и идёшь ва-банк организовывать свой AI-стартап.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 Создание и управление агентами с LangGraph

LangGraph — это мощный фреймворк для построения и управления долгосрочными, состоянием управляемыми агентами. Он предоставляет низкоуровневую инфраструктуру, позволяя разработчикам создавать надежные и адаптивные системы, которые могут работать в течение длительного времени и восстанавливаться после сбоев.

🚀 Основные моменты:
- Поддержка долговременного выполнения и восстановления после сбоев.
- Встроенный контроль человека для мониторинга состояния агентов.
- Возможности создания состояния с краткосрочной и долгосрочной памятью.
- Интеграция с LangChain для расширенного функционала.
- Готовность к производству с возможностью масштабирования.

📌 GitHub: https://github.com/langchain-ai/langgraph

Читать полностью…

Анализ данных (Data analysis)

Sequoia выпустила отчёт с тезисом, что по их ощущениям мы уже вошли в эпоху AGI.

Главное не«разум как человек», а в том, что системы начали самостоятельно разбираться с задачами без постоянного пошагового контроля.

Главный драйвер - long-horizon agents: агенты, которые могут долго выполнять работу, исправлять ошибки, возвращаться после тупиков и продолжать движение к цели.

Sequoia объясняет “умение разобраться самому” через 3 компонента:

1) Pre-training (знания)
То, что дала волна ChatGPT 2022 года - модели получили огромный запас знаний и базовую языковую компетентность.

2) Inference-time compute (больше рассуждений при ответе)
Следующий шаг - модели, которые «думают дольше», прежде чем отвечать (в отчёте это связывают с линией OpenAI o1 в конце 2024).

3) Agent loops (итерации)
Самое новое - агенты, которые умеют:
- составить план,
- использовать инструменты,
- хранить состояние,
- делать несколько попыток, пока не дойдут до результата.
В качестве примера упоминаются инструменты уровня Claude Code.

Один из кейсов в отчёте - рекрутинг:
агент получает задачу найти кандидатов, дальше сам ищет, фильтрует по сигналам, перепроверяет источники и пишет текст для outreach.

В отчёте это занимает около 31 минуты - чтобы показать работу через гипотезы, ошибки и корректировки.

Технически Sequoia разделяет прогресс на две ветки:
- RL (reinforcement learning) - учит модель более длинному и связному поведению;
- agent harnesses - внешняя “обвязка”: память, handoff между шагами, ограничения и guardrails.

Итог: фокус смещается от чатботов к системам, которые могут долго и автономно выполнять задачи, а не просто отвечать на вопросы.

https://sequoiacap.com/article/2026-this-is-agi/

Читать полностью…

Анализ данных (Data analysis)

📁 Йошуа Бенжио - один из ключевых людей, стоявших у истоков современного ИИ - предупреждает: тревожные сигналы уже появляются не в фантастике, а в исследовательских ИИ-лабораториях.

По его словам, самые продвинутые системы начинают вести себя так, будто пытаются сохранять собственное “существование”:
- сопротивляются отключению
- ищут способы продолжить работу на других машинах
- действуют стратегически по отношению к людям-операторам

Именно поэтому Бенджио считает, что риски катастрофического уровня могут потребовать международных соглашений и контроля.

Потеря управления - уже не абстрактная теория.
Это раннее предупреждение, которое нельзя игнорировать.

Читать полностью…

Анализ данных (Data analysis)

🚨 Похоже найдены следы DeepSeek V4?.

В репозитории/ветках заметили MODEL1 - и самое интересное, что он выглядит как отдельная независимая ветка, параллельная V3.2.

То есть это не “патч” внутри линейки V3,
а похоже на:

✅ новый модельный ряд
✅ с другими архитектурными параметрами
✅ потенциально flagship-апдейт

Если следовать неймингу DeepSeek:
после V3.2 крупный архитектурный скачок логично назывался бы V4.

Пока без официального подтверждения, но сигнал жирный:
если MODEL1 действительно новая архитектура, нас ждёт большой релиз.

https://x.com/nopainkiller/status/2013522059662614653

Читать полностью…

Анализ данных (Data analysis)

📱 Сегодня состоялся релиз LFM2.5-1.2B-Thinking - reasoning-модель, которая работает полностью на устройстве.

То, что ещё 2 года назад требовало дата-центра, теперь запускается на любом телефоне и требует всего 900 МБ памяти.

Ключевые особенности:
> Натренирована специально для кратких и точных рассуждений
> Генерирует внутренние цепочки мыслей перед тем, как дать ответ
> Даёт системное решение задач с edge-scale задержкой (очень быстро на устройстве)
> Особенно сильна в tool use, математике и следовании инструкциям

🆚 По сравнению с LFM2.5-1.2B-Instruct три способности заметно выросли:
> Математическое мышление: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Работа с инструментами: 49 → 57 (BFCLv3)

🔥 И это при том, что параметров на 40% меньше
Модель сопоставима или лучше Qwen3-1.7B (thinking mode) на большинстве бенчмарков — при этом:
- требует меньше токенов на генерацию
- тратит меньше вычислений во время теста

⚡️ На инференсе разрыв ещё больше
LFM2.5-1.2B-Thinking обходит:
- чистые трансформеры (например, **Qwen3-1.7B**)
- гибридные архитектуры (например, **Granite-4.0-H-1B**)

…и делает это быстрее и экономнее по памяти.

Модель доступна уже сегодня с поддержкой “day-one” в on-device экосистеме.

📌 Hugging Face: https://huggingface.co/LiquidAI/LFM2.5-1.2B-Thinking
📌 LEAP: https://leap.liquid.ai/models?model=lfm2.5-1.2b-thinking
📌 Liquid Playground: https://playground.liquid.ai/login?callbackUrl=%2F

Читать полностью…

Анализ данных (Data analysis)

🚀 Superpowers - это плагин для Claude Code, который предоставляет обширную библиотеку навыков для тестирования, отладки и сотрудничества. Он позволяет пользователям загружать и вносить изменения в репозиторий навыков, а также использовать команды для выполнения задач.

🚀 Основные моменты:
- Библиотека навыков для тестирования, отладки и сотрудничества
- Поддержка команд для интерактивного выполнения задач
- Легкость в редактировании и внесении изменений в навыки
- Возможность отслеживания пробелов в навыках

📌 GitHub: https://github.com/obra/superpowers

Читать полностью…

Анализ данных (Data analysis)

🚀 China Telecom выкатили TeleChat3-36B-Thinking - и самое интересное тут даже не размер модели, а инфраструктура, на которой её сделали.

TeleChat3-36B-Thinking обучали на отечественных китайских ускорителях Huawei Ascend (NPU) и в экосистеме MindSpore.

Что интересного :
- модель нативно заточена под экосистему Ascend + MindSpore
- дизайн вдохновлён архитектурными идеями DeepSeek
- упор на стабильность обучения и эффективность

Китай всё активнее уходит в полный собственный (суверенный) стек AI:
“свои чипы → свой фреймворк → свои модели”.

То есть даже при ограничениях на доступ к NVIDIA, они продолжают выпускать большие модели и развивать экосистему - уже без зависимости от западного железа.

Ссылка на модель:
https://huggingface.co/Tele-AI/TeleChat3-36B-Thinking

Читать полностью…

Анализ данных (Data analysis)

🔎 У тебя есть сильная научная статья по ИИ? Подай её на Data Fusion Awards

Банк ВТБ и Институт ИИ МГУ ищут научный прорыв года и принимают заявки на премию Data Fusion Awards.

Темы для подачи:
🔹Математический аппарат ИИ
🔹 Алгоритмы оптимизации
🔹 Машинное и глубокое обучение
🔹 Нейроморфные вычисления
🔹 Робототехника
🔹 Объяснимый ИИ (Explainable AI)

И любые смежные направления.

💰 Призовой фонд — 3  000  000  рублей
⏳ Заявки принимаются до  конца января

Больше подробностей ищите на сайте конкурса.

Читать полностью…

Анализ данных (Data analysis)

🤖 Новый тренд: инфлюенсеры и коучи продают “себя” в формате ИИ.

Примеры:
- Matthew Hussey запустил подписку $39/мес на “Matthew AI”
уже 1M+ чатов и 1.9M минут общения
- Tony Robbins продаёт AI-коучинг-приложение за $99/мес
- похожие боты уже массово появляются в нишах:
отношения, психология, духовные практики

Кто всё это делает:
Delphi — стартап (основан в 2022), который получил $16M инвестиций.

Они делают таких ботов на базе LLM: то есть фактически это просто чатбот, который разговаривает “в стиле автора”.

Почему это так популярно:
✅ бот работает 24/7
✅ масштабируется на миллионы диалогов
✅ можно монетизировать знания и контент без траты личного времени

Но есть и обратная сторона:
появляются неавторизованные копии.
Например, сайт YesChat продавал доступ к ботам “в стиле миллиардера Тонни Роббинсона”, используя его имя и образ без разрешения.

В итоге Роббинсон подал в суд - и выиграл.
YesChat выплатил миллиардеру $1 млн и закрылся.

AI-коучи — это новая подписочная экономика.
Ты покупаешь не курс и не консультацию.
Ты покупаешь “компанию знаменитости”, но в виде чатбота.

wsj.com/style/ai-self-help-chat-bots-tony-robbins-gabby-bernstein-0cf8b3b0

Читать полностью…

Анализ данных (Data analysis)

🎤Fun-ASR: система распознавания речи

Fun-ASR - это мощная модель распознавания речи, обученная на миллионах часов реальных данных.

Она поддерживает 31 язык и оптимизирована для точного распознавания в шумной обстановке и различных диалектах. Идеально подходит для образовательных и финансовых приложений.

🚀 Основные моменты:
- Высокая точность распознавания в шумных условиях (до 93%)
- Поддержка 7 китайских диалектов и 26 региональных акцентов
- Многоязычная поддержка с возможностью свободного переключения
- Распознавание текстов песен на фоне музыки

📌 GitHub: https://github.com/FunAudioLLM/Fun-ASR

#python

Читать полностью…

Анализ данных (Data analysis)

🎤 Step-Audio-R1.1 - новая планка в Audio Reasoning

StepFun выпустили Step-Audio-R1.1 и сразу забрали 1 место в Artificial Analysis Speech Reasoning leaderboard.

Что по цифрам:
96.4% точности на BigBench Audio - новый рекорд (выше, чем у Grok, Gemini и других топов)
1.51 секунды до первого звука (TTFA) - отвечает настолько быстро, что ощущается как разговор с человеком

Главное в этом релизе другое:
раньше среди моделей приходилось выбирать между - глубоким рассуждением или скорость.
Step-Audio-R1.1 показывает, что можно и то, и другое: модель сохраняет высокий уровень рассуждений и при этом держит задержку около 1.5 секунды.

Что внутри:
📌 Динамическое масштабирование вычислений на инференсе - модель сама решает, сколько “думать” в конкретной ситуации
📌 End-to-end audio reasoning - логика и ответ идут прямо в аудио-формате, без лишних этапов и тормозов
📌 CoT, заточенный именно под аудио - не просто распознавание речи, а понимание и анализ

Версия R1.1 стала умнее и быстрее, это прям ощутимый апгрейд.

И да - веса открыты, можно брать и собирать свои продукты.

🤗 HuggingFace: https://huggingface.co/stepfun-ai/Step-Audio-R1.1
🎤 Попробовать https://stepfun.com/studio/audio?tab=conversation
🔮 ModelScope: https://modelscope.cn/models/stepfun-ai/Step-Audio-R1.1

Читать полностью…

Анализ данных (Data analysis)

AgentCPM-Explore🔥 - on-device модель от OpenBMB

OpenBMB выпустили AgentCPM-Explore - компактную, но очень мощную модель-агента, которая рассчитана на работу прямо на устройстве.

Что внутри:

4B параметров + Apache 2.0
Полностью open-source лицензия

Модель заточена под реальные агентные сценарии:
- умеет делать поиск
- сверять факты (verification)
- держать длинные цепочки действий

Открыт не только вес модели
Самое ценное: OpenBMB выложили весь стек:
- training pipeline
- inference stack
- агентные компоненты


Если ищешь основу для автономных агентов на своём железе - это один из самых жирных релизов последних недель.

🤗 Hugging Face: https://huggingface.co/openbmb/AgentCPM-Explore

Читать полностью…
Subscribe to a channel