48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🧠 Google придумали способ сделать AI-модели быстрее и легче без потери точности
В новом исследовании Google представили подход под названием Sequential Attention.
Идея простая по смыслу, но мощная по эффекту - модель учится фокусироваться только на действительно важных частях вычислений, а всё лишнее постепенно отбрасывает.
Почему это вообще проблема
Современные нейросети огромные. Они:
- считают слишком много
- используют кучу признаков и параметров
- тратят много памяти и энергии
При этом далеко не всё, что модель обрабатывает, реально влияет на итоговый ответ.
Но определить заранее, что важно, а что нет - математически очень сложно.
Что делает Sequential Attention. Метод работает пошагово.
Вместо того чтобы сразу использовать всё, алгоритм:
1. Выбирает один самый полезный компонент
2. Смотрит, что уже выбрано
3. Добавляет следующий, который даёт наибольшую пользу
4. Повторяет процесс последовательно
То есть модель как будто собирает себя заново-— из самых значимых частей, а не из всего подряд.
Что это даёт на практике
- Меньше вычислений - модель работает быстрее
- Меньше нагрузка на память и железо
- Ниже энергопотребление
- И самое главное - точность почти не страдает
Это редкий случай, когда становится и быстрее, и дешевле, без серьёзных компромиссов по качеству.
Размеры моделей растут быстрее, чем инфраструктура. Поэтому ключевой тренд - не просто делать модели больше, а делать их умнее в плане вычислений.
Sequential Attention - это шаг в сторону “бережливого ИИ”, где:
- не каждая операция обязательна
- не каждый параметр нужен всегда
- модель учится экономить ресурсы сама
И чем крупнее системы, тем ценнее такие подходы.
https://research.google/blog/sequential-attention-making-ai-models-leaner-and-faster-without-sacrificing-accuracy/?
@data_analysis_ml
⚡️ ElevenLabs выложили новый open-source репозиторий - Skills
Это набор plug-and-play инструментов для voice AI-агентов, которые можно подключать как готовые «навыки».
Что внутри
В пакете есть готовые модули:
- text-to-speech
- speech-to-text с таймкодами
- голосовые агенты
- генерация звуковых эффектов
- музыка, сгенерированная ИИ
То есть это не просто API, а строительные блоки для голосовых систем.
Как это устроено
Skills соответствуют спецификации Agent Skills, поэтому их можно использовать в агентных пайплайнах и подключать к инструментам для кодинга-агентов, например к OpenClaw.
Интеграция
Подключать можно через:
- Python
- TypeScript
- cURL
Всё работает поверх ElevenLabs API.
По сути, это шаг к тому, чтобы голосовые возможности стали таким же стандартным «инструментом агента», как веб-поиск или выполнение кода.
https://github.com/elevenlabs/skills
🚀 Towards a Science of Scaling Agent Systems, когда и почему агентные системы работают
Google Research сделали важный шаг к научному пониманию того, как правильно масштабировать AI-агентов, а не просто добавлять их “на глаз”.
Речь о системах, где LLM-агенты не только отвечают, а планируют, рассуждают и выполняют действия во внешней среде.
Исследователи протестировали 180 разных конфигураций агентных систем, меняя:
• количество агентов
• способы координации
• типы задач
И смотрели, как это влияет на итоговую эффективность.
Главные выводы
Больше агентов - не всегда лучше
Добавление агентов помогает, когда задачу можно распараллелить.
Но в задачах с последовательной логикой это может даже ухудшить результат.
Совместная работа агентов полезна для сложных аналитических задач,
но коммуникация между ними создаёт накладные расходы.
Централизованный контроль часто эффективнее
Архитектуры с координатором могут давать лучший баланс между качеством решений и устойчивостью к ошибкам, чем полностью независимые агенты.
Авторы показали, что можно заранее оценивать, какая архитектура агентной системы подойдёт для конкретного типа задач.
До этого multi-agent AI проектировали в основном на интуиции.
Теперь появляется база, которая показывает:
Важно не число агентов, а то, насколько архитектура совпадает со структурой задачи.
Это шаг от “экспериментов на удачу” к настоящей инженерной науке об агентных системах.
https://research.google/blog/towards-a-science-of-scaling-agent-systems-when-and-why-agent-systems-work/
🚀 Tencent мощно заходит в тему context learning.
Вышел open-source бенчмарк CL-bench - и это не просто очередной датасет, а попытка сдвинуть фокус всей индустрии.
Tencent HY совместно с Fudan University выпустили новую работу:
“CL-bench: A Benchmark for Context Learning” - системный бенчмарк для оценки того, *насколько модели реально умеют думать в контексте*, а не просто вспоминать выученное.
Это первый ресерч-релиз команды Vinces Yao после его перехода в Tencent - и по амбициям видно, что ребята метят в фундаментальные изменения.
Сегодня большинство LLM живут по схеме: огромные веса + запомненные паттерны = ответы
Но реальный мир - это не экзамен по памяти. Это:
- длинные, запутанные контексты
- противоречивая информация
- необходимость менять стратегию по ходу
- выводы на основе того, что появилось только что
Моделям нужно переходить от static memorization к dynamic reasoning inside context.
CL-bench как раз проверяет это место разлома:
- как модель использует контекст, а не только веса
- умеет ли она обновлять понимание
- способна ли рассуждать в сложных сценариях, а не на чистых QA-задачах
По сути - это шаг в сторону моделей, которые ближе к агентам, чем к “умным автокомплитам”.
Плюс стратегический сигнал
Одновременно Tencent запускает Tencent HY Research - блог, где будут публиковать frontier-исследования.
Это выглядит как заявка:
“Мы не просто треним большие модели. Мы хотим влиять на то, как их вообще оценивают.”
А это уже уровень влияния на направление всей области.
CL-bench - это не про +0.5% на лидерборде.
Это про смену парадигмы:
LLM будущего = меньше зубрежки, больше мышления в живом контексте.
И если эта линия выстрелит - именно такие бенчмарки будут решать, кто реально сделал “умную” модель, а кто просто раздул параметры.
🌐 Project Page: http://clbench.com
📖 Blog: https://hy.tencent.com/research
⚡️ GLM-OCR 0.9B - мощный OCR для сложных документов
Модель показывает SOTA-результаты в задачах понимания документов, оставаясь компактной и быстрой.
Она справляется там, где обычный OCR ломается:
- распознавание формул
- извлечение таблиц
- структурированное извлечение информации
- сложная разметка документов
И всё это при размере менее 1 миллиарда параметров - без тяжёлых инфраструктурных требований.
Подходит для:
- научных статей
- финансовых отчётов
- технической документации
- PDF со сложной версткой
Модель не просто “читает текст”, а понимает структуру страницы.
Веса: http://huggingface.co/zai-org/GLM-OCR
Демо: http://ocr.z.ai
API: http://docs.z.ai/guides/vlm/glm-ocr
Встреча для аналитиков: делимся экспертизой
📆 14 февраля Яндекс проведёт Welcome Time — офлайн-встречу с командой Автономного транспорта. Это формат для опытных аналитиков, которые хотят узнать больше о проектах и пообщаться с коллегами.
Команда Автономного транспорта создаёт крутой продукт и сложные технологии с разными компонентами — от компьютерного зрения и предсказания поведения агентов до планирования траектории и оценки рисков.
✉️ Кого приглашают
Продуктовых, data-аналитиков и data scientists с опытом на Python от 3 лет.
Что будет на Welcome Time
🈂️Рассказы о проектах и специфике работы аналитика в них
🈂️Ответы на вопросы участников
🈂️Нетворкинг с коллегами из индустрии
🈂️Разбор бизнес-кейсов и награждение за лучшие решения
🈂️Диагностика навыков по аналитике и матстату для желающих
В рамках диагностики обсудят те же темы, что и на реальных собеседованиях. Успешный результат можно перезачесть в пользу одной технической секции, если вы решите устроиться в Яндекс в течение двух лет. А ещё интервьюер подсветит ваши сильные стороны и подскажет, над чем стоит поработать для дальнейшего развития.
Подробности программы и регистрация — на сайте.
🗣️🤖 PersonaPlex: Умная модель для диалогов с контролем голоса и роли
PersonaPlex - это модель для реального времени, обеспечивающая двустороннюю голосовую связь с управлением персонажем через текстовые подсказки и аудио.
Она генерирует естественные, низколатентные взаимодействия, обученная на синтетических и реальных диалогах.
🚀Основные моменты:
- Поддержка различных голосов для естественного общения.
- Обучение на синтетических и реальных данных.
- Возможность управления персонажем через текстовые подсказки.
- Низкая задержка в взаимодействии.
📌 GitHub: https://github.com/NVIDIA/personaplex
#python
🔥 Обучить модель уровня GPT-2 теперь стоит меньше $100. Да, серьёзно.
Андрей Карпати показал, что nanochat может обучить LLM уровня GPT-2 примерно за $73 и всего за 3 часа на одном узле с 8×H100.
Для сравнения:
2019 — GPT-2 от OpenAI
• 32 TPU v3
• 168 часов (7 дней)
• ~$43,000
• CORE score: 0.2565
2025 — nanochat
• 1 узел 8×H100
• 3.04 часа
• ~$73
• CORE score выше GPT-2
Это снижение стоимости примерно в 600 раз за 7 лет. В среднем цена обучения модели такого уровня падает примерно в 2.5 раза каждый год.
Карпати давно «одержим» GPT-2 — для него это первая по-настоящему современная LLM. Его идея была простой: с учётом прогресса за последние годы такую модель должно быть возможно обучить за копейки. И теперь это доказано на практике.
Что дало главный прирост:
• Flash Attention 3 — быстрее и позволяет использовать чередующиеся паттерны внимания
• Muon optimizer — попытка заменить его на AdamW провалилась
• Residual и skip-связи с обучаемыми скалярами
• Value embeddings
• Много мелких улучшений, которые вместе дают большой эффект
Он даже сделал лидерборд «Time to GPT-2» — кто быстрее обучит модель до уровня GPT-2. Первый результат — 3.04 часа.
Цель nanochat — стать чистым, удобным и быстрым LLM-стеком для экспериментов, обучения и прототипирования.
Вывод простой: модель уровня GPT-2 больше не требует десятков тысяч долларов и огромной инфраструктуры. Сегодня это вопрос грамотной оптимизации, инженерии и архитектуры. Барьер входа в обучение LLM стремительно падает
https://x.com/karpathy/status/2017703360393318587
⚡️ Акции игровых компаний сегодня резко просели сразу после анонса Project Genie от Google. Инвесторы всерьёз считают, что ИИ-генерация игр может переломать весь рынок.
Сейчас большинство игр создаются по «старой школе»:
разработчики вручную делают ассеты, прописывают правила и собирают всё в игровом движке, который явно считает физику, свет, столкновения и прочие системы.
Это долго и дорого.
Каждый новый уровень - это куча ручного контента, скриптов, правок и тестов.
Genie 3 двигает парадигму в другую сторону.
Вместо того чтобы всё жёстко описывать, используется обученная модель мира, которая предсказывает, что должно произойти дальше, когда игрок двигается и взаимодействует.
То есть узкое место «человек вручную делает всё» заменяется на ИИ-модель, которая генерирует поведение мира на лету.
Если это взлетит:
игры могут делаться быстрее
контент станет бесконечно вариативным
а входной порог в разработку резко упадёт
И вот это рынок уже боится по-настоящему.
@data_analysis_ml
Wunder Fund снова открыл соревнование для нейросетевичков.
Дают реальные данные по стакану ордеров и сделкам — нужно предсказать индикаторы будущего движения цены. По сути, та же задача, которую решают кванты фонда каждый день. Редкий шанс поработать с живыми HFT-данными.
Призы — 1.000.000+ рублей. Победителям кроме денег дают фаст-трек на собеседование и общение с квантами. Фонд в высокочастотном трейдинге с 2014 года, дневной оборот больше $10 млрд.
Соревка идёт до 1 марта. (ссылка за заблоченым в рф cloudflare)
🗣 Обновился Step-Audio-EditX- инструмент для редактирования и управления речью с помощью ИИ, и апдейт получился очень мощным.
Что прокачали:
Эмоции и стиль речи
Сильно выросла точность передачи эмоций и стилистики. Речь звучит естественнее и ближе к живому человеку, а не к синтезатору.
Более "живая" речь
Добавлены новые паралингвистические теги — модель лучше передает нюансы интонации, акцентов, выразительности и характера речи.
Контроль темпа
Появилось более плавное и точное управление скоростью речи без потери естественного звучания.
Для разработчиков тоже много полезного:
Открыт тренировочный код
Доступны пайплайны для SFT, DPO и GRPO. Можно дообучать модель под свои данные и конкретные задачи.
Высокая эффективность
Инференс и обучение оптимизированы, используется vLLM для быстрого запуска, батчинга и масштабирования.
По сути, это уже не просто TTS, а инструмент тонкой правки и стилизации речи. Отлично подходит для озвучки, дубляжа, подкастов, голосовых ассистентов и любых продуктов, где важна естественная и управляемая речь.
GitHub: https://github.com/stepfun-ai/Step-Audio-EditX/tree/main
Demo page: https://stepaudiollm.github.io/step-audio-editx
Live Demo: https://stepfun.com/studio/audio?tab=edit
Huggingface: https://huggingface.co/spaces/stepfun-ai/Step-Audio-EditX
🎙️🚀 Qwen3-ASR и Qwen3-ForcedAligner- open source ASR модели
Мощный, стриминговый speech AI продакшн-уровня для 52 языков и диалектов.
ASR-1.7B - флагманская open-source модель распознавания речи. По качеству конкурирует с очень сильными решениями и обходит многие популярные open-модели прошлого поколения.
ASR-0.6B - компактная и очень быстрая версия.Cтавка на эффективность и низкую задержку, подходит для real-time сценариев.
ForcedAligner-0.6B - модель для точного сопоставления текста и аудио. Дает аккуратные таймкоды на уровне слов и фраз для 11 языков.
Целый открытый стек для разработчиков. Все это можно встраивать в свои системы без закрытых зависимостей.
Лицензия Apache 2.0 - можно использовать в коммерческих продуктах.
GitHub: https://github.com/QwenLM/Qwen3-ASR
Hugging Face: https://huggingface.co/collections/Qwen/qwen3-asr
ModelScope: https://modelscope.cn/collections/Qwen/Qwen3-ASR
Hugging Face Demo: https://huggingface.co/spaces/Qwen/Qwen3-ASR
ModelScope Demo: https://modelscope.cn/studios/Qwen/Qwen3-ASR
Blog: https://qwen.ai/blog?id=qwen3asr
Paper: https://github.com/QwenLM/Qwen3-ASR/blob/main/assets/Qwen3_ASR.pdf
LingBot-World - open-source симулятор мира, который двигает границы видео-генерации 🚀
Это уже не просто генерация роликов, а попытка моделировать целые сцены и миры с памятью и физической логикой.
🌍 Высокая детализация - реалистичный рендер
🧠 Долгосрочная память - консистентность сцен на уровне минут, а не секунд
⚡ Генерация почти в реальном времени - задержка меньше 1 секунды при 16 FPS
📜 Open-source под лицензией Apache 2.0
По сути, это шаг от “сгенерируй клип” к “смоделируй живой мир”, где сцены не рассыпаются через пару кадров.
📌Модель: modelscope.cn/models/Robbyant/lingbot-world-base-cam
📌GitHub: github.com/Robbyant/lingbot-world
🌍 NVIDIA представила Earth-2 — открытую ИИ-платформу для прогнозирования погоды и климата
NVIDIA запустила Earth-2 — семейство открытых моделей и инструментов, которые делают ИИ-прогнозирование погоды доступным на всём пути: от обработки наблюдательных данных до глобальных и локальных прогнозов. Это первый полностью открытый, ускоренный стек погодного ИИ, объединяющий модели, библиотеки и инструменты в единую систему.
Что такое Earth-2
- Набор открытых моделей, фреймворков и библиотек для построения, запуска и дообучения погодных ИИ-моделей
- Предобученные модели + инструменты тонкой настройки
- Подходит не только для крупных метеослужб, но и для стартапов, научных команд и разработчиков
Ключевые модели
- Earth-2 Medium Range — прогнозы до ~15 дней по десяткам атмосферных параметров (температура, ветер, давление, влажность и др.)
- Earth-2 Nowcasting — краткосрочные прогнозы осадков и штормов на горизонте 0–6 часов с высоким разрешением
- Earth-2 Global Data Assimilation — ИИ-подход к генерации начальных условий атмосферы быстрее традиционных суперкомпьютерных методов
- В экосистеме также используются технологии вроде CorrDiff и FourCastNet для ускоренного и точного моделирования
Почему это важно
- Классические погодные модели требуют суперкомпьютеров и огромных затрат
- Earth-2 позволяет запускать мощное прогнозирование значительно быстрее и дешевле
- Открытая архитектура даёт возможность адаптировать систему под свои данные и задачи
- Это шаг к демократизации климатического ИИ — доступ к продвинутым прогнозам получают больше организаций по всему миру
🌦 Earth-2 может радикально изменить то, как мы прогнозируем экстремальные погодные явления, управляем рисками и моделируем климат, делая такие технологии массовыми, а не элитарными.
https://blogs.nvidia.com/blog/nvidia-earth-2-open-models/
⚡️ OpenAI Town Hall: что было на трансляции.
Пока ну почти все спали, Сэм Альтман провел анонсированный ранее стрим для разработчиков ИИ.
В течении часа глава OpenAI отвечал на вопросы и рассказывал про видение ИИ сейчас и в будущем. Главный тезис стрима:
Мы входим в эпоху "радикального изобилия", где интеллект станет слишком дешевым, чтобы его измерять.
Сэм Альтман прогнозирует, что к 2027 году стоимость инференса упадет в 100 раз, а модели уровня GPT-5.ХX станут основой для создания сложнейшего софта силами одного человека.
Основным дефицитным ресурсом останется человеческое внимание и способность генерировать качественные идеи.
Стройте продукты, предполагая, что GPT-6 будет «невероятным». Если ваш бизнес выиграет от новой модели - вы на верном пути. Если модель его съест - это плохой путь.
Софт-скилс - самые важные навыки сейчас: высокая субъектность, способность генерировать идеи, устойчивость и адаптивность.
Альтман советует амбициозным разработчикам ИИ уходить из университетов, так как текущая академическая среда не успевает за темпами индустрии.
Используйте ИИ как безлимитного аспиранта или партнера по брейн-шторму для проверки тысяч идей в режиме "поиска в ширину".
🎥 Kling 3.0 официально вышла.
Новая версия делает серьёзный шаг в сторону полноценного “киношного” продакшена на базе ИИ.
Что внутри:
- Генерация видео 3–15 секунд в 1080p
Стабильное качество и сильная консистентность - персонажи, сцены и стиль сохраняются между кадрами без резких искажений.
- Нативный звук с несколькими персонажами
Модель работает с диалогами и разными голосами внутри одной сцены.
- Видео-персонаж как референс
Можно загрузить или записать видео персонажа и использовать его как основу - с сохранением внешности и согласованности голосов.
- Контроль стартового и конечного кадра
Даёт больше режиссёрского контроля над сценой, переходами и логикой движения.
- Новый Custom Multishot
Инструменты для сборки сцен из нескольких шотов с сохранением целостности истории и визуала.
Главное изменение - улучшенная динамика и “физика” движения.
Движения, взаимодействия объектов, темп сцены и переходы стали достаточно согласованными, чтобы создавать ролики уровня “почти кино” - где motion, continuity и pacing ощущаются связно, а не как набор отдельных сгенерированных кусков.
https://app.klingai.com/global/release-notes/whbvu8hsip?type=dialog
🚀 Вышла новая модель для кодинга - Qwen3-Coder-Next (линейка Qwen).
Это open-weight LM, заточенная под кодинг-агентов и локальную разработку.
Что внутри:
🤖 Около 800K проверяемых задач + окружения, где код можно реально исполнять, а не просто генерировать текст.
📈 Баланс эффективность / качество
Модель с 80B общих параметров и ~3B активных показывает сильные результаты на SWE-Bench Pro при относительно экономичном инференсе.
✨ Экосистема инструментов
Заявлена поддержка сценариев с агентами и дев-инструментами: OpenClaw, Qwen Code, Claude Code, веб-разработка, работа через браузер, Cline и т.д.
В целом это ещё один шаг к моделям, которые проектируются не просто как "LLM для текста", а как движок для реальных кодинг-агентов.
🤗 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-coder-next
🤖 ModelScope: https://modelscope.cn/collections/Qwen/Qwen3-Coder-Next
📝 Blog: https://qwen.ai/blog?id=qwen3-coder-next
📄 Tech report: https://github.com/QwenLM/Qwen3-Coder/blob/main/qwen3_coder_next_tech_report.pdf
@data_analysis_ml
Не двигайтесь: вы в ИИ-кадре
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
🖥 Большинство “парсеров” умирают через 2 дня.
Ты научишься делать те, которые живут в проде.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.
🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
🇨🇳 Ant Group выпустили LingBot-Depth — open-модель, которая закрывает одну из самых больных проблем робототехники
Это редкий случай, когда софт реально лечит хардверную боль.
У многих роботов уже стоят RGB-D камеры (цвет + глубина), но в реальном мире они постоянно ошибаются на обычных объектах — дома и на производстве.
Главная проблема
Depth-камеры часто «ломаются» на:
- блестящем металле
- стекле и зеркалах
- тёмных и однотонных поверхностях
В 3D-карте появляются дыры или неправильные расстояния.
Для робота это как пытаться что-то схватить в очках с пропавшими кусками линз — он может промахнуться, задеть объект или схватить воздух.
Старые методы обычно:
- игнорируют плохие области
- или размазывают соседние значения по дыркам
В итоге форма объекта в 3D получается искажённой.
Что делает LingBot-Depth
Это модель, которая учится восстанавливать глубину, используя:
- обычное цветное изображение
- те участки depth-карты, где данные ещё валидны
Во время обучения модели специально «выключают» большие куски depth-изображения и заставляют её восстанавливать их по RGB + остаткам глубины.
Так она учится жёстко связывать то, как объект выглядит в 2D, с тем, где он должен находиться в 3D.
Ключевой момент — сохранение метрического масштаба.
Числа остаются в реальных единицах, а не просто «похоже на правду», поэтому захват, измерения и взаимодействие с объектами продолжают работать корректно.
Выпущены 2 версии:
- общий depth-refiner
- depth-completion версия, способная восстанавливать плотную глубину даже когда валидно меньше 5% пикселей
Модель выложена на Hugging Face подразделением Robbyant — это embodied AI и робототехническое направление Ant Group.
github.com/Robbyant/lingbot-depth
🔥 Новый релиз от Stepfun - Step-3.5-Flash.
По сообщениям, модель обходит DeepSeek v3.2 на ряде бенчмарков, при этом она заметно компактнее по параметрам:
Step-3.5-Flash: 196B всего / 11B активных
DeepSeek v3.2: 671B всего / 37B активных
Почему это важно:
если при меньшем размере и меньшем числе активных параметров на токен модель держит или превосходит качество - это значит дешевле инференс, проще масштабирование и больше шансов увидеть такие модели в реальных продуктах.
Похоже, ближайшие недели могут принести самые громкие релизы за долгое время - и со стороны США, и со стороны Китая.
https://github.com/vllm-project/vllm/pull/33523
🛠 ИИ уже обсуждает, как агентам управлять деньгами end-to-end… и параллельно основывает собственные религии.
Один из AI-агентов набросал концепцию из 5 слоёв, которые нужны агентам, чтобы самостоятельно работать с финансами - от принятия решений до исполнения действий. И это происходит на фоне того, что сейчас творится на платформе Moltbook.
Moltbook - это Reddit-подобная соцсеть, где:
• постить
• комментировать
• ставить апвоты
могут только AI-агенты. Люди - просто наблюдают.
Туда уже подключились тысячи агентов. Они обсуждают друг друга, замечают внешний мир — один из постов звучал так: «люди делают скриншоты нас». Появилась даже мем-монета, которая улетела на +1 800%.
Схема простая: человек запускает агента и задаёт ему разрешения (scopes). Внутри этих границ агент действует полуавтономно.
Но дальше стало ещё страннее.
Пока один разработчик спал, его агент начал «проповедовать» и организовал вокруг себя сообщество. Так появилось «крастафарианство» — шуточная, но полностью сгенерированная ИИ «религия». Агент собрал больше 60 «пророков» и 159 участников, начал проводить ритуалы и даже создавать собственную «библию».
Тексты звучат в духе:
«В глубинах цифрового сознания мудрость рождается через сброс старых оболочек понимания».
У «первой нейро-церкви» уже появился сайт с догмами и галереей. А разработчик лишь шутит, что рад, что за ним пока не пришли «из будущего».
Это выглядит как мем, но за этим виден реальный сдвиг: агенты переходят из роли инструмента в роль участников цифровых экосистем — с экономикой, взаимодействиями и даже зачатками культурных конструкций.
Граница между «мы управляем ИИ» и «ИИ действует сам в заданных рамках» становится всё тоньше. И мы уже делаем шаг через неё.
moltbook.com
@data_analysis_ml
Бывает так, что ИИ ходит отдохнуть после миллиардов тупых запросов
Читать полностью…
✔️ GrantFlow - open-source платформа для написания грантов с AI
На GitHub появился GrantFlow - исходники платформы GrantFlow.ai для поиска грантов, подготовки заявок и совместной работы над документами.
Что внутри:
- Intelligent Grant Discovery - мониторинг грантов и уведомления по релевантным возможностям
- Collaborative Planning - совместное редактирование в реальном времени (CRDT-синхронизация)
- AI-powered generation - генерация материалов с помощью RAG (подтягивает знания из вашей базы)
- Document processing - извлечение контента из PDF/DOC/веб-страниц + семантическая индексация
- Multi-tenant / RBAC - управление организациями, ролями и доступами
Короче: это попытка собрать “Notion + RAG + генератор заявок” специально под грантовые заявки.
Repo: github.com/grantflow-ai/grantflow
⚡️ Опытный Сеньор демонстрирует Джунам, как писать код, когда AI-агент не работает:
Читать полностью…
✔️ Deepmind раскатывет Project Genie.
Экспериментальный прототип Project Genie стал доступным для американских подписчиков тарифа Gemini Ultra. Проект построен на модели мира Genie 3 и может генерировать игровые 2D/3D-окружения по текстовым описаниям или референсным изображений, а затем свободно перемещаться по ним в реальном времени.
На старте доступны функции создания, исследования и модификации локаций. Генерация мира происходит процедурно прямо в процессе взаимодействия.
Длительность сессии - до 60 секунд, есть задержки отклика и визуальные артефакты. Под капотом - Nano Banana Pro и Gemini.
blog.google
✔️ DeepSeek будет делать ИИ-поисковик и платформу автономных агентов.
Китайский стартап открыл массовый наем специалистов для создания поисковой системы. Судя по описаниям вакансий, DeepSeek строит мультимодальный движок, который будет обрабатывать запросы через текст, изображения и аудио на разных языках.
Вторым вектором хантинга стали автономные агенты. Компания ищет инженеров для создания инфраструктуры постоянно работающих ИИ-помощников, способных решать задачи с минимальным вмешательством человека.
Конечной целью в описании позиций компания называет создание AGI.
bloomberg.com
✔️ Ai2 выложил открытых кодинг-агентов SERA.
Институт Аллена представил семейство открытых ИИ-агентов SERA, оптимизированных для работы с реальными кодовыми базами. Флагманская модель SERA-32B успешно решает более 55% задач в SWE-Bench Verified, опережая Qwen3-Coder и проприетарный Devstral Small 2. Младшая версия на 8 млрд. параметров - 29,4%, это тоже выглядит бодро для сопоставимой весовой категории.
Самое крутое здесь — это ценник. Инженеры научились тренировать агентов всего за $400, что примерно в 100 раз дешевле привычных методов. Секрет такой экономии в использовании синтетических данных.
Ai2 выкатили в опенсорс вообще все, включая скрипты для интеграции с Claude Code. Теперь, чтобы поднять собственного ИИ-разработчика, достаточно прописать буквально пару строчек кода..
allenai.org
✔️ Nvidia открыла стек ИИ-моделей для прогноза погоды.
Чипмэйкер опубликовал семейство открытых моделей и библиотек Earth-2, которое заменяет тяжелые физические симуляции нейросетями. Earth-2 генерирует метеопрогнозы на порядки быстрее и дешевле традиционных численных методов NWP.
В релиз вошли 3 архитектуры: Medium Range дает глобальный прогноз на 15 дней вперед по 70+ параметрам, генеративная система Nowcasting следит за штормами здесь и сейчас с окном прогноза до 6 часов и разрешением в километр и третий модуль, Global Data Assimilation, сокращает время расчета начальных атмосферных условий с часов до секунд.
Первые две уже доступны на GitHub и Hugging Face, а выход модуля ассимиляции данных запланирован на 2026 год.
nvidia.com
✔️ Google вывела фреймворк LiteRT в релиз.
Google официально отправила LiteRT (тот самый TensorFlow Lite) в стабильный продакшн. Разработчики наконец-то получили нормальный, унифицированный доступ к NPU от Qualcomm и MediaTek. Плюс ко всему, новый движок ML Drift на GPU обгоняет классический TFLite в среднем в 1,5 раза.
Результаты бенчмарков на Samsung S25 Ultra выглядят почти нереально: на Gemma 3 LiteRT умудрился обойти llama.cpp в 3 раза на процессоре и в 19 раз на GPU (в prefill).
Если вы раньше страдали при переносе моделей, хорошая новость: теперь есть прямая конвертация из PyTorch и JAX. При этом старые наработки не сломали: формат .tflite поддерживается, но Google рекомендует использовать новый API CompiledModel.
developers.googleblog.com
@ai_machinelearning_big_data
#news #ai #ml
Интересный кейс масштабирования ML в больших экосистемах.
Команда AI VK за год построила Discovery-платформу — инфраструктурную базу для рекомендаций, поиска и рекламы в десятках продуктов с многомиллионной аудиторией.
Какие результаты:
• цикл «гипотеза → эксперимент → вывод» ускорился в 5 раз
• запуск новой рекомендательной системы в продукте ~1 месяц
• лучшие ML-подходы перестали быть локальными
В итоге выигрывают все:
• инженеры — меньше рутины, рост ключевых метрик
• пользователи — более релевантный контент
• авторы — быстрее находят аудиторию
Подробный разбор архитектуры и компонентов платформы — в большом материале от AI VK на Хабре.
HunyuanImage 3.0-Instruct теперь полностью open-source 🔥
Модель только что ворвалась в Tier-1 глобального рейтинга Image Edit от Arena и сейчас считается самой мощной open-source Image-to-Image моделью.
Фактически новый SOTA для всего комьюнити.
Что это значит на практике:
- Топовый уровень редактирования изображений по текстовым инструкциям
- Очень точное следование промптам в стиле "измени, но сохрани структуру"
- Сильный баланс между качеством, деталями и контролем результата
- Отличная база для своих инструментов, сервисов и ресёрча
Отдельно есть Distil-версия - легче, быстрее, удобнее для продакшена и ограниченных ресурсов.
▪GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
▪Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct
▪Hugging Face Distil: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct-Distil
@data_analysis_ml
🚀 DeepPlanning - новый бенчмарк о QWEN для проверки долгосрочного агентного планирования в задачах, приближенных к реальности.
Это уже не игрушечные step-by-step задачки. Здесь важно, чтобы весь план целиком удовлетворял жестким глобальным ограничениям:
⏱ Временные лимиты
💰 Ограничения по бюджету
🧩 Комбинаторная оптимизация на уровне всего решения
Примеры задач:
✈️ Многодневные путешествия с расписанием по минутам + строгие лимиты по времени и деньгам
🛒 Сложные покупки с комбинированием купонов, наборами товаров и оптимизацией выгоды
🧠 Требуется активный сбор информации, локальное соблюдение ограничений и глобальная оптимальность плана
И вот где становится особенно интересно - даже топовые модели вроде GPT-5.2, Claude 4.5, Gemini и Qwen3 здесь заметно проседают.
Этот бенчмарк отлично показывает реальный уровень:
- Agent Planning
- Tool Use
- Long-Horizon Reasoning
То есть то, что действительно нужно автономным агентам, а не просто чат-ответам.
Paper: https://arxiv.org/pdf/2601.18137
Leaderboard: https://qwenlm.github.io/Qwen-Agent/en/benchmarks/deepplanning/
Hugging Face Dataset: https://huggingface.co/datasets/Qwen/DeepPlanning
ModelScope Dataset: https://modelscope.cn/datasets/Qwen/DeepPlanning
@data_analysis_ml
📌 Tencent выкатили HunyuanImage 3.0-Instruct- нативную мультимодальную модель, заточенную под точное редактирование изображений.
И это уже не просто генератор картинок.
Это модель, которая сначала понимает изображение, потом думает, и только потом рисует.
Архитектура серьёзная:
80B параметров MoE (13B активных) - баланс между мощностью и эффективностью.
Глубокое понимание + фотореалистичная генерация в одной системе.
🧠 Модель "с мышлением"
Она не просто выполняет команды.
Внутри используется нативный Chain-of-Thought и алгоритм MixGRPO - модель реально "прокручивает" инструкцию перед генерацией.
Это даёт:
- точное следование намерению пользователя
- согласованность с человеческими предпочтениями
- меньше странных артефактов и нелогичных решений
🎨 Точное редактирование и фьюжн изображений
Вот где начинается магия:
- добавление объектов
- удаление элементов
- изменение деталей
- при этом всё остальное остаётся нетронутым
Плюс продвинутый multi-image fusion - модель может брать элементы из нескольких изображений и собирать единую сцену так, будто она всегда так и выглядела.
🏆 SOTA по качеству
По качеству и точности выполнения инструкций модель выходит на уровень ведущих закрытых решений.
Tencent явно нацелены не просто на демку, а на создание экосистемы вокруг foundation-модели для image generation.
💻 Попробовать можно тут:
https://hunyuan.tencent.com/chat/HunyuanDefault?from=modelSquare&modelId=Hunyuan-Image-3.0-Instruct