48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
Anthropic: оценка с $61,5 млрд до $900 млрд - 15x примерно за 12 месяцев. Прочитайте это еще раз.
Год назад Anthropic оценивали в $61,5 млрд. Теперь инвесторы готовы вложить в компанию $50 млрд свежего капитала при оценке, приближающейся к $900 млрд. Это почти 15-кратный скачок за один год, fueled ростом выручки с примерно $1 млрд до run rate в $40 млрд.
Если это случится, Anthropic увеличит свою оценку в 50 раз с начала 2024 года, что делает этот кейс, возможно, самым быстрым созданием стоимости в истории tech-индустрии.
Mistral выкатила Medium 3.5 и тихо заняла нишу, на которую почти никто больше не претендует
Французская Mistral выпустила Medium 3.5, и самое интересное в этом релизе даже не сами бенчмарки, а то, с кем компания себя сравнивает. На графиках рядом стоят Kimi, Qwen, GLM и Claude Sonnet. GPT и Gemini там нет. И это выглядит не случайностью, а вполне понятной стратегией.
После того как Aleph Alpha ушла под Cohere, Mistral фактически осталась единственной AI-лабораторией фронтирного уровня, которая не находится ни в США, ни в Китае. Европа в большой гонке моделей теперь держится почти на одной компании, и эта компания французская.
Medium 3.5 тоже сделана не как попытка любой ценой выиграть гонку масштаба. Это dense-модель на 128 миллиардов параметров с открытыми весами, контекстом 256k и настраиваемым уровнем усилия при рассуждении.
Китайские конкуренты идут другим путём: строят огромные MoE-модели на сотни миллиардов и даже триллион параметров, но активируют только небольшую часть на каждый запрос. Это выгодно для инференса. Mistral выбирает более дорогой, но понятный путь: плотная модель, больше вычислений, зато выше предсказуемость поведения.
И тут интересен бенчмарк Collie, где Medium 3.5 набирает 95.8 и заметно обходит конкурентов. Collie проверяет не то, насколько модель красиво рассуждает, а насколько точно она следует инструкциям. Для Mistral это ключевой сигнал.
Они явно не пытаются продать Medium 3.5 как самую умную модель в мире. Их ставка другая: сделать модель, которую можно спокойно встраивать в рабочие процессы, продукты и энтерпрайз-системы без ощущения, что она каждый день ведёт себя по-новому.
Бизнесу часто не нужен гений. Ему нужен исполнитель, который стабильно понимает задачу, держит контекст и не ломает инструкции.
Именно туда Mistral и целится. Не в хайп вокруг “самой сильной модели”, а в европейскую нишу надёжного production-AI с открытыми весами. И после последних перестановок на рынке конкурентов с такой же географией и амбициями у неё почти не осталось.
Blog: https://mistral.ai/news/vibe-remote-agents-mistral-medium-3-5
Hf: https://huggingface.co/collections/mistralai/mistral-medium-35
Guide: https://unsloth.ai/docs/models/mistral-3.5
GGUFs: https://huggingface.co/unsloth/Mistral-Medium-3.5-128B-GGUF
📌TIME назвал 10 самых влиятельных компаний 2026 года в сфере ИИ
Издание опубликовало расширенную версию рейтинга TIME100 Most Influential Companies - впервые выбрав их по отраслевому принципу.
🟡ByteDance
Владелец TikTok стал одним из ведущих ИИ-разработчиков Китая: его ассистент Doubao набрал более 155 млн еженедельных пользователей. В 2026 году компания, оценённая примерно в $550 млрд, потратит $14 млрд на чипы Nvidia (при условии одобрения экспорта со стороны США).
🟡Amazon
Корпорация запустила Project Rainier - один из крупнейших вычислительных ИИ-кластеров в мире, работающий примерно на 500 тыс. собственных чипов Trainium2 и обслуживающий модели Anthropic.
🟡Zhipu
Китайская компания первой среди местных LLM-разработчиков вышла на биржу в Гонконге и в феврале представила модель GLM-5 на 744 млрд параметров. По данным самой компании, её моделями пользуются более 4 млн корпоративных клиентов и разработчиков, а годовая выручка достигла около $107 млн.
🟡OpenAI
Число еженедельных пользователей ChatGPT превысило 900 млн, ежемесячная выручка — $2 млрд. Параллельно OpenAI заключила контракт с Пентагоном и столкнулась с исками, в которых ChatGPT, по утверждению истцов, мог сыграть крайне деструктивную роль по отношению к людям.
🟡Alphabet
Под руководством Сундара Пичаи Google вернулся в число лидеров ИИ: модели Gemini поднялись в верхушку рейтингов возможностей, а годовая выручка Alphabet впервые превысила $400 млрд. ИИ-функции компании встроены в Gmail, Maps, YouTube и сервис беспилотных такси Waymo.
🟡Meta*
В 2025 году Meta показала рекордную рекламную выручку, частично за счёт ИИ-обработки данных собственных соцсетей, и продолжает вкладываться в исследователей и дата-центры. В марте этого года суд признал Meta ответственной за вред психике несовершеннолетнего пользователя и присудили истцу $6 млн; компания заявила, что обжалует решение.
🟡Anthropic
Claude стал первой ИИ-системой, допущенной в засекреченные сети США, и, по сообщениям СМИ, использовался при планировании военных операций. После отказа Anthropic снять ограничения на массовую слежку и автономное оружие Белый дом объявил компанию риском цепочки поставок.
🟡Alibaba
Семейство открытых моделей Qwen превысило миллиард скачиваний и породило более 200 тыс. производных моделей. Гендиректор Эдди У заявил, что за пять лет компания рассчитывает превысить $100 млрд внешней выручки от облака и ИИ.
🟡Mistral
Французский стартап, оценённый примерно в $14 млрд, делает ставку на открытые модели и развёртывание на инфраструктуре заказчика; среди её клиентов - ASML, TotalEnergies, HSBC и министерство вооружённых сил Франции. В начале 2026 года её годовая выручка достигла $400 млн (примерно в 20 раз больше, чем годом ранее).
🟡Hugging Face
Платформа стала своего рода «GitHub для ИИ»: на ней размещено свыше 2 млн моделей и 500 тыс. датасетов, аккаунты есть более чем у 30% компаний из списка Fortune 500. Компания развивает инструменты для ИИ-агентов и в 2025 году представила открытого робота Reachy Mini.
* Компания Meta признана в России экстремистской организацией и запрещена
@ai_machinelearning_big_data
#news #ai #ml
Готовые LLM в облаке по выгодным ценам
MWS GPT Model Hub — облачный сервис MWS Cloud для работы с современными LLM от разных провайдеров без развёртывания собственной ML-инфраструктуры. Есть модели от DeepSeek, Google, Alibaba, Zhipu AI, BAAI, Moonshot AI.
До 15 июля снижаем цены: соотношение стоимости входящих к исходящим токенам — примерно 1:4:
• входящие токены — дешевле до 95%;
• исходящие токены — дешевле до 80%.
Это делает сценарии с большим объёмом контекста значительно выгоднее.
Новые цены применяются автоматически. Если ещё не пробовали MWS GPT Model Hub — хороший момент попробовать.
Попробовать
✔️ Ant выкатили Ling-2.6-flash в опенсорс, и это реально интересный кейс
На бумаге это монстр на 104 миллиарда параметров, но в работе одновременно крутится только 7,4 миллиарда. Классическая MoE архитектура, где сеть сама решает, каких экспертов подключать под конкретную задачу. Поэтому и скорость такая, какой обычно от больших моделей не ждёшь.
215 токенов в секунду на бенчмарке Artificial Analysis. Для сравнения, многие топовые модели крутятся в районе 50–80 токенов в секунду, так что разрыв ощутимый. Но интереснее другая цифра. На полном прогоне AA Intelligence Index модель потратила всего 15 миллионов токенов. В реальной эксплуатации такая экономия превращается в прямые деньги, потому что меньше токенов это меньше счёт за инференс.
Для деплоя есть три варианта весов: BF16 для тех, у кого железа в избытке, FP8 как разумный компромисс и INT4 для совсем зажатых по памяти сетапов.
То есть запустить можно хоть на жирном кластере, хоть на одной видяхе с квантизацией.
Hugging Face: https://huggingface.co/inclusionAI/Ling-2.6-flash
ModelScope: https://modelscope.cn/models/inclusionAI/Ling-2.6-flash
🚀 Яндекс отчитался за первый квартал 2026: выручка Yandex B2B Tech взлетела на 36%
Корпоративные сервисы Яндекса заработали уже 13,6 млрд рублей. Бизнес-клиенты не просто подключаются, а реально наращивают потребление – особенно в сегменте ИИ и безопасности.
Что там с деньгами:
• Выручка – 13,6 млрд рублей (+36% г/г). Растет и количество клиентов, и средний чек;
• Скорректированный показатель EBITDA – 2,6 млрд рублей (+49% г/г). Маржинальность тянет вверх доля PaaS и SaaS.
Ключевой драйвер — Yandex AI Studio:
• Ежемесячное потребление токенов через API выросло до 109 млрд в марте. Это рост в 30 раз всего за год;
• На платформе уже создали более 16 тысяч ИИ-агентов;
• Бизнес переходит от точечных экспериментов к полноценной автоматизации процессов.
Что еще важно:
• Общее число клиентов Yandex Cloud достигло 60 тысяч. Больше половины выручки дают крупные компании.
• ИИ и кибербезопасность растут вдвое быстрее год к году. Причём больше половины крупных и средних клиентов Cloud уже используют платформу для информационной безопасности.
Ссылка: https://rb.ru/news/yandeks-opublikoval-finansovye-itogi-za-i-kvartal-2026-goda-vyruchka-vyrosla-na-22-do-3727-mlrd/
CLAUDE OPUS 4.7 использует 500K токенов, чтобы переименовать одну переменную.
Читать полностью…
⚡️ Вы слышали про Rust. Знаете, что он быстрый, безопасный и что за ним будущее.
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
🎨 Qwen выпустили Qwen-Image-2.0-Pro - новую версию генератора изображений с заметным упором на качество, стабильность стилей, мультиязычный текст на картинках и точное следование инструкциям.
Заявлено, что модель стала лучше понимать промпты, аккуратнее работать с деталями и увереннее генерировать текст внутри изображения на разных языках.
Для инфографики, постеров, обложек, интерфейсов и рекламных креативов это особенно важно, потому что большинство image-моделей до сих пор часто ломаются именно на тексте.
Qwen-Image-2.0-Pro заняла 9 место в мировом рейтинге Text-to-Image на Arena.
Попробовать можно через ModelScope:
https://modelscope.ai/studios/Qwen/Qwen-Image-2.0-pro
https://modelscope.cn/studios/Qwen/Qwen-Image-2.0-pro
API доступно через Alibaba Cloud ModelStudio.
DeepSeek оценили в $20 млрд: Tencent и Alibaba дерутся за место в раунде
Лаборатория, которая обучила модель уровня GPT‑4 за $6 млн, впервые пустила внешних инвесторов. За несколько дней оценка удвоилась и перевалила за $20 млрд. Tencent предложил забрать сразу 20%, DeepSeek отказал, но переговоры продолжаются. Alibaba тоже рвётся в сделку.
Почему вдруг открылись? Уходят ключевые инженеры. Го Дая, ведущий автор R1, ушёл в ByteDance. Ван Бинсюань забрал Tencent, Ло Фули переманили в Xiaomi. На балансе хедж‑фонда войну за таланты с гигантами не выиграть, нужны свежие деньги.
Дальше самое интересное.
Следующий флагман строят под чипы Huawei, и инженеры Huawei прямо сейчас сидят внутри процесса обучения и ловят баги стабильности. Если получится, Китай впервые выпустит фронтирную модель вообще без американского железа.
Китай уже прогоняет 140 триллионов токенов в день против 100 миллиардов в начале 2024 года. Рост больше чем в тысячу раз. И компания, которая обнулила всем представления о стоимости обучения, получает $300+ млн на масштабирование.
/channel/data_analysis_ml/5036
🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
🚀 OpenAI представила GPT-5.5
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.
GPT 5.5 хороша в многоступенчатых задачах.
И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех платных подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
/ultrareview — новая функция в Claude Code (research preview): запускает в облаке целый флот агентов-багхантеров, которые ищут проблемы в коде перед мержем.
Результаты автоматически приходят в CLI или Desktop. Рекомендуется использовать перед критичными изменениями (авторизация, миграции данных). Pro и Max пользователям доступно 3 бесплатных ревью до 5 мая.
⚡️ Опенсорс алтернатива Claude Code
Данная сборка поддерживает API NVIDIA, OpenRouter и локальные модели через LM Studio. Утверждается, что сохранены все возможности Claude Code.
Запуск возможен локально.
Все фичи Claude Code работают как раньше - работа с файлами, кодом и режим агента не пострадали.
Отличный вариант, чтобы сэкономить 20 долларов.
https://github.com/Alishahryar1/free-claude-code#quick-start
Claude уже тестируют не на задачках, а на реальной биоинформатике
Anthropic выкатила BioMysteryBench - новый benchmark для проверки того, насколько Claude способен решать настоящие научные задачи в биологии.
. Модель получает реальные noisy-датасеты, инструменты для анализа, доступ к bioinformatics-базам вроде NCBI и Ensembl, возможность ставить пакеты через pip и conda - и должна сама разобраться, что происходит в данных.
Внутри BioMysteryBench - 99 задач из разных областей биоинформатики.
Например: определить орган по single-cell RNA-seq данным, понять, какой ген был knocked out, найти родителей образца по WGS-секвенированию или определить тип клетки по ChIP-seq peaks.
Anthropic специально делала benchmark так, чтобы оценивался не путь решения, а финальный ответ. Потому что в науке часто нет одного «правильного» метода. Один исследователь пойдёт через GWAS, другой через microbiome, третий через метаанализ. Важно не то, каким маршрутом ты пришёл, а смог ли ты добраться до верного вывода.
Claude быстро улучшается от поколения к поколению, а текущие модели на части задач идут на уровне human experts. Более того, Claude Sonnet 4.6 и более сильные модели смогли решить заметную долю задач, с которыми не справилась группа из пяти профильных экспертов. Claude Mythos Preview дошёл до 30% solve rate на human-difficult задачах.
На обычных human-solvable задачах модель чаще работает стабильно: либо знает, как решать, либо нет. А на сложных human-difficult задачах часть побед выглядит хрупкой: иногда Claude находит удачный reasoning path, но не всегда может воспроизвести его в следующих попытках. То есть frontier уже сдвинулся, но надёжность пока не везде на уровне production science.
BioMysteryBench: https://www.anthropic.com/research/Evaluating-Claude-For-Bioinformatics-With-BioMysteryBench
🔥 100 Claude и AI-репозиториев, которые стоит сохранить. Часть 1/4
1. Claude Code
https://github.com/anthropics/claude-code
Терминальный AI coding agent от Anthropic. Нужен, если хотите работать с кодом через Claude прямо из терминала.
2. Claude Quickstarts
https://github.com/anthropics/claude-quickstarts
Готовые starter apps для быстрого запуска проектов на Claude. Полезно, если не хочется собирать всё с нуля.
3. Anthropic Skills
https://github.com/anthropics/skills
Официальные Skills для Claude. Это способ расширять возможности модели под конкретные задачи и рабочие процессы.
4. Claude Plugins Official
https://github.com/anthropics/claude-plugins-official
Официальный marketplace плагинов для Claude. Подходит для изучения того, как устроены расширения вокруг экосистемы Anthropic.
5. Anthropic Repositories
https://github.com/orgs/anthropics/repositories
Полный список репозиториев Anthropic на GitHub. Хорошая точка входа, если хотите следить за официальными инструментами.
6. Awesome Claude Code
https://github.com/hesreallyhim/awesome-claude-code
Крупная подборка ресурсов, инструментов и практик вокруг Claude Code. Удобно использовать как навигатор по экосистеме.
7. Awesome Claude Plugins
https://github.com/quemsah/awesome-claude-plugins
Подборка 1000+ плагинов для Claude. Полезно, если ищете готовые расширения под конкретные задачи.
8. Antigravity Awesome Skills
https://github.com/sickn33/antigravity-awesome-skills
Большая библиотека Skills для AI-агентов. Можно подсмотреть идеи для автоматизации и кастомных рабочих процессов.
9. Awesome Agent Skills
https://github.com/VoltAgent/awesome-agent-skills
Кураторская подборка навыков для агентных систем. Подходит для тех, кто строит ассистентов с конкретными ролями и задачами.
10. Claude Skills
https://github.com/alirezarezvani/claude-skills
Кроссплатформенные Skills для Claude. Можно использовать как основу для собственных расширений и workflow.
11. LangChain
https://github.com/langchain-ai/langchain
Один из самых известных фреймворков для LLM-приложений. Помогает собирать цепочки, агентов, RAG и интеграции с внешними сервисами.
12. LangGraph
https://github.com/langchain-ai/langgraph
Фреймворк для agent workflows и stateful-графов. Особенно полезен, когда агенту нужны циклы, память, маршрутизация и сложная логика.
13. AutoGen
https://github.com/microsoft/autogen
Фреймворк Microsoft для multi-agent систем. Позволяет строить сценарии, где несколько агентов общаются и решают задачу вместе.
14. CrewAI
https://github.com/crewAIInc/crewAI
Инструмент для team-based agents. Удобен, если нужно раздать агентам роли: исследователь, разработчик, ревьюер, аналитик.
15. MetaGPT
https://github.com/metaGPT/metaGPT
AI dev team в виде агентной системы. Идея в том, чтобы имитировать команду разработки с разными ролями.
16. GPT Engineer
https://github.com/gpt-engineer-org/gpt-engineer
Code agent, который помогает генерировать приложения по описанию. Подходит для быстрых прототипов и экспериментов.
17. Sweep
https://github.com/sweepai/sweep
Инструмент для автоматических PR-фиксов. Может помогать разбирать issues и предлагать изменения в коде.
18. Continue
https://github.com/continue-repl/continue
Open-source AI coding assistant для IDE. Хорошая альтернатива закрытым ассистентам для разработки.
19. Bloop
https://github.com/BloopAI/bloop
AI-инструмент для поиска по коду. Нужен, когда кодовая база большая и обычный поиск уже не помогает.
20. Agent Protocol
https://github.com/agentprotocol/agentprotocol
Попытка стандартизировать взаимодействие с AI-агентами. Полезно для понимания, как могут выглядеть общие интерфейсы для агентов.
21. Knowledge Work Plugins
https://github.com/anthropics/knowledge-work-plugins
Плагины для задач knowledge work. Это про работу с документами, информацией, анализом и внутренними процессами.
22. Vercel AI SDK
https://github.com/vercel/ai
SDK для создания AI-интерфейсов и приложений. Особенно полезен для разработчиков на Next.js и TypeScript.
«Я чертовски НЕНАВИЖУ AI»
Жёсткая реальность от разработчика с 20-летним опытом: экзистенциальная тревога от того, как десятилетиями накопленные навыки постепенно теряют ценность на фоне Claude Code и Codex.
32 тысячи звёзд на GitHub всего за 10 часов!
Терминал Warp открыли в open-source.
Это одна из самых заметных agentic development environment: терминалом уже пользуются больше 1 млн разработчиков по всему миру. Теперь проект хотят развивать быстрее за счёт комьюнити, внешних контрибьюторов и прозрачной разработки.
open-source-релиз стал возможен при поддержке OpenAI, которые выступили главным спонсором проекта.
Реакция комьюнити мощная: репозиторий за несколько часов собрал уже 30+ тысяч звёзд на GitHub.
И, конечно же, он написан на Rust.
https://github.com/warpdotdev/warp
Налог на неанглийский язык: почему хинди и арабский в Claude обходятся дороже всего
Исследователь Аран Комацузаки прогнал «Bitter Lesson» Саттона через токенизаторы OpenAI и Anthropic и нормализовал результат к английскому. Картинка получилась неприятная для всех, кто пишет не на английском.
Один и тот же текст на хинди у OpenAI занимает в 1,37 раза больше токенов, чем по-английски. У Anthropic - в 3,24 раза. Арабский: 1,31 против 2,86. Китайский: 1,15 против 1,71. То есть пользователь, который пишет Claude на хинди, фактически платит втрое больше за то же самое сообщение и быстрее упирается в контекстное окно.
Это и есть «лингвистический налог»: токенизатор обучен преимущественно на английских данных, и все остальные языки он режет на куски мельче, чем нужно. У Anthropic эта диспропорция выражена заметно сильнее, чем у OpenAI, и для языков с неевропейской письменностью разрыв превращается в реальные деньги и потерянный контекст.
https://x.com/arankomatsuzaki/status/2049125048792006965
Microsoft представила TRELLIS.2 - open-source Image-to-3D модель на 4B параметров, которая превращает изображения в 3D-ассеты с PBR-текстурами разрешением до 1536³.
Модель построена на нативных 3D VAE с 16-кратным пространственным сжатием, что даёт более эффективную, масштабируемую и детализированную генерацию 3D-объектов.
Демки выглядят очень круто.
https://github.com/microsoft/TRELLIS.2
🧩 Новый язык программирования для AI-систем
Weft - это язык программирования, написанный на Rust, который упрощает создание AI-приложений, позволяя связывать LLM, людей и API без лишнего "проводки". Он предлагает визуальное представление программ и строгую типизацию, что делает разработку более интуитивной и безопасной.
🚀Основные моменты:
- Первоклассные взаимодействия с людьми через простые узлы.
- Возможность сворачивать группы узлов для упрощения структуры.
- Полная типизация, предотвращающая ошибки на этапе компиляции.
- Устойчивое выполнение программ, сохраняющих состояние после сбоев.
- Встроенные узлы для работы с различными сервисами и API.
📌 GitHub: https://github.com/WeaveMindAI/weft
#rust
📚 Переводим целые книги и большие файлы за минуту - opensource переводчик, который поможет адаптировать любое произведение, документ или другие файлы на любой язык.
• Внутри можно использовать любые модели, в том числе ChatGPT, Gemini, Mistral и DeepSeek.
• Вы можете запускать переводчик локально через Ollama и не бояться за приватность.
• Принимает любые типы файлов: EPUB, SRT, DOCX, TXT.
• Сохраняет форматирование.
• Переводит файлы на огромное количество языков и знает русский.
• После перевода также еще раз проходит по тексту для литературной шлифовки и комфортного чтения.
Github: https://github.com/hydropix/TranslateBooksWithLLMs
🐠 Эволюция вместо масштабирования: TRINITY от Sakana AI выжимает 86,2% на LiveCodeBench из готовых LLM.
Лаборатория Sakana AI выкатила работу, которая хорошо ложится на текущее ощущение всей индустрии: бесконечное скейлинг-марафон с одиночными монолитными моделями постепенно упирается в стену diminishing returns. Их ответ называется TRINITY, и это не очередная гигантская LLM, а лёгкий координатор поверх уже существующих топовых моделей. Статья принята на ICLR 2026.
Идея простая по форме и довольно дерзкая по сути.
Вместо того чтобы обучать одну огромную сетку под все задачи, авторы предлагают композицию моделей на этапе инференса (test-time model composition). TRINITY дирижирует пулом разных state-of-the-art LLM, не трогая их веса и не требуя совместимой архитектуры. По сути, это попытка обойти главные боли model merging: разные размерности скрытых состояний, разные токенизаторы и закрытые веса фронтирных моделей.
Работает это итеративно, в несколько ходов. На каждом шаге координатор смотрит на текущее состояние задачи и назначает одной из доступных LLM одну из трёх ролей. Thinker строит верхнеуровневую стратегию и анализирует ситуацию. Worker выполняет конкретные шаги решения. Verifier проверяет, насколько текущий ответ полон и корректен. Динамическое распределение этих ролей позволяет выгружать тяжёлый reasoning и узкоспециализированные навыки на внешние модели, оставляя сам координатор максимально лёгким.
Координатор работает на скрытых состояниях небольшой компактной языковой модели плюс маленькая routing head поверх. Суммарно меньше 20 тысяч обучаемых параметров. Для текущего ландшафта мультиагентных систем это смешные цифры.
Обучить такую систему оказалось нетривиально. Стандартный REINFORCE не вывез: слишком низкое отношение сигнал/шум на бинарных наградах и слабая связь градиентов с параметрами. Классическое SFT тоже отпало: разметка многоходовых траекторий получается жёстко дорогой. Решение в духе Sakana: эволюционный поиск без градиентов. Авторы используют derivative-free эволюционный алгоритм, который вылизывает эту компактную высокомерную задачу координации там, где классический градиентный оптимизатор просто ломается.
По цифрам выглядит убедительно. TRINITY стабильно обходит и существующие мультиагентные бэйзлайны, и отдельные модели в пуле на разных бенчмарках. Главная цифра на момент публикации: state-of-the-art 86,2% pass@1 на LiveCodeBench. Еще интереснее история с генерализацией. Без дообучения координатор в zero-shot режиме перенёсся на четыре невиданных задачи (AIME, BigCodeBench, MT-Bench, GPQA) и в среднем обошёл любую отдельную модель из своего пула, включая GPT-5, Gemini 2.5 Pro и Claude 4 Sonnet.
TRINITY показывает, что хорошо организованный ансамбль из разнородных моделей может стабильно обходить любую свою отдельную составляющую, если правильно подобрать механизм координации. При этом систему не нужно переобучать под каждый новый бенчмарк, что отличает её от многих специализированных решений.
Отдельно стоит обратить внимание на подход Sakana к самому видению будущего AI. Авторы явно ставят всю философию лабы на коллаборативные экосистемы разнородных моделей, которые можно комбинировать и адаптировать, вместо бесконечного качания параметров в одной монолитной сетке. TRINITY выводят как фундаментальный кирпичик коммерческого продукта Sakana Fugu, бета-версия этой мультиагентной оркестровки уже открыта.
Эволюция вместо масштабирования: TRINITY от Sakana AI выжимает 86,2% на LiveCodeBench из готовых LLM
Полезные ссылки:
Paper (arXiv): https://arxiv.org/abs/2512.04695
OpenReview: https://openreview.net/forum?id=5HaRj
Sakana Fugu (бета): https://sakana.ai/fugu-beta
Пост в X: https://x.com/SakanaAILabs/status/2048181386868293639
☝️ Gemini после того, как Google вложил 40 000 000 000 долларов в Claude.
Google - инвестирует 40 миллиардов долларов, чтобы выпустить claude mythos.
Новая сделка дает им 10 миллиардов долларов авансом, нацеливаясь на 5 ГВт вычислений в 2027 году
Это происходит сразу после инвестиций amazon в 5 миллиардов долларов на этой неделе.
https://www.reuters.com/business/google-plans-invest-up-40-billion-anthropic-bloomberg-news-reports-2026-04-24/
Лучшие преимущества сейчас на рынке: уметь строить модели, работать с большими данными и глубоко понимать ML.
Именно это даёт Школа анализа данных от Яндекса — двухлетняя бесплатная программа по ML, Data Science, ИИ и инфраструктуре больших данных. У ШАДа три особенности: глубокая теория + задачи из реальных систем Яндекса, обучение у топовых экспертов индустрии, сильное профессиональное комьюнити.
В этом году набор идет на четыре направления:
1. Разработка машинного обучения
2. Data Science
3. Инфраструктура больших данных
4. Анализ данных в прикладных науках
Два трека поступления: классический (3 этапа отбора) и альтернативный — для тех, у кого уже есть опыт. Учиться можно офлайн, гибрид или онлайн.
Заполнить анкету можно по ссылке до 3 мая.
Ant Group выкатила Ling-2.6-1T, флагманскую модель на триллион параметров, и главная фишка тут не размер.
Разработчики сделали ставку на механизм «быстрого мышления»: модель не гоняет бесконечные цепочки рассуждений, а выдаёт ответ экономно по токенам, сохраняя при этом SOTA уровень интеллекта.
По сути, Ant Ling пытается переломить индустриальный тренд, где качество ответа принято покупать ценой огромного расхода токенов. Здесь токен возведён в ранг first-class сущности, то есть эффективность встроена в саму архитектуру, а не прикручена сверху.
https://openrouter.ai/inclusionai/ling-2.6-1t:free
Xiaomi анонсировала серию MiMo-V2.5 - новое поколение их открытых агентных моделей.
MiMo-V2.5-Pro - флагман линейки. Серьёзный скачок по сравнению с MiMo-V2-Pro в общих агентных способностях, сложной разработке ПО и долгосрочных задачах.
По заявленным бенчмаркам догоняет фронтирные модели вроде Claude Opus 4.6 и GPT-5.4: SWE-bench Pro — 57.2, Claw-Eval — 63.8, τ3-Bench — 72.9. Может автономно выполнять
профессиональные задачи с более чем 1000 вызовов инструментов — работа, на которую у людей-экспертов ушли бы дни.
Tech Blog: https://mimo.xiaomi.com/blog/mimo-v2.5-pro
MiMo-V2.5 - нативно омнимодальная модель с сильными агентными возможностями. Даёт производительность Pro-уровня примерно за половину стоимости. Улучшено восприятие изображений и видео, нативное контекстное окно на 1M токенов и значительно более эффективный инференс.
Доступны техблоги и API с тарифными планами на платформе Xiaomi.
Tech Blog: https://mimo.xiaomi.com/blog/mimo-v2.5
🔗 API & Token Plan: https://platform.xiaomimimo.com/token-plan
⚡️ Что на самом деле покупают люди в вашей категории: закрытый вебинар по данным Dialog X5.
Кажется, что знать свою аудиторию - это собрать красивый дашборд с демографией, охватами и кликами. На практике во всех этих данных зияет одна огромная дыра: что этот человек реально кладёт в корзину каждую неделю и на что тратит деньги. Без ответа на этот вопрос вся аналитика превращается в набор прокси-метрик, которые считают всё, кроме главного.
Dialog X5 как раз про это. Речь не только про ритейл-аналитику в привычном смысле, а про доступ к агрегированным и обезличенным транзакционным данным X5.
Это срез реального спроса и поведения миллионов людей: что покупают, в каких категориях, с какой частотой, как меняются привычки по регионам и сезонам.
На вебинаре 24 апреля покажут, как эти данные работают за пределами ритейла. Банк подключает их, чтобы понять реальную структуру трат по категориям и брендам. Девелопер оценивает потенциал локации до того, как расположить туда дом.
Медиа подбирает места размещения не по охвату баннера, а по плотности определенной аудитории. CRM-команда находит сегменты, которые раньше не видела, и борется с оттоком. Исследователи сшивают опросы с реальными покупками и перестают гадать, где респонденты приукрасили.
Главный эффект от таких данных простой: маркетинг перестаёт измеряться кликами и охватами. Его можно мерить реальными покупками, а не прокси-метриками, которые красиво выглядят в отчёте и ничего не говорят о реальных эффектах.
Вебинар будет полезен, если вы работаете с аналитикой, маркетингом, CRM, продуктом или стратегией в финтехе, страховании, недвижимости, техе или агентстве. Формат онлайн, с кейсами и прикладным разбором инструментов. Успейте зарегистрироваться, вебинар уже 24 апреля.
Все данные используются в агрегированном и обезличенном виде и не содержат персональной информации.
Подключиться к вебинару.
OpenHarness — open-source «обвязка» для AI-агентов
LLM даёт интеллект, но чтобы стать рабочим агентом, ему нужны инструменты, память, разрешения и координация. Это и есть agent harness - инфраструктурный слой между моделью и реальным миром.
Главное:
🛠 43+ инструмента - файлы, shell, поиск, веб, MCP (с валидацией через Pydantic и проверкой прав)
📚 Skills — подгрузка знаний из .md-файлов on-demand
🔌 Plugins — совместимость с claude-code плагинами
🔐 Права 3 уровней — default (спрашивает), auto (всё можно), plan (только чтение)
🤝 Мульти-агентность - спавн сабагентов, реестр команд, фоновые задачи
🧠 Память - кросс-сессионная, со сжатием контекста
В комплекте ohmo - личный агент, работающий из Feishu, Slack, Telegram или Discord: форкает ветки, пишет код, гоняет тесты, открывает PR. Работает на подписке Claude Code / Codex.
https://github.com/HKUDS/OpenHarness