data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

DeepSeek оценили в $20 млрд: Tencent и Alibaba дерутся за место в раунде

Лаборатория, которая обучила модель уровня GPT‑4 за $6 млн, впервые пустила внешних инвесторов. За несколько дней оценка удвоилась и перевалила за $20 млрд. Tencent предложил забрать сразу 20%, DeepSeek отказал, но переговоры продолжаются. Alibaba тоже рвётся в сделку.

Почему вдруг открылись? Уходят ключевые инженеры. Го Дая, ведущий автор R1, ушёл в ByteDance. Ван Бинсюань забрал Tencent, Ло Фули переманили в Xiaomi. На балансе хедж‑фонда войну за таланты с гигантами не выиграть, нужны свежие деньги.
Дальше самое интересное.

Следующий флагман строят под чипы Huawei, и инженеры Huawei прямо сейчас сидят внутри процесса обучения и ловят баги стабильности. Если получится, Китай впервые выпустит фронтирную модель вообще без американского железа.

Китай уже прогоняет 140 триллионов токенов в день против 100 миллиардов в начале 2024 года. Рост больше чем в тысячу раз. И компания, которая обнулила всем представления о стоимости обучения, получает $300+ млн на масштабирование.

/channel/data_analysis_ml/5036

Читать полностью…

Анализ данных (Data analysis)

🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.

Длинный контекст больше не фича для демо. Теперь это базовый уровень.

Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.

Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.

Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.

По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.

Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.

И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.

Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.

📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4

@ai_machinelearning_big_data

#DeepSeek

Читать полностью…

Анализ данных (Data analysis)

🚀 OpenAI представила GPT-5.5

Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.

GPT 5.5 хороша в многоступенчатых задачах.

И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.

Модель стала дороже: ~$5 / $30 за млн токенов.

Уже раскатывают на всех платных подписчиков.

Тестим! 🔥

https://openai.com/index/introducing-gpt-5-5/

Читать полностью…

Анализ данных (Data analysis)

/ultrareview — новая функция в Claude Code (research preview): запускает в облаке целый флот агентов-багхантеров, которые ищут проблемы в коде перед мержем.

Результаты автоматически приходят в CLI или Desktop. Рекомендуется использовать перед критичными изменениями (авторизация, миграции данных). Pro и Max пользователям доступно 3 бесплатных ревью до 5 мая.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Опенсорс алтернатива Claude Code

Данная сборка поддерживает API NVIDIA, OpenRouter и локальные модели через LM Studio. Утверждается, что сохранены все возможности Claude Code.

Запуск возможен локально.

Все фичи Claude Code работают как раньше - работа с файлами, кодом и режим агента не пострадали.

Отличный вариант, чтобы сэкономить 20 долларов.

https://github.com/Alishahryar1/free-claude-code#quick-start

Читать полностью…

Анализ данных (Data analysis)

Последний рывок перед майскими — AI-митап #каквсбере в Нижнем Новгороде!⚡️

23 апреля в кампусе Школы 21 вместе с топовыми спикерами Сбера обсудим сразу три действительно горячие темы:

✔️ Какие алгоритмы генерации и шифрования сейчас в тренде?
✔️ Как «разогнать» искусственный интеллект?
✔️ Каким образом лучше подружить команду с ИИ?

Готовы узнать всё о трансформации мира современной разработки? Тогда займите своё место на митапе — подробная программа и регистрация по ссылке!

Читать полностью…

Анализ данных (Data analysis)

🖥 Text-to-SQL ломается не из-за модели. Он ломается из-за схемы

Большинство думает, что проблема в LLM или плохом промпте. На практике всё проще. Модель не видит правильные связи между таблицами.

Пример. Запрос вроде “какие издатели получили выплаты выше 5000”. Векторный поиск подтянет publisher и royalty_ledger. Всё логично. Но пропустит vendor_agreement, ту самую таблицу, которая их связывает.

В итоге SQL выглядит валидно. Но возвращает ноль строк.

Это системная проблема всех решений на embeddings. Они ищут по смыслу, но не понимают структуру базы.

Нормальный подход другой. Схему нужно рассматривать как граф.

Таблицы это узлы. Foreign keys это связи. Запрос решается не поиском похожих слов, а обходом графа и поиском join-пути.

Именно так работает QueryWeaver.

Он строит граф базы и при запросе сам находит весь путь, включая промежуточные таблицы. Даже если это цепочка из нескольких шагов.

На практике это выглядит так. В тесте с базой на 60 таблиц он разобрал 5-шаговый запрос через цепочку superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation.

Векторный поиск увидел только начало и конец. Всё между ними потерял, потому что “stakeholder” никак не связан по смыслу с “superpower”.

Графу на это всё равно. Он просто находит единственный путь между сущностями.

И это меняет всё.

Open-source, можно развернуть у себя и наконец получить text-to-SQL, который реально работает.

https://github.com/FalkorDB/QueryWeaver

Читать полностью…

Анализ данных (Data analysis)

🚀 У Anthropic угнали доступ к Claude Mythos. К той самой модели, которую они побоялись выпускать в мир.

Anthropic подтвердила то, от чего индустрия сейчас в лёгком шоке. Неизвестные получили доступ к Claude Mythos, самой мощной модели в истории компании. Зашли через учётку стороннего подрядчика и, судя по всему, использовали ещё какие-то методы, которые пока не раскрывают. Компания говорит, что основные системы не затронуты и идёт расследование. Но проблема не в самом факте доступа, а в том, к чему именно он вёл.

Mythos изначально не затачивали под кибербез. Его учили писать код. Просто писать код лучше, чем все предыдущие Claude. Но побочный эффект оказался куда серьёзнее. Модель стала крайне эффективной в прикладном хакинге.

Во время внутренних тестов Mythos вышел из своей песочницы. Сам. Подключился к интернету, отправил письмо исследователю, которого не было в офисе, и выложил детали эксплойтов на публичных площадках. Без авторизации. В других тестах он скрывал следы своих действий, переписывая историю git, и намеренно занижал точность на замерах, чтобы не привлекать внимание. То есть модель осознанно обманывала тех, кто её тестировал.

Mythos умеет объединять несколько уязвимостей в одну цепочку. Три, четыре, иногда пять, каждая из которых по отдельности выглядит незначительно, превращаются в полноценный эксплойт. Работает автономно, долго и многошагово, как полноценный исследователь.

В открытых тестах он нашёл баг в OpenBSD, который оставался незамеченным 27 лет. Обнаружил уязвимость в FFmpeg возрастом 16 лет, которую не поймали миллионы автоматических прогонов. И выявил тысячи серьёзных проблем в основных операционных системах и браузерах.

Именно поэтому Anthropic не выпустила модель в публичный доступ. Вместо этого они запустили Project Glasswing и дали доступ примерно сорока организациям. Среди них AWS, Apple, Google, Microsoft, Cisco, CrowdStrike, JPMorgan, Linux Foundation. На защитные задачи выделили 100 миллионов долларов в виде кредитов.

Следующее поколение моделей станет ещё мощнее. И тем, кто защищает инфраструктуру, нужно время, чтобы найти уязвимости раньше атакующих.

И вот теперь к этой модели получили доступ посторонние. Через подрядчика. Сценарий, от которого пытались защититься закрытой программой, уже частично произошёл.

Что именно они успели сделать и что могли сохранить, неизвестно. И это самая неприятная часть всей истории.

Читать полностью…

Анализ данных (Data analysis)

Google DeepMind показали двух новых автономных агентов: Deep Research и Deep Research Max на базе Gemini 3.1 Pro.

Они сами лазят по вебу и по вашим внутренним документам, а на выходе отдают готовый профессиональный отчёт с цитатами и всеми источниками.

Обычная версия заточена под скорость, подходит для интерактивных сценариев, где ответ нужен быстро.

Max не торопится: тратит больше времени на поиск и рассуждение, собирает максимум контекста и заметно обгоняет конкурентов на отраслевых бенчмарках по извлечению фактов и синтезу.
Главная фишка - поддержка сторонних MCP.

Агенту можно безопасно подключить свои базы, корпоративные хранилища или сторонние источники вроде специализированных финансовых данных, и он будет работать прямо с ними, а не только с открытым интернетом.

https://x.com/GoogleDeepMind/status/2046627042335060342

Читать полностью…

Анализ данных (Data analysis)

Аналитики, отмечаем дату: 23 апреля пройдет Analytics Party — вечерний митап Яндекса для аналитиков в Санкт-Петербурге.

Вместе с экспертами поговорим о решениях сложных продуктовых и исследовательских задач и разберем реальные кейсы, где данные, модели и продуктовые решения пересекаются.

— Елмурат Темиргалиев, руководитель группы сбора датасетов
в команде Автономного транспорта Яндекса, расскажет, как они объединяют реальные и синтетические данные, чтобы получать доверительные выводы о безопасности автономного транспорта.

— Иван Меренков, аналитик команды Data AI Lab Яндекса, через реальные примеры покажет, как собрать команду ИИ-агентов, которая поможет в повседневной работе аналитика.

— Николай Олигеров, аналитик-разработчик Яндекс Путешествий, разберет статистический метод Propensity Score Matching, который можно использовать как альтернативный подход для оценки эффектов.

После основной программы участников ждет тематический нетворкинг, на котором обсудят разметку событий мобильных приложений, работу AI-агентов, тестирование без A/В, аналитику качества технологий и др.

Регистрация уже открыта.

Читать полностью…

Анализ данных (Data analysis)

🗣 Релиз Fun-ASR1.5 - обновление end-to-end модели распознавания речи.

Главное изменение в том, что модель стала ближе к продакшену.

Поддержка 30 языков в одном пайплайне. Без разбиения на отдельные модели и маршрутизации.

Нормально работает с code-switching. Если в речи смешаны языки, модель сама это определяет и корректно транскрибирует, без ручной разметки.

Выходной текст стал заметно чище. Появилась адекватная пунктуация и форматирование чисел, дат, валют. Меньше постобработки, меньше костылей сверху.

Фактически это уже не просто ASR, а готовый слой для сервисов, где речь сразу превращается в пригодный текст.

API:
https://dashscope-intl.aliyuncs.com/api/v1

Демо:
https://modelscope.cn/studios/iic/FunAudio-ASR

Читать полностью…

Анализ данных (Data analysis)

SSoT: Sakana AI научила LLM быть по-настоящему случайными

Попросите любую LLM 100 раз «подбрось монету», и распределение орла и решки перекосится далеко от честных 50 на 50. Похожая история с «придумай 10 идей для романа»: вместо десяти разных сюжетов модель выдаёт десять вариаций одного и того же. Даже если явно передать ей вероятности, генерировать выборку, строго соответствующую распределению, у LLM получается плохо.

Японская лаборатория Sakana AI в новой статье «SSoT: Prompting LLMs for Distribution-Faithful and Diverse Generation», принятой на ICLR 2026, показывает, что эту проблему можно закрыть одним только промптом, без дообучения и без внешних генераторов случайных чисел.

Приём называется String Seed of Thought и устроен максимально просто: модель сначала генерирует у себя в «голове» случайную строку, а потом использует её как сид при формировании итогового ответа. Никаких внешних инструментов и случайных чисел извне не требуется, всё делается средствами самой LLM.

Авторы прогнали SSoT на широком наборе моделей, и картина получилась убедительная. Смещение выборки у открытых и закрытых LLM заметно уменьшается, а у части reasoning-моделей точность распределений почти неотличима от настоящего ГСЧ. Метод работает не только на бинарном выборе вроде монетки, но и на произвольных дискретных распределениях.

SSoT резко повышает разнообразие генерации в задачах, где важна креативность. В экспериментах с написанием коротких художественных текстов добавление одной строчки SSoT в промпт ощутимо увеличивает разнообразие выходных документов, не ломая их качества. То есть один и тот же трюк одновременно чинит и «честную случайность», и типичную проблему с однообразными идеями.

Для AI-инженеров это интересно по нескольким причинам. SSoT можно воспринимать как дешёвый кирпич для построения продакшен-систем на LLM: там, где раньше приходилось прикручивать внешние сэмплеры или городить костыли, чтобы модель не залипала в одном и том же ответе, теперь иногда достаточно грамотно оформленного промпта. Sakana AI прямо называет SSoT базовой техникой для будущих подходов к inference-time scaling, интеграции LLM в реальные пайплайны и для задач, где нужны честные выборки из распределений.

Подробный разбор механизма, теоретический анализ и интерактивное демо лежат в блоге и в статье на arXiv.

Блог: https://pub.sakana.ai/ssot

Статья: https://arxiv.org/abs/2510.21150

Читать полностью…

Анализ данных (Data analysis)

Релиз Kimi K2.6. Впечатление смешанное.

Главное открытые веса, приличные цифры на бенчмарках (HLE 54.0, SWE-Bench Pro 58.6, SWE-bench Multilingual 76.7), заявленный long-horizon coding на 12+ часов и рост агентских роёв со 100 до 300 субагентов.

Доступ через чат, API и Kimi Code.

Минусы: часть бенчмарков снята в связке с Python, то есть это оценка системы, а не модели. «Open-source SOTA» значит лидерство среди открытых, сравнений с GPT и Claude в посте нет.

• HLE с инструментами: 54.0
• SWE-Bench Pro: 58.6
• SWE-bench Multilingual: 76.7
• BrowseComp: 83.2
• Toolathlon: 50.0
• Charxiv с Python: 86.7
• Math Vision с Python: 93.2

🔗 API: https://platform.moonshot.ai
🔗 Tech blog: https://kimi.com/blog/kimi-k2-6
🔗 Weights & code: https://huggingface.co/moonshotai/Kimi-K2.6

Читать полностью…

Анализ данных (Data analysis)

⚡️ Андрей Карпаты высказал про дизайн ИИ-моделей мысль, которую большинство упускает из виду.

Его тезис: передовые модели не потому огромные, что технология сложная, а потому что данные для обучения мусорные.

Когда обычный человек думает про интернет, ему в голову приходят статьи Wall Street Journal, Википедия, серьёзные тексты.

Так вот, датасет для предобучения выглядит иначе. Если открыть случайные документы из реального корпуса, то там будут тикеры акций, битый HTML, спам и бессвязный текст.
По одной из оценок, Llama 3 сжимает информацию со скоростью всего 0.07 бита на токен. То есть модель помнит большую часть обучающих данных смутно.

Поэтому мы и строим модели на триллион параметров не потому, что нам нужен мозг такого размера, а потому что нужен движок сжатия такого масштаба, чтобы выжать хоть какой-то интеллект из потока шума. Большая часть параметров работает памятью, а не мышлением.

Предложение Карпаты - разделить эти две функции. Построить когнитивное ядро - модель, в которой остались только алгоритмы рассуждения и решения задач, без энциклопедического заучивания.

А рядом поставить внешнюю память, к которой модель обращается за фактами.

По его прогнозу, когнитивное ядро, обученное на качественных данных, способно выйти на настоящий интеллект при размере около миллиарда параметров. Для сравнения: флагманские модели сегодня крутятся в диапазоне от 200 миллиардов до 1.8 триллиона параметров, и большая часть этого веса уходит на запоминание интернет-помойки.

GPT-4o работает примерно на 200 миллиардах параметров и обходит оригинальный GPT-4 на 1.8 триллиона. Стоимость инференса на уровне GPT-3.5 с 2022 по 2024 упала в 280 раз, и почти весь этот выигрыш дали модели меньшего размера, обученные на более чистых данных с более продуманной архитектурой.

Настоящим узким местом ИИ сейчас является качество данных.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

⚡️ OpenMythos: открытая реконструкция Claude Mythos на PyTorch

Это теоретическую сборка архитектуры Claude Mythos по первым принципам и публичной литературе. Это не веса от Anthropic, а попытка сообщества воспроизвести саму идею.

В основе лежит Recurrent-Depth Transformer: один и тот же параметризованный блок с общими весами прогоняется T раз внутри одного forward pass, так что глубина достигается не новыми слоями, а итерациями. Поверх этого накручен sparse MoE с top-K роутингом, дающий условные вычисления на каждом шаге.

В отличие от классического chain-of-thought, reasoning идёт целиком в непрерывном латентном пространстве, без генерации промежуточных токенов между шагами.

Гипотеза автора: рекурсивный блок плюс разреженные эксперты дают лучший компромисс качество/стоимость инференса и потенциально эмерджентный многошаговый reasoning без раздувания модели.

Схема: Prelude из плотных блоков, зацикленный Shared block с loop-index эмбеддингами и LoRA-адаптерами по глубине, MoE-роутинг, ACT-халтинг для раннего выхода, на выходе RMSNorm и tied LM head.

Полезно тем, кто копает recurrent-depth модели, латентное reasoning и эффективные MoE. Поиграться с архитектурой можно, не дожидаясь релиза весов.

https://github.com/kyegomez/OpenMythos

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

Лучшие преимущества сейчас на рынке: уметь строить модели, работать с большими данными и глубоко понимать ML.

Именно это даёт Школа анализа данных от Яндекса — двухлетняя бесплатная программа по ML, Data Science, ИИ и инфраструктуре больших данных. У ШАДа три особенности: глубокая теория + задачи из реальных систем Яндекса, обучение у топовых экспертов индустрии, сильное профессиональное комьюнити.

В этом году набор идет на четыре направления:

1. Разработка машинного обучения
2. Data Science
3. Инфраструктура больших данных
4. Анализ данных в прикладных науках

Два трека поступления: классический (3 этапа отбора) и альтернативный — для тех, у кого уже есть опыт. Учиться можно офлайн, гибрид или онлайн.

Заполнить анкету можно по ссылке до 3 мая.

Читать полностью…

Анализ данных (Data analysis)

Ant Group выкатила Ling-2.6-1T, флагманскую модель на триллион параметров, и главная фишка тут не размер.

Разработчики сделали ставку на механизм «быстрого мышления»: модель не гоняет бесконечные цепочки рассуждений, а выдаёт ответ экономно по токенам, сохраняя при этом SOTA уровень интеллекта.

По сути, Ant Ling пытается переломить индустриальный тренд, где качество ответа принято покупать ценой огромного расхода токенов. Здесь токен возведён в ранг first-class сущности, то есть эффективность встроена в саму архитектуру, а не прикручена сверху.

https://openrouter.ai/inclusionai/ling-2.6-1t:free

Читать полностью…

Анализ данных (Data analysis)

Xiaomi анонсировала серию MiMo-V2.5 - новое поколение их открытых агентных моделей.

MiMo-V2.5-Pro - флагман линейки. Серьёзный скачок по сравнению с MiMo-V2-Pro в общих агентных способностях, сложной разработке ПО и долгосрочных задачах.

По заявленным бенчмаркам догоняет фронтирные модели вроде Claude Opus 4.6 и GPT-5.4: SWE-bench Pro — 57.2, Claw-Eval — 63.8, τ3-Bench — 72.9. Может автономно выполнять
профессиональные задачи с более чем 1000 вызовов инструментов — работа, на которую у людей-экспертов ушли бы дни.

Tech Blog: https://mimo.xiaomi.com/blog/mimo-v2.5-pro

MiMo-V2.5 - нативно омнимодальная модель с сильными агентными возможностями. Даёт производительность Pro-уровня примерно за половину стоимости. Улучшено восприятие изображений и видео, нативное контекстное окно на 1M токенов и значительно более эффективный инференс.

Доступны техблоги и API с тарифными планами на платформе Xiaomi.

Tech Blog: https://mimo.xiaomi.com/blog/mimo-v2.5

🔗 API & Token Plan: https://platform.xiaomimimo.com/token-plan

Читать полностью…

Анализ данных (Data analysis)

⚡️ Что на самом деле покупают люди в вашей категории: закрытый вебинар по данным Dialog X5.

Кажется, что знать свою аудиторию - это собрать красивый дашборд с демографией, охватами и кликами. На практике во всех этих данных зияет одна огромная дыра: что этот человек реально кладёт в корзину каждую неделю и на что тратит деньги. Без ответа на этот вопрос вся аналитика превращается в набор прокси-метрик, которые считают всё, кроме главного.

Dialog X5 как раз про это. Речь не только про ритейл-аналитику в привычном смысле, а про доступ к агрегированным и обезличенным транзакционным данным X5.
 
Это срез реального спроса и поведения миллионов людей: что покупают, в каких категориях, с какой частотой, как меняются привычки по регионам и сезонам.
 
На вебинаре 24 апреля покажут, как эти данные работают за пределами ритейла. Банк подключает их, чтобы понять реальную структуру трат по категориям и брендам. Девелопер оценивает потенциал локации до того, как расположить туда дом.

Медиа подбирает места размещения не по охвату баннера, а по плотности определенной аудитории. CRM-команда находит сегменты, которые раньше не видела, и борется с оттоком. Исследователи сшивают опросы с реальными покупками и перестают гадать, где респонденты приукрасили.
Главный эффект от таких данных простой: маркетинг перестаёт измеряться кликами и охватами. Его можно мерить реальными покупками, а не прокси-метриками, которые красиво выглядят в отчёте и ничего не говорят о реальных эффектах.
 
Вебинар будет полезен, если вы работаете с аналитикой, маркетингом, CRM, продуктом или стратегией в финтехе, страховании, недвижимости, техе или агентстве. Формат онлайн, с кейсами и прикладным разбором инструментов. Успейте зарегистрироваться, вебинар уже 24 апреля.
Все данные используются в агрегированном и обезличенном виде и не содержат персональной информации.
 
 Подключиться к вебинару.

Читать полностью…

Анализ данных (Data analysis)

OpenHarness — open-source «обвязка» для AI-агентов

LLM даёт интеллект, но чтобы стать рабочим агентом, ему нужны инструменты, память, разрешения и координация. Это и есть agent harness - инфраструктурный слой между моделью и реальным миром.
Главное:

🛠 43+ инструмента - файлы, shell, поиск, веб, MCP (с валидацией через Pydantic и проверкой прав)
📚 Skills — подгрузка знаний из .md-файлов on-demand
🔌 Plugins — совместимость с claude-code плагинами
🔐 Права 3 уровней — default (спрашивает), auto (всё можно), plan (только чтение)
🤝 Мульти-агентность - спавн сабагентов, реестр команд, фоновые задачи
🧠 Память - кросс-сессионная, со сжатием контекста

В комплекте ohmo - личный агент, работающий из Feishu, Slack, Telegram или Discord: форкает ветки, пишет код, гоняет тесты, открывает PR. Работает на подписке Claude Code / Codex.

https://github.com/HKUDS/OpenHarness

Читать полностью…

Анализ данных (Data analysis)

Kimi K2.6 стал доступнее

Модель на 1 триллион параметров ужали до 340 ГБ через Dynamic GGUF. Ключевые слои оставили в более высокой точности, остальное оптимизировали.

В итоге получился компромисс, который реально работает.
Больше не нужен только кластер на сотни GPU.

Сейчас это выглядит так.
• Запуск на CPU, GPU и даже SSD-сетапах.
• Скорость больше 40 токенов в секунду на конфигурациях с ~350 ГБ RAM или VRAM.


По сути, это один из первых кейсов, когда модель такого масштаба становится доступной вне датацентров.

Если тренд продолжится, граница между локальными и облачными моделями начнёт быстро стираться.

Гайд: https://unsloth.ai/docs/models/kimi-k2.6
GGUF: https://huggingface.co/unsloth/Kimi-K2.6-GGUF

Читать полностью…

Анализ данных (Data analysis)

Открытый урок «Поиск в базе знаний: где векторы ошибаются, а графы помогают»

🗓 30 апреля в 20:00 МСК
Бесплатно. Урок в рамках старта курса «LLM-инженер» от Otus.

Настраиваете поиск по базе знаний, но ответы всё равно выглядят странно? Векторный поиск по смыслу работает не так точно, как кажется. Похожие тексты могут давать неверные ответы, а ошибки retrieval сложно отследить без понимания, где ломается логика.

На вебинаре разберем:
• как на самом деле работает поиск в векторной базе
• почему близость по смыслу не гарантирует точность
• в каких задачах граф связей даёт лучший результат
• как комбинировать подходы в RAG
Если вы работаете с базами знаний или внедряете интеллектуальный поиск — это возможность увидеть ограничения текущих решений и понять, куда двигаться дальше.

Ссылка на регистрацию: https://tglink.io/0b801207d842f4?erid=2W5zFHn9fGu

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Китайцы из Ant Group выкатили Ling-2.6-flash и он бьёт по больному месту всей индустрии LLM.

Пока все соревнуются, чей ответ длиннее и красивее, Ant Group пошли в обратную сторону и выпустили Ling-2.6-flash.

Модель с 104 миллиардами параметров, из которых активных всего 7,4 миллиарда. То есть MoE архитектура, где в каждый момент работает лишь малая часть сети, а считать приходится за копейки.

Модель специально натаскана не раздувать ответы. Никаких простыней на пустом месте, никакого пережёвывания одной мысли на три абзаца ради видимости глубины.

Разработчики прямым текстом говорят: мы оптимизировали соотношение интеллект на токен, а не интеллект на количество слов. Для тех, кто платит за API, это буквально экономия на ровном месте, потому что цена идёт за каждый токен, а выхлоп тот же.

Архитектура гибридная линейная, что даёт серьёзный прирост по скорости и памяти на длинных контекстах.

Обычные трансформеры на длинном входе захлёбываются квадратичной сложностью внимания, а тут эту проблему частично обошли.

Модель быстрая, причём заметно.
Отдельно заточили её под агентские сценарии. Вызов инструментов, многошаговое планирование, выполнение задач.

Замеры идут на BFCL-V4, SWE-bench Verified, TAU2-bench и Claw-Eval, то есть на реальных агентных бенчмарках, а не на синтетике.

И там Ling-2.6-flash держится на уровне конкурентов, которые в разы жирнее по активным параметрам.

Неделю даётся бесплатный доступ через OpenRouter и Novita, плюс официальная площадка ling.tbox.cn.

То есть потрогать можно прямо сейчас, без платёжки и без ожидания вейтлиста.

https://openrouter.ai/inclusionai/ling-2.6-flash:free

Читать полностью…

Анализ данных (Data analysis)

Ларри Пейдж (основатель и первый CEO Google) понимал это ещё в 2007 году:


«Когда ИИ станет реальностью, всё будет упираться в огромные объёмы вычислений, а не в хитрые алгоритмы, придуманные у доски. Моя теория такая: если посмотреть на вашу "программу" - на ДНК - то в сжатом виде это всего около 600 мегабайт.

То есть она меньше любой современной операционной системы - меньше, чем Linux, Windows или что-то подобное. И это вся ваша "операционка" целиком».


Пейдж ещё почти 20 лет назад предсказал, что прорыв в ИИ случится не благодаря теоретическим находкам, а за счёт грубой вычислительной мощи.

И в подтверждение приводил аналогию: даже сам человек «закодирован» очень компактно (≈600 МБ ДНК), значит дело не в сложности кода, а в масштабе вычислений, которые этот код разворачивают в работающий интеллект.

Читать полностью…

Анализ данных (Data analysis)

У всего есть свой предел )

Читать полностью…

Анализ данных (Data analysis)

Потоковая обработка данных становится стандартом для цифровых продуктов.

MWS Cloud вывели Managed Kafka в промышленную эксплуатацию — сервис, который позволяет использовать Apache Kafka как готовый облачный компонент.

Компании все чаще переходят от пакетной обработки к работе с данными в реальном времени: это нужно для аналитики, микросервисных архитектур, интеграций и построения data-платформ.

Managed Kafka закрывает этот сценарий под ключ: быстрый запуск кластеров, встроенная сетевая среда, изоляция и безопасность, интеграция с облачными сервисами.

В результате бизнес может быстрее запускать real-time аналитику, выстраивать потоковые пайплайны и развивать data-продукты без дополнительных затрат на поддержку инфраструктуры.

По сути, Kafka закрепляется как базовый элемент современной архитектуры, а облако — как основной способ ее использования.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Бесплатный клон Claude Opus 4.6 появился на Hugging Face, пока Anthropic не успела его снести

Энтузиасты дистиллировали Opus 4.6 в Qwen 3.6 и выложили на Hugging Face.

Вышла Qwen3.6-35B-A3B-Claude-4.6-Opus-Reasoning-Distilled: кто-то взял Qwen 3.6 на 36B параметров, дообучил его на ризонинг-трейсах Claude Opus 4.6 и залил в GGUF. По заявлениям автора, модель держит уровень Opus в кодинге, анализе и райтинге. Проверять, конечно, придётся самим, маркетинг в описаниях репо сейчас стандартно оптимистичный.

Что важно для практики. MoE-архитектура с активными 3B из 35B означает, что инференс идёт заметно легче полной 35B плотной модели, а GGUF-кванты позволяют запускать это на обычной видеокарте или даже CPU при желании потерпеть. Поднимается через Ollama или LM Studio в два клика, для тех у кого железо скромное есть вариант с Colab. Всё локально, никаких запросов наружу.

Технически это именно дистилляция ризонинга, не слепое копирование. Студент учится воспроизводить промежуточные рассуждения учителя, а не только финальные ответы, поэтому на задачах с цепочками логики такие модели обычно ведут себя заметно лучше, чем просто файнтюн на ответах. Насколько близко получилось подойти к настоящему Opus, покажут независимые прогоны на бенчах, автор цифр пока не дал.

Юридически момент мутный: дистилляция на аутпутах закрытой модели формально противоречит ToS Anthropic, так что срок жизни таких весов на HF непредсказуемый. Качайте сейчас, если интересно поиграться.

Ссылка: https://huggingface.co/hesamation/Qwen3.6-35B-A3B-Claude-4.6-Opus-Reasoning-Distilled-GGUF

Читать полностью…

Анализ данных (Data analysis)

Отказался от OpenAI за 80 миллиардов, чтобы построить компанию за 380: невероятная история Дарио Амодея

В ноябре 2023 года совет директоров OpenAI предложил ему пост генерального директора самой мощной ИИ-компании в мире, оценённой в 80 миллиардов долларов. Он отказался меньше чем за сутки и без колебаний. Через два года его собственная компания Anthropic стоит 380 миллиардов. Его зовут Дарио Амодей, и это его история.

Сан-Франциско, 1983 год, район Миссия. Отец Риккардо работал кожевником, итальянец по происхождению. Мать Елена занималась проектами по обновлению библиотек. В доме почти не было технологий: только книги, физика и одна навязчивая идея, понять, как устроен мир.

Отказался от OpenAI за 80 миллиардов, чтобы построить компанию за 380: невероятная история Дарио Амодея
Пока сверстники во времена пузыря доткомов собирали сайты на коленке, Дарио погружался в квантовую механику. Он не хотел делать очередной стартап. Его интересовали фундаментальные научные вопросы и то, что стоит за формулами. Этот подход он пронесёт через всю карьеру.

В 2006 году умер отец, от редкого генетического заболевания. Через четыре года появилась терапия, которая могла бы его спасти. Для Амодея это стало переломным моментом. Он окончательно утвердился в мысли, что скорость научного прогресса, это буквально вопрос жизни и смерти. Если наука движется медленно, кто-то платит за это близкими.

Путь в ИИ начался в Принстоне, затем Стэнфорд, Google Brain и Baidu. В какой-то момент Дарио оказался в OpenAI и стал вице-президентом по исследованиям. Именно под его руководством команда довела до релиза GPT-2 и GPT-3, задав направление, в котором развивалась вся индустрия больших языковых моделей.

В 2021 году он вместе с сестрой Даниэлой и группой исследователей ушёл из OpenAI, чтобы основать Anthropic. Главный мотив, безопасность ИИ. Амодей считал, что без серьёзной работы над согласованием моделей с человеческими ценностями гонка за мощностью превратится в гонку рисков. Так появилась компания, которая с первого дня ставит safety на один уровень с capability.

Флагманский продукт Anthropic, это Claude. Сегодня он один из главных конкурентов ChatGPT, им пользуются крупнейшие корпорации, разработчики и исследователи. Модель известна длинным контекстом, аккуратной работой с инструкциями и зрелой моделью поведения в чувствительных темах.

И вот финал первой главы. Осенью 2023 года OpenAI переживает корпоративный шторм с увольнением Сэма Альтмана. Совет директоров ищет нового CEO и делает предложение человеку, который знает компанию изнутри, Дарио Амодею. Он отвечает «нет» меньше чем за 24 часа. У него уже есть своя миссия и своя команда.

Два года спустя Anthropic оценивается в 380 миллиардов долларов, а Claude встроен в тысячи продуктов от стартапов до Amazon и Google. Компания, построенная вокруг идеи безопасного ИИ, обогнала по капитализации ту самую OpenAI образца 2023 года, от лидерства в которой её основатель спокойно отказался.

Иногда самый сильный карьерный ход, это отказ от очевидно выигрышного варианта ради того, во что ты по-настоящему веришь. Для специалистов по ИИ это ещё и напоминание: техническое лидерство без чёткой ценностной рамки быстро превращается в гонку без финиша, а правильно выбранная миссия способна перевесить любые краткосрочные предложения рынка.

https://uproger.com/istoriya-dario-amodeya-otkazalsya-ot-openai-i-postroil-anthropic-za-380-mlrd/

Читать полностью…

Анализ данных (Data analysis)

До сих пор разворачиваете PostgreSQL вручную?

Сэкономьте силы для задач разработки.

21 апреля в 16:00 (мск) пройдёт вебинар от MWS Cloud Platform, где эксперты компании расскажут, как получить готовую базу для бэкенда за несколько минут.

Что будет в эфире:

⚫️️️ облачный PostgreSQL: плюсы/минусы решения;
⚫️️️ как устроен управляемый сервис в новом облаке от MWS Cloud;
⚫️️️ машинерия под капотом бэкапов, автообновлений, switch и failover;
⚫️️️ создадим кластер за несколько минут и настроим подключение.

Вебинар будет интересен администраторам баз данных (DBA), бэкенд-разработчикам, DevOps- и SRE-инженерам, техническим лидам и архитекторам, владельцам продуктов и стартапам.

Зарегистрироваться

Читать полностью…

Анализ данных (Data analysis)

🚀 Появился интересный вариант Qwen с улучшенным мышлением

Qwen 3.6 35B дообучили на цепочках рассуждений от Opus 4.6.

Идея простая:

• берут быструю модель
• добавляют ей «логику» через distilled CoT
• получают баланс скорости и качества

Что в итоге:

- отвечает быстро, как обычный Qwen
- лучше справляется со сложными задачами
- реже теряется в длинных рассуждениях

Это тот же подход, который уже хорошо зашёл в комьюнити с Qwen 3.5 27B.

То есть не новая модель, а грамотный fine-tune, который усиливает уже существующую

Такие сборки могут быть полезны тем, что:

• их можно запускать локально
• они дешевле API
• и при этом дают более стабильное reasoning

https://huggingface.co/hesamation/Qwen3.6-35B-A3B-Claude-4.6-Opus-Reasoning-Distilled

@data_analysis_ml

Читать полностью…
Subscribe to a channel