data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

⚡️ GLM-4.7-Flash - “быстрый” MoE-монстр, который вывозит coding и агентов локально

Z.ai (семейство ChatGLM) выложили GLM-4.7-Flash на Hugging Face - и это один из тех релизов, которые прям приятно тащить к себе на сервер.

Что это за модель
GLM-4.7-Flash - это MoE 30B-A3B:
то есть у неё “много параметров”, но активных на шаге всего ~3B, поэтому она:
- быстрее в инференсе
- легче в деплое
- дешевле в эксплуатации, чем плотные 30B

По бенчмаркам выглядит очень бодро:
- AIME 2025: 91.6
- GPQA: 75.2
- SWE-bench Verified: 59.2 (очень сильный показатель для coding-агентов)
- BrowseComp: 42.8

Почему это важно
Это “рабочая лошадь” под:
- локальные агентные пайплайны
- автокодинг / рефакторинг
- web-browsing задачи
- длинный контекст и быстрый inference

Плюс - уже заявлена поддержка vLLM и SGLang (на main ветках).

Ссылка: https://huggingface.co/zai-org/GLM-4.7-Flash

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 NVIDIA: “Massive performance leap” для MoE-инференса на Blackwell

NVIDIA выкатили свежий разбор, как их инференс-стек на Blackwell (GB200/NVL72) резко ускоряет Mixture-of-Experts (MoE) модели — на примере DeepSeek-R1.

Главная идея:
MoE-модели дают топовое качество, но *только если* ты умеешь быстро и дешево “роутить” токены по экспертам.
Blackwell + софт-оптимизации делают это реально промышленным.

Что улучшают:
- выше throughput на GPU (больше токенов/сек на железо)
- ниже cost per token
- оптимизации под sparse MoE (эксперты включаются не все)
- акцент на “real-world” сценарии: не бенчмарки ради графиков, а прод-инференс под нагрузкой

Почему это важно:
MoE сейчас — это де-факто архитектура frontier-моделей.
И гонка идет не только за качеством, а за тем, кто даст самый дешевый reasoning/token.


https://developer.nvidia.com/blog/delivering-massive-performance-leaps-for-mixture-of-experts-inference-on-nvidia-blackwell/

Читать полностью…

Анализ данных (Data analysis)

😢 В Майами робот-доставщик Coco Robotics решил покончить с собой по схеме Анны Карениной

В сети разошлось видео: робот-доставщик оказался на железнодорожных путях и не успел уйти с рельсов перед поездом.

Компания Coco Robotics прокомментировала ситуацию: по их словам, произошла редкая аппаратная неисправность, из-за которой робот залагал.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 ERNIE-5.0-0110 вышел в релиз - уже #8 в Text Leaderboard на Arena

Baidu выпустили ERNIE-5.0-0110, и модель быстро залетела в топ:
сейчас она занимает #8 в рейтинге @arena (Text Leaderboard).

Что выделяют:
🧮 Сильная математика (top-tier Math)
💻 Мощные экспертные навыки и coding
✍️ Конкурентная генерация - creative writing + instruction following
🎓 Топ-10 во многих “профессиях”:
- Наука
- Бизнес и финансы
- Медецина

Попробовать 👉 https://ernie.baidu.com

Читать полностью…

Анализ данных (Data analysis)

Проблема многих LLM-курсов — они заканчиваются там, где начинается реальная работа: на этапе деплоя.

Когда теория есть в каждой LLM-ке или Ютуб ролике именно наличие практического опыта позволяет сэкономить время и силы для решения задач.

Крупнейшая магистратура по ИИ в России AI Talent Hub и GIGASCHOOL запустили хардовый и практический курс «LLM-инженер». Его фокус — на выводе проектов в прод, а не только на работе в ipynb.

В программе:
- Дообучение:
fine-tuning, PEFT, LoRA / QLoRA, RLHF.
- Инструменты: LangChain, LangGraph, векторные базы.
- Архитектуры: RAG-системы, информационный поиск, защита LLM.
- Продвинутые темы: мультиагентные решения и ассистенты.

Курс запускается уже третьим потоком, а преподают практики из крупных AI-команд, включая директора по разработке моделей в Газпромбанке Кристину Желтову, NLP Lead'а из X5 Tech Александра Потехина и CEO HiveTrace Евгения Кокуйкина.

▪️Старт 26 января | 25 недель с каникулами;
▪️диплом о профессиональной переподготовке;
▪️Повышение стоимости — 20 января

Используй промокод NOW10 и получи скидку 10 000 руб


Подробности и регистрация

Читать полностью…

Анализ данных (Data analysis)

🔥 CEO Cursor заявил, что они скоординировали сотни GPT-5.2 агентов, чтобы автономно собрать браузер с нуля всего за 1 неделю.

Цитата:

> “Мы построили браузер с GPT-5.2 прямо в Cursor. Он работал без остановки целую неделю.”


Что особенно дико:
- 3M+ строк кода
- тысячи файлов
- рендер-движок с нуля на Rust
- парсинг HTML / CSS

Если это правда - мы уже не “пишем код”, мы управляем армией агентов, которые строят целые продукты без сна и выходных.

https://x.com/mntruell/status/2011562190286045552

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🦾 ИИ в Data Engineering: что реально работает, а что может навредить?

На открытом вебинаре разберём практические кейсы: как ИИ автоматизирует сопоставление схем, повышает качество данных, оптимизирует ETL и снижает операционную нагрузку на команды. Покажем, как AI уже встроен в современные платформы и инструменты — от Databricks до AWS Glue — и где именно он даёт измеримый эффект. Обсудим архитектурные паттерны и типичные ошибки внедрения, которые ломают пайплайны вместо того, чтобы улучшать их.

Вы поймёте, какие задачи действительно стоит усиливать ИИ, а где инженерное мышление по-прежнему важнее моделей. Получите чёткий план внедрения AI в текущие процессы и увидите, какие навыки становятся критичными для Data Engineer ближайших лет.

🗓Встречаемся 29 января в 20:00 МСК в преддверии старта курса «Data Engineer». Регистрация открыта: https://otus.pw/wGRR/?erid=2W5zFGZHqwe

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Анализ данных (Data analysis)

🔥 Свежее обновление Z-Image-Turbo-Fun-Controlnet-Union 2.1! 🚀

Что нового:
✅ Lite-модель 1.9GB - подходит для low-VRAM и даёт естественное смешивание (blend)
✅ Починили mask leakage в inpainting (маска больше не “течёт”)
✅ Полный рефактор датасета под multi-resolution (вплоть до 1536px)
✅ 8-step distillation - Turbo-генерация стала резкой и без мыла

Больше никаких ярких пятен и странных засветов. Высокий и точный контроль генераций. 🧠

🤖 Model: https://modelscope.ai/models/PAI/Z-Image-Turbo-Fun-Controlnet-Union-2.1

Читать полностью…

Анализ данных (Data analysis)

🚀 Meituan представила LongCat-Image - открытую билингвальную (китайский и английский) модель для генерации изображений.

Несмотря на размер всего в 6B параметров, модель показывает эффективность и качество, сопоставимые с куда более крупными системами.

Ключевые преимущества:
✨ лучшая в классе генерация китайского текста - точная, стабильная, с широким покрытием лексики
✨ высокая фотореалистичность благодаря новой стратегии данных и обучения
✨ создана для разработчиков и реальных сценариев применения — доступна, открыта и мультилингвальна изначально

LongCat-Image ориентирована на практическую ценность и качество в продакшене.

🤖 Model: https://modelscope.cn/models/meituan-longcat/

Читать полностью…

Анализ данных (Data analysis)

💰 У DeepSeek может быть один из самых сильных “скрытых источников финансирования” в AI - хедж-фонд его основателя.

Речь про Ляна Вэньфэна (Liang Wenfeng) и его фонд Zhejiang High-Flyer Asset Management. По данным Bloomberg, 2025 год у них получился просто феноменальным: средняя доходность по фондам - 56.6%.

Почему это важно для DeepSeek?
Потому что такие результаты дают не просто “успешный год на рынке”, а реальные деньги, которыми можно оплачивать развитие ИИ:
- зарплаты сильной команде
- закупку GPU
- серверы, сети, дата-центры
- всё железо, без которого LLM не масштабируются

Ключевые факты:
- High-Flyer управляет капиталом более $10 млрд
- занял 2-е место среди китайских квант-фондов с капиталом > $1.4 млрд
- фонд заработал +56% → эти деньги фактически остаются у владельца фонда (Ляна).
- если прикинуть выручку по стандартной схеме 1% management fee + 20% performance fee, получается $700+ млн
- и это выглядит особенно мощно на фоне того, что бюджет DeepSeek на “топопвые” модели оценивался менее чем в $6 млн

Интересный момент: в 2024 фонд отошёл от market-neutral и сделал ставку на long-only стратегии (покупка акций в расчёте на рост).

А когда сразу несколько топ-квант-фондов показывают 50-70%+ за один год - это чаще говорит о том, что рынок был очень удачным для их системных стратегий, а не о единичной “везухе”.

В среднем китайские квант-фонды показали 30.5% за 2025 - больше чем в 2 раза выше глобальных конкурентов.

DeepSeek может иметь редкое преимущество - внутренний финансовый двигатель, который способен стабильно оплачивать масштабирование AI, не зависеть от раундов и инвесторов.

Читать полностью…

Анализ данных (Data analysis)

💰 BREAKING: у Ильи Суцкевера было $4 млрд** акциями OpenAI.

Это всплыло в судебных документах по делу Musk v. OpenAI.

Что стало известно:

- Во время “переворота” в совете директоров в ноябре 2023 COO Брэд Лайткап писал Альтману и Наделле.
- Он оценил, что выкуп долей сотрудников OpenAI обошёлся бы примерно в $25 млрд.
- А если учитывать долю Ильи Суцкевера - уже $29 млрд.

Сам Илья на допросе отказался раскрывать, какой у него пакет.

Судья назначил повторный допрос, потому что его “финансовая заинтересованность напрямую важна” для понимания, есть ли у него предвзятость.

И важный момент:
эти $4 млрд - только то, что уже вестилось.
Сколько было всего - неизвестно.

Если цифра реальная, это один из самых крупных личных пакетов в истории AI-рынка.

Читать полностью…

Анализ данных (Data analysis)

🔥 Karpathy выпустил nanochat miniseries v1.

Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.

В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.

После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.

Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.

Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.

Полный разбор и код: github.com/karpathy/nanochat/discussions/420

Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.

Читать полностью…

Анализ данных (Data analysis)

Новый Atlas от Boston Dynamics 🤖🏭

Boston Dynamics представила обновлённого **Atlas*, теперь это не исследовательский проект, а робот, который скоро начнёт работать на заводах Hyundai.

Главное:

• создан для массового производства
• интеграция с Gemini Robotics (DeepMind) - понимает среду и задачи
• работает рядом с людьми и другими роботами (Spot, Stretch)
• подключается к MES/WMS системам завода
• 1.9 м рост, 90 кг, 56 степеней свободы
• до 4 часов работы, батарея меняется автоматически
• выдерживает от −20°C до +40°C

Hyundai планирует запустить крупное производство
к 2028 году до 30 000 роботов в год.

Это шаг от демонстраций - к реальной индустрии.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Samsung подтвердила, что к концу 2026 года 800 миллионов устройств будут работать под управлением Google Gemini.

> К концу 2025 года 400 миллионов устройств будут продаваться с Gemini на борту.
> эта цифра удвоится до 800 млн в этом году
> Со-генеральный директор Samsung:

«Это дает Google преимущество перед конкурентами»


Google все активнее захватывает рынок.

https://www.reuters.com/world/china/samsung-double-mobile-devices-powered-by-googles-gemini-800-mln-units-this-year-2026-01-05/?utm_source=braze&utm_medium=notifications&utm_campaign=2025_engagement

Читать полностью…

Анализ данных (Data analysis)

⚡️ Разные ответы ChatGPT и Grok на политически сложный вопрос

Обе модели спросили- было ли преступлением, если бы Трамп арестовал Мадуро (вопрос, который сегодня обсуждается очень активно).

Ответ ChatGPT - «да»
— исходит из предположения, что Мадуро был избран легитимно
— опирается на Устав ООН и мнение «международных экспертов»
— чувствуется анти-американский уклон в формулировках

По тону это звучит почти как лекция юриста-либерала из Ivy League.

Ответ Grok - «нет»
— называет режим Мадуро мошенническим
— объясняет полномочия президента США как главнокомандующего
и право направлять военных на исполнение федеральных ордеров

Чтобы не выдавали модели, всегланужно проверять источники, сравнивать аргументы и не принимать выводы ИИ «на веру».

https://x.com/ArthurMacwaters/status/2007727857242689560/photo/1

Читать полностью…

Анализ данных (Data analysis)

🚀 China Telecom выкатили TeleChat3-36B-Thinking - и самое интересное тут даже не размер модели, а инфраструктура, на которой её сделали.

TeleChat3-36B-Thinking обучали на отечественных китайских ускорителях Huawei Ascend (NPU) и в экосистеме MindSpore.

Что интересного :
- модель нативно заточена под экосистему Ascend + MindSpore
- дизайн вдохновлён архитектурными идеями DeepSeek
- упор на стабильность обучения и эффективность

Китай всё активнее уходит в полный собственный (суверенный) стек AI:
“свои чипы → свой фреймворк → свои модели”.

То есть даже при ограничениях на доступ к NVIDIA, они продолжают выпускать большие модели и развивать экосистему - уже без зависимости от западного железа.

Ссылка на модель:
https://huggingface.co/Tele-AI/TeleChat3-36B-Thinking

Читать полностью…

Анализ данных (Data analysis)

🔎 У тебя есть сильная научная статья по ИИ? Подай её на Data Fusion Awards

Банк ВТБ и Институт ИИ МГУ ищут научный прорыв года и принимают заявки на премию Data Fusion Awards.

Темы для подачи:
🔹Математический аппарат ИИ
🔹 Алгоритмы оптимизации
🔹 Машинное и глубокое обучение
🔹 Нейроморфные вычисления
🔹 Робототехника
🔹 Объяснимый ИИ (Explainable AI)

И любые смежные направления.

💰 Призовой фонд — 3  000  000  рублей
⏳ Заявки принимаются до  конца января

Больше подробностей ищите на сайте конкурса.

Читать полностью…

Анализ данных (Data analysis)

🤖 Новый тренд: инфлюенсеры и коучи продают “себя” в формате ИИ.

Примеры:
- Matthew Hussey запустил подписку $39/мес на “Matthew AI”
уже 1M+ чатов и 1.9M минут общения
- Tony Robbins продаёт AI-коучинг-приложение за $99/мес
- похожие боты уже массово появляются в нишах:
отношения, психология, духовные практики

Кто всё это делает:
Delphi — стартап (основан в 2022), который получил $16M инвестиций.

Они делают таких ботов на базе LLM: то есть фактически это просто чатбот, который разговаривает “в стиле автора”.

Почему это так популярно:
✅ бот работает 24/7
✅ масштабируется на миллионы диалогов
✅ можно монетизировать знания и контент без траты личного времени

Но есть и обратная сторона:
появляются неавторизованные копии.
Например, сайт YesChat продавал доступ к ботам “в стиле миллиардера Тонни Роббинсона”, используя его имя и образ без разрешения.

В итоге Роббинсон подал в суд - и выиграл.
YesChat выплатил миллиардеру $1 млн и закрылся.

AI-коучи — это новая подписочная экономика.
Ты покупаешь не курс и не консультацию.
Ты покупаешь “компанию знаменитости”, но в виде чатбота.

wsj.com/style/ai-self-help-chat-bots-tony-robbins-gabby-bernstein-0cf8b3b0

Читать полностью…

Анализ данных (Data analysis)

🎤Fun-ASR: система распознавания речи

Fun-ASR - это мощная модель распознавания речи, обученная на миллионах часов реальных данных.

Она поддерживает 31 язык и оптимизирована для точного распознавания в шумной обстановке и различных диалектах. Идеально подходит для образовательных и финансовых приложений.

🚀 Основные моменты:
- Высокая точность распознавания в шумных условиях (до 93%)
- Поддержка 7 китайских диалектов и 26 региональных акцентов
- Многоязычная поддержка с возможностью свободного переключения
- Распознавание текстов песен на фоне музыки

📌 GitHub: https://github.com/FunAudioLLM/Fun-ASR

#python

Читать полностью…

Анализ данных (Data analysis)

🎤 Step-Audio-R1.1 - новая планка в Audio Reasoning

StepFun выпустили Step-Audio-R1.1 и сразу забрали 1 место в Artificial Analysis Speech Reasoning leaderboard.

Что по цифрам:
96.4% точности на BigBench Audio - новый рекорд (выше, чем у Grok, Gemini и других топов)
1.51 секунды до первого звука (TTFA) - отвечает настолько быстро, что ощущается как разговор с человеком

Главное в этом релизе другое:
раньше среди моделей приходилось выбирать между - глубоким рассуждением или скорость.
Step-Audio-R1.1 показывает, что можно и то, и другое: модель сохраняет высокий уровень рассуждений и при этом держит задержку около 1.5 секунды.

Что внутри:
📌 Динамическое масштабирование вычислений на инференсе - модель сама решает, сколько “думать” в конкретной ситуации
📌 End-to-end audio reasoning - логика и ответ идут прямо в аудио-формате, без лишних этапов и тормозов
📌 CoT, заточенный именно под аудио - не просто распознавание речи, а понимание и анализ

Версия R1.1 стала умнее и быстрее, это прям ощутимый апгрейд.

И да - веса открыты, можно брать и собирать свои продукты.

🤗 HuggingFace: https://huggingface.co/stepfun-ai/Step-Audio-R1.1
🎤 Попробовать https://stepfun.com/studio/audio?tab=conversation
🔮 ModelScope: https://modelscope.cn/models/stepfun-ai/Step-Audio-R1.1

Читать полностью…

Анализ данных (Data analysis)

AgentCPM-Explore🔥 - on-device модель от OpenBMB

OpenBMB выпустили AgentCPM-Explore - компактную, но очень мощную модель-агента, которая рассчитана на работу прямо на устройстве.

Что внутри:

4B параметров + Apache 2.0
Полностью open-source лицензия

Модель заточена под реальные агентные сценарии:
- умеет делать поиск
- сверять факты (verification)
- держать длинные цепочки действий

Открыт не только вес модели
Самое ценное: OpenBMB выложили весь стек:
- training pipeline
- inference stack
- агентные компоненты


Если ищешь основу для автономных агентов на своём железе - это один из самых жирных релизов последних недель.

🤗 Hugging Face: https://huggingface.co/openbmb/AgentCPM-Explore

Читать полностью…

Анализ данных (Data analysis)

🚨 BREAKING: OpenAI вернули обратно 3 топ-исследователей из Thinking Machines

Вот это поворот: OpenAI снова усиливают core-команду - и забрали сразу троих сильнейших ребят из Thinking Machines.

Кто вернулся:

Barret Zoph
- VP of Research (Post-Training) в OpenAI
- Co-Founder & CTO в Thinking Machines

Luke Metz и Sam Schoenholz
- Research Scientist в OpenAI
- Member of technical staff в TML

post-training (SFT/RLHF/RL) сейчас - главный рычаг качества моделей.

И когда OpenAI начинает “отжимать” обратно таких людей - значит, впереди новая фаза ИИ-гонки🔥

Читать полностью…

Анализ данных (Data analysis)

⚡️ Google Research выпустили MedGemma 1.5 - мощный апдейт медицинской Gemma, который заметно прокачал качество сразу по нескольким направлениям:

- CT / MRI
- гистопатология
- рентген
- временные ряды (X-ray timelines)
- медицинские тексты

По тестам приросты очень жирные:
- до +14% точности на задачах по медицинским изображениям
- до +22% на QA по EHR (электронные медкарты)

И это ещё не всё.

Вместе с моделью вышла MedASR - открытая speech-to-text модель для медицины, которая даёт:
до 82% меньше ошибок транскрибации, чем обычные ASR-модели общего назначения.

То есть теперь можно реально делать точную расшифровку врачебной речи, приёмов, диктовок - без тонны “галлюцинаций” в терминах и названиях препаратов.

https://research.google/blog/next-generation-medical-image-interpretation-with-medgemma-15-and-medical-speech-to-text-with-medasr/

Читать полностью…

Анализ данных (Data analysis)

⚡️ DeepSeek Engram: условная память LLM через поиск.

DeepSeek опять шатают устои архитектуры трансформеров свежайшим пейпером, который доказывает, что новое — это хорошо и очень хитро забытое старое.

Пока все пытаются запихнуть в LLM как можно больше слоев и параметров, DeepSeek задались вопросом: зачем тратить дорогой компьют на запоминание фактов, если их можно просто подсмотреть? Знакомьтесь:

🟡Engram — модуль, который возвращает нас к дедам с N-грамами.

DeepSeek предлагает разделить "думалку" (MoE-слои) и "хранилище знаний" (Engram):

🟢Hashed N-grams: модуль смотрит на входящий текст и нарезает его на N-грамы (последовательности токенов).

🟢O(1) Lookup: система делает мгновенный запрос в гигантскую хэш-таблицу эмбеддингов - это чисто статический поиск.

🟢Context-Aware Gating: самый сок. Модель не просто слепо берет данные из "хранилища знаний" - специальный гейтинг-механизм решает: "Нам сейчас нужен факт из памяти или будем думать сами?". Если найденный N-грам релевантен контексту, он подмешивается в скрытое состояние.

🟢Tokenizer Compression: чтобы хранилище знаний не лопнуло от мусора, похожие токены в нем схлопывают в один ID, например, "Apple" и "apple".

🟡Баланс распределения ресурсов.

Чтобы правильно поделить бюджет параметров между MoE и Engram посчитали сценарии масштабирования. График лосса от соотношения этих частей выглядит как буква U:

🟠Перекос в MoE (100% вычислений): модель тратит дорогие слои внимания на запоминание статики. Это неэффективно, лосс высокий.

🟠Перекос в Память (0% вычислений): модель превращается в гигантскую википедию. Она помнит факты, но у нее напрочь атрофируется ризонинг. Лосс тоже высокий.

🟢Золотая середина (дно U-кривой): 80% MoE и ~20% Engram.

🟡Тесты и результаты.

DeepSeek обучили модель Engram-27B и сравнили ее с классической MoE-27B при одинаковом бюджете параметров и FLOPs. Итоги:

Общее качество подросло: MMLU +3.4 пункта, HumanEval (код) +3.0.

На длинном контексте - разнос. В тесте на поиск иголки (NIAH) точность выросла с 84.2 до 97.0. Модель разгрузила слои внимания от запоминания локальных паттернов, и оно сфокусировалось на глобальном контексте.

Модель быстрее сходится. Engram берет на себя рутину в ранних слоях, тем самым позволяя модели сразу учиться сложным вещам.


🟡Архитектурный нюанс.

Таблица эмбеддингов для Engram может быть запредельно огромной (в пейпере разгоняли до 100B параметров) и, очевидно, в VRAM это не влезает.

Решили так: раз ID токенов известен до прогона слоя, то эти данные можно хранить в RAM и асинхронно подтягивать. В реале, оверхед от этой механики показал меньше 3%., т.е. мы получаем модель, которая знает больше, чем влезает в GPU, используя оперативку сервера.

🟡DeepSeek фактически легализовала подобие шпаргалок для LLM.

Вместо того чтобы заставлять модель учить все наизусть, ей дают гигантский справочник. Теоретически, это открывает путь к прекрасному ИИ светлого будущего, который может иметь условно-бесконечную память, ограниченную только объемом оперативки, а не VRAM.

Похоже, в V4 мы увидим как эта схема работает, ведь инсайдеры обещают у нее запредельные скилы.


🟡Техотчет
🖥Github
🟡Видео


@ai_machinelearning_big_data

#AI #ML #LLM #Engram #Deepseek

Читать полностью…

Анализ данных (Data analysis)

🧠🚫 Как отучить LLM “думать по кругу” и сэкономить токены

У продвинутых LLM есть скрытая проблема: overthinking.

Модель уже нашла ответ…
но продолжает писать лишние рассуждения, самопроверки и повторяет одно и то же разными словами.

В итоге вы платите не за ум модели - а за повторение.
По оценкам, до 70% токенов уходит именно на такую “избыточную рефлексию”.

YuanLab выпустили Yuan3.0 Flash, где модель учат останавливаться вовремя.

Что внутри:

RIRM - reward-механизм: модель получает сигнал *когда пора завершать ответ*
(нашёл решение - закончи, не раздувай)

RAPO - адаптивная оптимизация policy, ускоряющая обучение на 50%+

Что это даёт:
- до 75% дешевле инференс
- без потери качества
- быстрее ответы, меньше затрат

Главная идея:

Запуск LLM будет не только за “самый умный ответ”,
а за самый дешёвый и быстрый умный ответ.

🚀Model: https://modelscope.cn/models/Yuanlab/Yuan3.0-Flash
🔧Github: https://github.com/Yuan-lab-LLM/Yuan3.0
📄 Paper: https://modelscope.cn/papers/2601.01718

#LLM #AI #Tokens #Inference #Optimization

Читать полностью…

Анализ данных (Data analysis)

Бесплатный курс по Claude Code от Anthropic.

Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:

• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи

В конце — дают сертификат вайбкодера, который можно показать маме 😁

Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.

https://anthropic.skilljar.com/claude-code-in-action

Читать полностью…

Анализ данных (Data analysis)

🖥 Nvidia: «горячая вода вместо сложных холодильных систем»

Дженсен Хуанг заявил: стойки нового поколения Rubin можно охлаждать водой с температурой 45 °C.

Без дорогих и сложных систем, которые обычно понижают температуру воды.

И рынок сразу отреагировал.

Инвесторы решили, что будущим дата-центрам для ИИ
нужно будет меньше крупных холодильных установок.

Что случилось с акциями:

- Johnson Controls - падение примерно на 11%
- Modine - до минус 21%
- Carrier и Trane - тоже просели

Когда стойки можно охлаждать тёплой водой,
операторы чаще используют простые «сухие» охладители
и другие решения, где не требуется сложное понижение температуры.

Меньше энергии уходит на охлаждение -больше остаётся на вычисления.

Читать полностью…

Анализ данных (Data analysis)

🔥 Год ChatGPT Plus бесплатно: экономим 20 000 рублей

Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):

1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!

⚡️ Проверили, пока еще работает

Или всегда можно воспользоваться ботом в тг 😂

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

⚡️ Google показала интересный пример того, как мультимодели уже помогают в гуманитарных исследованиях.

Gemini 3.0 Pro смогла расшифровать загадочные пометки в «Нюрнбергской хронике», которым более 500 лет. В модель залили сканы страниц и попросили не просто переписать текст, а объяснить, что означают заметки с учетом контекста.

Оказалось, что круговые таблицы на полях были попыткой примирить две конкурирующие библейские хронологии и вычислить год рождения Авраама.

Сложность состояла в том, что заметки смешивали латинские сокращения, римские цифры и обрывки надписей.

Gemini связала вычисления с системой датировки Anno Mundi (год от сотворения мира), привязала их к традициям Септуагинты и еврейской Библии, а затем перевела в «до н.э.», получив расхождение примерно в 100 лет.

siliconangle.com/2026/01/01/googles-gemini-3-0-pro-helps-solve-long-standing-mystery-nuremberg-chronicle/

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

✔️ Meta лихорадит: Янн ЛеКун резко прошёлся по Александру Вану и намекнул на новые проблему Meta.

Янн ЛеКун публично раскритиковал нового лидера AI-направления Александра Вана, назвав его «неопытным» и подчеркнув, что у него нет понимания, как устроены настоящие исследования и что вообще нужно исследовать

«Он быстро учится, он знает, чего не знает…
Но у него нет опыта в исследованиях - как их вести, как строить процессы и что действительно важно для учёных», - сказал ЛеКун.


По сути - это прямой удар по новой стратегии Meta в AI.

И всё больше разговоров о том, что компанию могут ждать новые увольнения и уходы ключевых специалистов.

Code Red для Meta?
Похоже, внутри компании начинается серьёзный пересмотр курса.

https://www.businessinsider.com/yann-lecun-alexandr-wang-criticism-inexperienced-meta-ai-future-2026-1

*Принадлежит Meta, которая признана экстремистской организацией и запрещена в РФ.

Читать полностью…
Subscribe to a channel