48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🔥 SciAgent - возможно, самый впечатляющий научный ИИ на сегодня
Это многоагентная система, которая координирует работу целой команды “мини-агентов”, как настоящий научный коллектив.
Главная идея проста и мощна:
- сверху есть Координатор, который понимает, какая задача перед ним: математика, физика, химия, какая сложность, какой тип рассуждений нужен
- он сам собирает нужную цепочку рассуждений из разных специализированных агентов
- те параллельно считают, моделируют, доказывают, проверяют и подстраиваются друг под друга
Это динамический научный pipeline, который ИИ строит *на ходу*.
И результаты - просто безумие:
- 🥇 уровень золотых медалистов на IMO 2025
- 💯 идеальный результат на IMC 2025
- 🔝 почти человеческий топ уровень на IPhO 2024/2025
- 📈 огромный отрыв на CPhO 2025 (264 против 199 у лучших людей)
- 🧠 уверенная работа на Humanity’s Last Exam
- ⚙️ полная автоматизация: моделирование, вычисления, вывод формул и верификация — всё параллельно
Почему это важно?
Потому что SciAgent показывает:
ИИ может рассуждать не как одиночная модель, а как команда специалистов, которая сама выбирает стратегию, инструменты и порядок действий.
Это уже не рост точности на 2 %.
Это новая парадигма научного мышления в ИИ.
И если такие системы будут масштабироваться - научные задачи высокого уровня изменятся навсегда.
https://arxiv.org/abs/2511.08151
⚙️ Китайский “невозможный чип” меняет правила игры
В Китае представили разработку, которая может переписать будущее технологий. Речь о новом аналоговом чипе, который не просто обгоняет Nvidia и AMD — он выносит их за счётами.
Что известно:
- до 1000 раз быстрее современных топ-процессоров
- до 100 раз энергоэффективнее
- работает не в логике 1 и 0, а как мозг — обрабатывает непрерывные сигналы прямо в памяти
- никаких задержек, минимум потерь энергии, максимальный интеллект
Учёные заявляют, что решили проблему, над которой бились больше века: добились цифровой точности на аналоговом железе с минимальным потреблением. В тестах новый чип обошёл Nvidia H100 и AMD Vega 20 до 1000x по пропускной способности.
Если технология масштабируется, это может перевернуть всё — от ИИ и дата-центров до связи и робототехники. Начало новой техноэры может наступить намного раньше, чем кто-то ожидал.
https://www.livescience.com/technology/computing/china-solves-century-old-problem-with-new-analog-chip-that-is-1-000-times-faster-than-high-end-nvidia-gpus
⚡️ NVIDIA выпустила модель Llama-3 Nemotron Super-49B-v1.5-NVFP4
Это 49B reasoning-модель, улучшенная версия Meta Llama-3.3-70B-Instruct, которая даёт более сильное рассуждение, лучшее использование инструментов и стабильный диалог на длинных контекстах.
Она ориентирована на реальные агентные нагрузки - RAG, tool calling, сложные цепочки действий - и поддерживает контекст 128K, позволяющий держать большие беседы, документы и планы без нарезки.
Главное обновление - Neural Architecture Search, который снижает потребление памяти и повышает пропускную способность.
В итоге модель может выполнять тяжёлые задачи на одном H200 под высокой нагрузкой - это уменьшает стоимость сервинга и позволяет использовать большие batch'и.
huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5-NVFP4
✅🧐🎁😌👹😋😡🙊😍🤷♂️👹
Хотите сделать шаг от экспериментальных AI-прототипов к полноценным продакшен-агентам?
Мы подготовили среду, инструменты и пригласили экспертов — ждём только вас. 20 ноября стартует Yandex AI Studio Series — серия вебинаров для тех, кто уже работает с AI и хочет развивать агентные решения.
Что вас ждёт:
- 4 онлайн-трансляции с сессией вопросов и ответов.
- Разбор сценариев с применением LLM, VLM, Realtime API, MCP, RAG, Workflows и других технологий.
- Предзаписанный воркшоп для самостоятельной практики.
- Квиз и приятные сюрпризы.
- Нетворкинг в продуктовом комьюнити.
- Офлайн-встреча в офисе Яндекса в Москве.
Все решения будем деплоить на базе Yandex AI Studio — платформы от Яндекса для разработки AI-агентов.
В программе:
- Разберём, что такое агенты и мультиагентные системы.
- Покажем, как собрать голосового и поискового агента, а также агента для обработки документов.
- Как применить знания на практике в собственных AI-проектах.
Если вы уже применяете AI и хотите вывести свои решения на новый уровень — присоединяйтесь.
👉 Регистрация
@data_analysis_ml
Как обучить свою первую ML-модель — и не утонуть в теории?
Машинное обучение звучит сложно — пока вы не попробуете на практике. 24 ноября в 18:00 МСК на открытом уроке вы обучите модель для задачи классификации прямо во время занятия.
Разберём:
– как работает алгоритм дерева решений;
– как решать задачи классификации на Python;
– что нужно, чтобы перейти от экспериментов к реальной работе с ML.
Вы шаг за шагом создадите первую модель, увидите, как она принимает решения, и поймёте, как из простого кода рождается интеллект.
➡️ Открытый урок проходит в преддверии старта курса «Machine Learning. Basic».
Регистрируйтесь — начните путь в Data Science с практики, а не с теории:
https://otus.pw/efxP/?erid=2W5zFG3ZMtc
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Baidu представила ERNIE 5.0 - новую омни-модальную модель, которая изначально обучена работать сразу со всеми типами данных: текстом, изображениями, видео и аудио.
ERNIE 5.0 особенно сильна в понимании мультимодального контекста, создании связных и творческих текстов и точном выполнении сложных инструкций.
ernie.baidu.com
⚡️ Google представила Private AI Compute - облачную платформу, где Gemini выполняет запросы на серверах Google, но при этом данные остаются видимы только пользователю.
Даже сама компания не имеет к ним доступа.
Причина проста: локальные модели упираются в ограничения по вычислительным мощностям и контексту, поэтому сложные задачи переносятся в «запечатанное» облако с теми же гарантиями приватности, что и локальная обработка.
Основу системы составляют TPU и Titanium Intelligence Enclaves — аппаратно изолированные области, где код исполняется так, что хост не может прочитать входные и выходные данные. Перед отправкой запросов телефон проверяет подлинность окружения (через remote attestation) и шифрует канал.
Google описывает концепцию как “no access”: обработка данных в enclave не может быть просмотрена операторами или другими сервисами. Ключи и логи привязаны к состоянию самого enclave.
Первые функции уже работают на Pixel 10: улучшенные подсказки Magic Cue и расширенные языковые сводки в Recorder. Эти задачи требуют большого контекста и мощных вычислений, но при этом выполняются с сохранением приватности.
По сути, это аналог Apple Private Cloud Compute, но встроенный глубже в стек Google: простые запросы обрабатываются на устройстве, а тяжёлые — в аттестованном облачном enclave.
Источник: blog.google/technology/ai/google-private-ai-compute
Стажировка для будущих аналитиков
Т-Банк открыл набор на оплачиваемую стажировку для тех, кто хочет разобраться, как устроен бигтех изнутри. Здесь не дают учебных заданий — с первого дня будете искать закономерности, проверять гипотезы и помогать команде принимать продуктовые решения.
Наставники помогут освоить новые инструменты, а команда — разобраться в сложных кейсах. Стажеры получают поддержку, обратную связь и возможность развиваться в удобном темпе.
Формат гибкий: от 20 до 40 часов в неделю, удаленно или в офисе. Есть пять направлений: продуктовая, риск-, инвестиционная аналитика, технологии и AI-продукты.
Станьте аналитиком — приходите качать скиллы в Т-Банк.
Заявки принимаются до 13 ноября
⚡️ GPT-5 на Sudoku-Bench
Команда Sudoku-Bench обновила результаты тестов. Напомню, когда бенчмарк вышел в мае 2025, ни одна LLM вообще не могла решить обычную судоку 9×9.
Теперь ситуация изменилась: GPT-5 стал новым лидером и решает 33% задач - в два раза умнее ближайшего конкурента. Это первая модель, которой удалось пройти и вариант классической 9×9.
Но главная часть бенчмарка остаётся нерешённой: 67% более сложных головоломок по-прежнему оказываются слишком сложными. Причина в том, что современные модели плохо справляются с тем, что нужно для настоящей судоку: понимать новые правила, держать в голове глобальную структуру, строить длинные логические цепочки и находить "точку входа", которую опытные люди сразу замечают.
Дополнительные эксперименты - GRPO-тюнинг Qwen2.5-7B и Thought Cloning на примерах из Cracking the Cryptic - дали небольшой прогресс, но не решили ключевые проблемы: пространственное мышление и творческий подход всё ещё оказываются для моделей сложными.
Итог: прогресс заметный, но до уровня человеческого логического и пространственного мышления моделям ещё далеко.
Подробнее:
https://pub.sakana.ai/sudoku-gpt5/
@data_analysis_ml
Bloomberry опубликовала интересный разбор того, как ИИ влияет на рынок труда в 2025 году. Коротко — вот главное.
- Общее число вакансий в 2025 упало примерно на 8 % по сравнению с 2024 — это базовый фон изменений.
- Сильнее всего просели профессии, основанные на креативном исполнении:
3D-художники −33 %, фотографы −28 %, писатели −28 %.
Задачи, которые ИИ научился делать хорошо и быстро, работодатели стали искать реже.
- Наоборот, растёт спрос на стратегические, технические и руководящие роли.
Например, ML-инженеры показывают рост ≈ +40 %.
Именно там сейчас концентрируется развитие и инвестиции.
Bloomberry выделила набор графиков, которые лучше всего показывают, куда смещается рынок и какие профессии будут определять новую структуру занятости.
https://bloomberry.com/blog/i-analyzed-180m-jobs-to-see-what-jobs-ai-is-actually-replacing-today/
🖥 Полный гайд: защита от SQL-инъекций для разработчиков
SQL-инъекции остаются одной из самых частых и опасных уязвимостей в веб-приложениях. Ошибка в одном запросе — и злоумышленник получает доступ к базе данных, паролям и пользовательским данным.
В этом материале — полный практический разбор:
как именно происходят SQL-инъекции, какие ошибки разработчиков к ним приводят, как их распознать в коде и главное — как защититься.
Разберём реальные примеры на Python, PHP и Go, посмотрим, как атакующий «взламывает» запрос, и научимся писать безопасный код с параметризованными запросами и ORM.
Это не теория, а руководство, которое поможет понять уязвимость изнутри и навсегда закрыть её в своих проектах.
👉 Читать гайд
⚡️ OpenAI выпустила GPT-5-Codex-Mini.
GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.
Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.
Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.
@ai_machinelearning_big_data
#news #ai #ml
💥 DS-STAR - новый state-of-the-art агент от Google, который сам решает комплексные задачи Data Science: от анализа и преобразования данных до работы с разными типами датасетов.
Он автоматизирует полный цикл работы и показывает топовые результаты на сложных бенчмарках.
🟠 Подробнее: https://research.google/blog/ds-star-a-state-of-the-art-versatile-data-science-agent
🧠 Perplexity выпустила свой первый исследовательский paper - и он про то, как заставить сверхкрупные модели работать на десятках AWS-GPU одновременно.
Обычно это невозможно: сеть AWS (EFA) не поддерживает GPUDirect Async, поэтому GPU на разных машинах не могут обмениваться данными достаточно быстро.
Инженеры нашли обходной путь: они построили новый софт, который передаёт координацию CPU, позволяя GPU всё равно синхронизироваться почти напрямую.
Это делает эффективным инференс моделей на *1 триллион параметров* на обычных AWS-кластерах, а не только на специализированных суперкомпьютерах.
Они подготовили expert-parallel ядра для быстрого MoE-инференса на AWS EFA:
1T MoE работает практически без деградации, а многонодовый режим сопоставим или быстрее однонодового на 671B DeepSeek V3 при средних батчах — и открывает путь к сервингу Kimi K2.
Проблема: EFA не поддерживает GPUDirect Async, а стандартный NVSHMEM-proxy даёт маршрутизацию MoE c задержками выше 1 мс.
Решение: ядра упаковывают токены в единичные RDMA-записи прямо с GPU, а специальный CPU-поток запускает передачу и перекрывает её с вычислениями GEMM.
Итог — EFA внезапно становится рабочим вариантом для массивного MoE-инференса.
Это крепкая инженерия и адекватный баланс точности и памяти для команд, которым нужна переносимость между облаками.
https://research.perplexity.ai/articles/enabling-trillion-parameter-models-on-aws-efa
⚡ Microsoft показала, как облако может выжать максимум из ИИ-железа
Azure ND GB300 v6 - новые VM на NVIDIA Blackwell пробили барьер: 1 100 000 токенов в секунду при работе с Llama-2-70B.
Что сделали:
— использовали новые Blackwell-GPU с большей памятью
— оптимизировали под TensorRT-LLM и FP4
— объединили 18 машин в один кластер
— выжали рекордный throughput без качества-в-ноль
2025 - год, когда облако и железо реально начинают тянуть модели на миллион+ токенов/с.
AI-инфраструктура становится конкурентным преимуществом.
https://techcommunity.microsoft.com/blog/azurehighperformancecomputingblog/breaking-the-million-token-barrier-the-technical-achievement-of-azure-nd-gb300-v/4466080
🔥 Подборка полезных ресурсов для программистов.
Здесь ты найдёшь всё это - коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Собеседования DS: t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_1001_notes
Java: t.me/java_library
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: /channel/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: /channel/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: /channel/addlist/mzMMG3RPZhY2M2Iy
Папка Linux:/channel/addlist/w4Doot-XBG4xNzYy
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: /channel/addlist/BkskQciUW_FhNjEy
Сохрани себе, чтобы не потерять!
🚀 PyTorch выходит за рамки квантизации: теперь с **Sparse Inference**
Новый виток оптимизации - разреженный вывод в PyTorch. Это означает: меньше памяти, выше скорость, без необходимости менять архитектуру модели.
🔍 Что такое Sparse Inference?
Разреженность - это когда в весах и активациях модели большинство значений обнулены (например, 80–90%).
Теперь PyTorch умеет:
- 📦 Использовать N:M разреженность (например, 2:4 sparsity)
- ⚡ Ускорять инференс на GPU и CPU
- 🧠 Поддерживать это в torch.compile() и torch.export
🧠 Как это работает?
1. Модель обнуляется с помощью Pruning / Structured Sparsity
2. Преобразуется через torch.sparse.to_sparse() или torch.export
3. Запускается через TorchInductor + XNNPACK или CUTLASS
🔧 Что поддерживается:
- 🖥️ CPU (x86, M1/M2) — через XNNPACK backend
- ⚙️ GPU (Ampere+) — через CUTLASS
- 🔁 Интеграция с torch.compile() (TorchInductor)
💡 Почему это важно?
- 📉 Меньше память → меньше latency на edge-устройствах
- 🚀 Выше производительность без компромиссов
- 🔧 Удобно встраивается в текущий PyTorch-пайплайн
👉 Подробнее:https://pytorch.org/blog/beyond-quantization-bringing-sparse-inference-to-pytorch/
🧠 Большой шаг к AGI.
MIT представили подход SEAL - метод, который позволяет языковым моделям самостоятельно обновлять свои знания и «вписывать» новую информацию прямо во внутренние веса.
Вместо статичной модели после релиза появляется система, которая:
- пишет свои «учебные конспекты»,
- генерирует несколько вариантов объяснений,
- тестирует себя,
- выбирает лучший результат,
- и обновляет себя же, закрепляя новое знание.
Фактически модель саморедактируется и самообучается, как студент, который улучшает понимание через пробу и ошибки.
Первые результаты впечатляют:
- +15% точности в QA-задачах
- +50% успеха в освоении новых навыков
- маленькая модель превосходит крупные LLM
Проблема катастрофического забывания ещё есть, но прогресс быстрый.
Это выглядит как первый реальный шаг к непрерывно обучающимся AI-агентам, которые могут адаптироваться, эволюционировать и работать вместе.
https://news.mit.edu/2025/teaching-large-language-models-to-absorb-new-knowledge-1112
IBM представила два новых квантовых процессора - Nighthawk и Loon - и сделала важный шаг: теперь все её квантовые чипы производятся на 300-мм пластинах в Albany NanoTech. Это снижает стоимость, ускоряет эксперименты и делает квантовое железо более «промышленным». IBM говорит о квантовом преимуществе уже к 2026 году и устойчивой работе с коррекцией ошибок к 2029.
Nighthawk увеличивает сложность схем примерно на 30% при тех же уровнях ошибок. Он рассчитан на нагрузки с ~5000 двухкубитных операций и должен вырасти до ~15000 к 2028 году. Поддерживает Qiskit и будет доступен пользователям в конце 2025.
Loon — это шаг к по-настоящему устойчивым квантовым вычислениям: более эффективная коррекция ошибок, длинные связи между кубитами через многослойную маршрутизацию, сброс кубитов между циклами и сверхбыстрое декодирование ошибок менее чем за 480 нс. Новый LDPC-подход IBM вывела на год раньше графика.
Почему важны 300-мм пластины? Их площадь в 2.25 раза больше, чем у 200-мм, значит — больше чипов за один прогон и ниже стоимость. Это также позволяет параллельно тестировать разные варианты чипов и ускорять разработку.
Albany работает 24/7, и IBM уже удвоила скорость R&D: время сборки сократилось в два раза, а сложность создаваемых систем выросла в 10 раз.
Переход на полноценное 300-мм производство означает, что квантовые процессоры становятся реальной производственной технологией, а не лабораторными экспериментами.
https://www.ibm.com/quantum/blog/300mm-fab
🎨 Создание изображений с контролем идентичности
WithAnyone — это проект, направленный на генерацию изображений с несколькими идентичностями, позволяющий контролировать выражения лиц, прически и аксессуары. Он решает проблему "копирования-вставки" в генерации лиц, обеспечивая гармоничное сочетание всех созданных образов в одной фотографии.
🚀 Основные моменты:
- Контролируемая генерация лиц без артефактов.
- Поддержка многократной генерации идентичностей.
- Доступны модели и датасеты на Hugging Face.
- Интерактивная демонстрация доступна онлайн.
📌 GitHub: https://github.com/Doby-Xu/WithAnyone
🧮 Anthropic против OpenAI: ставка на эффективность
По данным *The Information*, Anthropic делает акцент не на масштабах, а на эффективности - и планирует тратить на вычисления в несколько раз меньше, чем OpenAI, при этом сохраняя агрессивное ценообразование.
💸 Прогноз по затратам на вычисления
- 2025: Anthropic — ~$6 млрд, OpenAI — ~$15 млрд
- 2028: Anthropic — ~$27 млрд, OpenAI — ~$111 млрд
Это показывает существенный разрыв по себестоимости обработки токена.
📈 Финансовые цели
- Anthropic ожидает выйти в плюс по cash-flow уже в 2027
- Цель — ~$70 млрд выручки в 2028
- Для сравнения: OpenAI прогнозирует ~$100 млрд, но прибыльности ждёт только к 2029 году
⚙️ Как достигается эффективность
Anthropic распределяет вычисления между Google TPUs, Nvidia и Amazon.
Свежий контракт с Google предусматривает до 1 млн TPU и >1 ГВт мощностей к 2026 году — это заметно снижает стоимость токена при высокой загрузке.
💡 Модель монетизации
OpenAI инвестирует миллиарды в инфраструктуру для обслуживания бесплатных пользователей ChatGPT.
Anthropic же получает 80 % выручки от платного API и избегает чрезмерных расходов на «бесплатный» трафик.
Anthropic строит менее громкую, но гораздо более устойчивую и экономичную модель роста.
DeepAnalyze: первый агентный LLM для полностью автономной Data Science 🤖📊
Забудьте о ручной обработке данных — DeepAnalyze-8B сам проходит весь путь:
от сырых файлов до аналитического отчёта уровня эксперта.
Поддерживает:
🛠 Подготовку данных, анализ, моделирование, визуализацию и генерацию инсайтов
🔍 Открытые исследовательские задачи и автоматическое составление research-репортов
И всё это — без жёстких workflow’ов, с обучением по принципу «от простого к сложному», как настоящий дата-сайентист.
При этом модель всего 8B параметров, но уже обгоняет агентов на проприетарных LLM.
✅ Открытый код
✅ Открытые веса
✅ Открытые данные обучения
Идеальный инструмент для автоматизации рутинных и сложных data-задач.
🔗 https://ruc-deepanalyze.github.io
LoRA-модель от autoweeb, которая превращает обычные фотографии в аниме-стиль ☺️
Основана на Qwen-Image-Edit-2509.
Работает просто: загружаете фото, пишете что-то вроде «transform into anime» - и получаете аниме-версию исходного снимка. Настроек минимум, результат отличный.
Ссылка: https://huggingface.co/autoweeb/Qwen-Image-Edit-2509-Photo-to-Anime
@data_analysis_ml
AI-видео в китайском *Douyin выходят на совершенно другой уровень
В ленте вырубится ролик, где «китайская мама» устраивает разнос ксеноморфу - и выглядит это как мини-фильм. Кажется, что вот сейчас всё закончится, но сцена продолжает разгоняться и становится ещё абсурднее и эффектнее.
*Douyin - это китайская версия TikTok.
❔ Почему крупные компании так уверенно держат пользователей?
Секрет в рекомендательных системах — технологиях, которые анализируют поведение и дают персонализированные предложения.
Это ядро современных цифровых сервисов: от банков до e-commerce. Владение такими инструментами открывает путь к топовым проектам и высоким зарплатам.
👍Курс «Рекомендательные системы» в OTUS создан для специалистов с опытом в ML, которые хотят прокачать навыки и внедрять реальные решения: от малого бизнеса до крупных корпораций.
Вас ждут живые лекции от практиков, работа с продвинутыми датасетами и проектирование систем под конкретные задачи.
Плавный старт продлится до 16.11.2025 — оставьте заявку и получите скидку: https://tglink.io/e55abca47c7f?erid=2W5zFGvxNk8
🎁 Промокод на скидку 15% : RS_15 до 11.11.2025
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
#google
@data_analysis_ml
NVIDIA делает историю.
Ещё десять лет назад мало кто верил, что эта компания станет самой дорогой в мире. Но в эпоху ИИ NVIDIA стала тем самым «продавцом лопат» - их чипы оказались фундаментом для тренировки и работы больших моделей. Без их GPU сегодня не существует современного ИИ.
Дженсен Хуан прекрасно осознал исторический момент. Когда стало ясно, что именно NVIDIA будет ускорителем ИИ-революции, он не замешкался:
• мгновенно заключил стратегические партнёрства
• расширил R&D и продуктовую линейку
• резко увеличил мощности производства через TSMC
Конкуренты пытались догнать, но дистанция только выросла. Даже AMD, которая тоже выигрывает от ИИ-бума, находится далеко позади по экосистеме, софту и масштабу.
NVIDIA войдёт в историю как компания, изменившая технологическую эпоху.
И Дженсен Хуан - как лидер, который увидел момент и сделал всё правильно, превращая потенциал в новую индустриальную реальность.
Microsoft запускает MAI Superintelligence Team — ставка на медицину
Microsoft создает новую команду MAI Superintelligence Team, начав с задач медицинской диагностики. Мустафа Сулейман заявляет, что у них есть «прямая траектория» к медицинскому суперинтеллекту за 2–3 года.
Цели команды: решать конкретные задачи — раннее выявление болезней, разработка батарей и материалов, проектирование молекул. Компания обещает массовые инвестиции в это направление.
Толчком стал недавний результат системы MAI-DxO — их оркестратор диагностики показал качество анализа сложных клинических случаев выше, чем у групп врачей. Сторонники считают это возможным шагом к сверхчеловеческому клиническому рассуждению — если удержать надежность, калибровку и прозрачность на масштабе.
Источник: reuters.com/technology/microsoft-launches-superintelligence-team-targeting-medical-diagnosis-start-2025-11-06/
🍏 Apple готовит сделку на 1 млрд долларов в год с Google, чтобы встроить 1.2-триллионную модель Gemini в новое поколение Siri.
Обновленная Siri под кодовым именем Linwood выйдет следующей весной. Gemini будет отвечать за функции суммаризации и планирования, а собственные модели Apple сохранят ограниченные роли.
Параллельно Apple в ускоренном режиме разрабатывает свою модель на 1 триллион параметров, чтобы уже в следующем году заменить технологию Google, если догонит по качеству.
https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri
Google DeepMind представили IMO-Bench - набор тестов, который проверяет математические способности ИИ на уровне Международной математической олимпиады (IMO).
Что внутри:
• IMO-AnswerBench - 400 задач с короткими ответами
• IMO-ProofBench - 60 задач, где нужно написать доказательство
• IMO-GradingBench - 1000 готовых доказательств для автоматической проверки
Главная идея проста: перестать измерять только правильные ответы и начать оценивать глубину рассуждений, умение строить логические цепочки и строгие доказательства, как у олимпийских математиков.
Результаты:
Модель Gemini Deep Think показала:
• 80.0% на AnswerBench
• 65.7% на ProofBench
Это уровень золотой медали IMO - и заметно выше, чем у GPT-5 и Grok-4.
https://x.com/lmthang/status/1985760224612057092