48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🚀 Построение многоагентных систем с Laddr
Laddr — это фреймворк на Python для создания масштабируемых многоагентных систем, где агенты могут общаться, делегировать задачи и выполнять работу параллельно. Он предлагает гибкие архитектурные решения с поддержкой наблюдаемости и горизонтального масштабирования.
🚀Основные моменты:
- Модели работы: координация и последовательные потоки.
- Высокая производительность с автоматическим балансировкой нагрузки.
- Полная трассировка действий агентов и интерактивная панель мониторинга.
- Легкость в разработке с чистым CLI и поддержкой горячей перезагрузки.
- Совместимость с различными хранилищами и моделями AI.
📌 GitHub: https://github.com/AgnetLabs/Laddr
#python
🚀 Grok 4.1 - новая фронтир-модель, которая поднимает планку разговорного интеллекта, эмоционального понимания и практической полезности в реальных сценариях.
Grok 4.1 доступен бесплатно на:
• grok.com
• grok.x.com
• мобильных приложениях.
Первое место в LMArena Text Leaderboard (привет старому другу “quasar”) и в EQ-Bench (и даже превосходит Kimi k2).
Модель стала лучше понимать контекст, тон, эмоции и намерения собеседника, а также выдавать более точные и прикладные ответы. Это делает Grok 4.1 одним из наиболее продвинутых решений в своей категории.
https://x.ai/news/grok-4-1
Пройдите собеседования за выходные и получите офер в Яндекс.
Приглашаем Data Scientists, а также data- и продуктовых аналитиков с опытом на Python от 3 лет. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Как получить офер за выходные:
• До 3 декабря оставить заявку на участие
• 6 декабря решить задачи на двух технических секциях
• 7 декабря прийти на финальную встречу и познакомиться с командами
Подробности — на сайте: https://yandex.ru/project/events/wo-analytics-1225
🔥 SciAgent - возможно, самый впечатляющий научный ИИ на сегодня
Это многоагентная система, которая координирует работу целой команды “мини-агентов”, как настоящий научный коллектив.
Главная идея проста и мощна:
- сверху есть Координатор, который понимает, какая задача перед ним: математика, физика, химия, какая сложность, какой тип рассуждений нужен
- он сам собирает нужную цепочку рассуждений из разных специализированных агентов
- те параллельно считают, моделируют, доказывают, проверяют и подстраиваются друг под друга
Это динамический научный pipeline, который ИИ строит *на ходу*.
И результаты - просто безумие:
- 🥇 уровень золотых медалистов на IMO 2025
- 💯 идеальный результат на IMC 2025
- 🔝 почти человеческий топ уровень на IPhO 2024/2025
- 📈 огромный отрыв на CPhO 2025 (264 против 199 у лучших людей)
- 🧠 уверенная работа на Humanity’s Last Exam
- ⚙️ полная автоматизация: моделирование, вычисления, вывод формул и верификация — всё параллельно
Почему это важно?
Потому что SciAgent показывает:
ИИ может рассуждать не как одиночная модель, а как команда специалистов, которая сама выбирает стратегию, инструменты и порядок действий.
Это уже не рост точности на 2 %.
Это новая парадигма научного мышления в ИИ.
И если такие системы будут масштабироваться - научные задачи высокого уровня изменятся навсегда.
https://arxiv.org/abs/2511.08151
⚙️ Китайский “невозможный чип” меняет правила игры
В Китае представили разработку, которая может переписать будущее технологий. Речь о новом аналоговом чипе, который не просто обгоняет Nvidia и AMD — он выносит их за счётами.
Что известно:
- до 1000 раз быстрее современных топ-процессоров
- до 100 раз энергоэффективнее
- работает не в логике 1 и 0, а как мозг — обрабатывает непрерывные сигналы прямо в памяти
- никаких задержек, минимум потерь энергии, максимальный интеллект
Учёные заявляют, что решили проблему, над которой бились больше века: добились цифровой точности на аналоговом железе с минимальным потреблением. В тестах новый чип обошёл Nvidia H100 и AMD Vega 20 до 1000x по пропускной способности.
Если технология масштабируется, это может перевернуть всё — от ИИ и дата-центров до связи и робототехники. Начало новой техноэры может наступить намного раньше, чем кто-то ожидал.
https://www.livescience.com/technology/computing/china-solves-century-old-problem-with-new-analog-chip-that-is-1-000-times-faster-than-high-end-nvidia-gpus
⚡️ NVIDIA выпустила модель Llama-3 Nemotron Super-49B-v1.5-NVFP4
Это 49B reasoning-модель, улучшенная версия Meta Llama-3.3-70B-Instruct, которая даёт более сильное рассуждение, лучшее использование инструментов и стабильный диалог на длинных контекстах.
Она ориентирована на реальные агентные нагрузки - RAG, tool calling, сложные цепочки действий - и поддерживает контекст 128K, позволяющий держать большие беседы, документы и планы без нарезки.
Главное обновление - Neural Architecture Search, который снижает потребление памяти и повышает пропускную способность.
В итоге модель может выполнять тяжёлые задачи на одном H200 под высокой нагрузкой - это уменьшает стоимость сервинга и позволяет использовать большие batch'и.
huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5-NVFP4
✅🧐🎁😌👹😋😡🙊😍🤷♂️👹
Хотите сделать шаг от экспериментальных AI-прототипов к полноценным продакшен-агентам?
Мы подготовили среду, инструменты и пригласили экспертов — ждём только вас. 20 ноября стартует Yandex AI Studio Series — серия вебинаров для тех, кто уже работает с AI и хочет развивать агентные решения.
Что вас ждёт:
- 4 онлайн-трансляции с сессией вопросов и ответов.
- Разбор сценариев с применением LLM, VLM, Realtime API, MCP, RAG, Workflows и других технологий.
- Предзаписанный воркшоп для самостоятельной практики.
- Квиз и приятные сюрпризы.
- Нетворкинг в продуктовом комьюнити.
- Офлайн-встреча в офисе Яндекса в Москве.
Все решения будем деплоить на базе Yandex AI Studio — платформы от Яндекса для разработки AI-агентов.
В программе:
- Разберём, что такое агенты и мультиагентные системы.
- Покажем, как собрать голосового и поискового агента, а также агента для обработки документов.
- Как применить знания на практике в собственных AI-проектах.
Если вы уже применяете AI и хотите вывести свои решения на новый уровень — присоединяйтесь.
👉 Регистрация
@data_analysis_ml
Как обучить свою первую ML-модель — и не утонуть в теории?
Машинное обучение звучит сложно — пока вы не попробуете на практике. 24 ноября в 18:00 МСК на открытом уроке вы обучите модель для задачи классификации прямо во время занятия.
Разберём:
– как работает алгоритм дерева решений;
– как решать задачи классификации на Python;
– что нужно, чтобы перейти от экспериментов к реальной работе с ML.
Вы шаг за шагом создадите первую модель, увидите, как она принимает решения, и поймёте, как из простого кода рождается интеллект.
➡️ Открытый урок проходит в преддверии старта курса «Machine Learning. Basic».
Регистрируйтесь — начните путь в Data Science с практики, а не с теории:
https://otus.pw/efxP/?erid=2W5zFG3ZMtc
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Baidu представила ERNIE 5.0 - новую омни-модальную модель, которая изначально обучена работать сразу со всеми типами данных: текстом, изображениями, видео и аудио.
ERNIE 5.0 особенно сильна в понимании мультимодального контекста, создании связных и творческих текстов и точном выполнении сложных инструкций.
ernie.baidu.com
⚡️ Google представила Private AI Compute - облачную платформу, где Gemini выполняет запросы на серверах Google, но при этом данные остаются видимы только пользователю.
Даже сама компания не имеет к ним доступа.
Причина проста: локальные модели упираются в ограничения по вычислительным мощностям и контексту, поэтому сложные задачи переносятся в «запечатанное» облако с теми же гарантиями приватности, что и локальная обработка.
Основу системы составляют TPU и Titanium Intelligence Enclaves — аппаратно изолированные области, где код исполняется так, что хост не может прочитать входные и выходные данные. Перед отправкой запросов телефон проверяет подлинность окружения (через remote attestation) и шифрует канал.
Google описывает концепцию как “no access”: обработка данных в enclave не может быть просмотрена операторами или другими сервисами. Ключи и логи привязаны к состоянию самого enclave.
Первые функции уже работают на Pixel 10: улучшенные подсказки Magic Cue и расширенные языковые сводки в Recorder. Эти задачи требуют большого контекста и мощных вычислений, но при этом выполняются с сохранением приватности.
По сути, это аналог Apple Private Cloud Compute, но встроенный глубже в стек Google: простые запросы обрабатываются на устройстве, а тяжёлые — в аттестованном облачном enclave.
Источник: blog.google/technology/ai/google-private-ai-compute
Стажировка для будущих аналитиков
Т-Банк открыл набор на оплачиваемую стажировку для тех, кто хочет разобраться, как устроен бигтех изнутри. Здесь не дают учебных заданий — с первого дня будете искать закономерности, проверять гипотезы и помогать команде принимать продуктовые решения.
Наставники помогут освоить новые инструменты, а команда — разобраться в сложных кейсах. Стажеры получают поддержку, обратную связь и возможность развиваться в удобном темпе.
Формат гибкий: от 20 до 40 часов в неделю, удаленно или в офисе. Есть пять направлений: продуктовая, риск-, инвестиционная аналитика, технологии и AI-продукты.
Станьте аналитиком — приходите качать скиллы в Т-Банк.
Заявки принимаются до 13 ноября
⚡️ GPT-5 на Sudoku-Bench
Команда Sudoku-Bench обновила результаты тестов. Напомню, когда бенчмарк вышел в мае 2025, ни одна LLM вообще не могла решить обычную судоку 9×9.
Теперь ситуация изменилась: GPT-5 стал новым лидером и решает 33% задач - в два раза умнее ближайшего конкурента. Это первая модель, которой удалось пройти и вариант классической 9×9.
Но главная часть бенчмарка остаётся нерешённой: 67% более сложных головоломок по-прежнему оказываются слишком сложными. Причина в том, что современные модели плохо справляются с тем, что нужно для настоящей судоку: понимать новые правила, держать в голове глобальную структуру, строить длинные логические цепочки и находить "точку входа", которую опытные люди сразу замечают.
Дополнительные эксперименты - GRPO-тюнинг Qwen2.5-7B и Thought Cloning на примерах из Cracking the Cryptic - дали небольшой прогресс, но не решили ключевые проблемы: пространственное мышление и творческий подход всё ещё оказываются для моделей сложными.
Итог: прогресс заметный, но до уровня человеческого логического и пространственного мышления моделям ещё далеко.
Подробнее:
https://pub.sakana.ai/sudoku-gpt5/
@data_analysis_ml
Bloomberry опубликовала интересный разбор того, как ИИ влияет на рынок труда в 2025 году. Коротко — вот главное.
- Общее число вакансий в 2025 упало примерно на 8 % по сравнению с 2024 — это базовый фон изменений.
- Сильнее всего просели профессии, основанные на креативном исполнении:
3D-художники −33 %, фотографы −28 %, писатели −28 %.
Задачи, которые ИИ научился делать хорошо и быстро, работодатели стали искать реже.
- Наоборот, растёт спрос на стратегические, технические и руководящие роли.
Например, ML-инженеры показывают рост ≈ +40 %.
Именно там сейчас концентрируется развитие и инвестиции.
Bloomberry выделила набор графиков, которые лучше всего показывают, куда смещается рынок и какие профессии будут определять новую структуру занятости.
https://bloomberry.com/blog/i-analyzed-180m-jobs-to-see-what-jobs-ai-is-actually-replacing-today/
🖥 Полный гайд: защита от SQL-инъекций для разработчиков
SQL-инъекции остаются одной из самых частых и опасных уязвимостей в веб-приложениях. Ошибка в одном запросе — и злоумышленник получает доступ к базе данных, паролям и пользовательским данным.
В этом материале — полный практический разбор:
как именно происходят SQL-инъекции, какие ошибки разработчиков к ним приводят, как их распознать в коде и главное — как защититься.
Разберём реальные примеры на Python, PHP и Go, посмотрим, как атакующий «взламывает» запрос, и научимся писать безопасный код с параметризованными запросами и ORM.
Это не теория, а руководство, которое поможет понять уязвимость изнутри и навсегда закрыть её в своих проектах.
👉 Читать гайд
⚡️ OpenAI выпустила GPT-5-Codex-Mini.
GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.
Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.
Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.
@ai_machinelearning_big_data
#news #ai #ml
Конкурс для аналитиков! Требуется эксперт на продуктовый А/Б-эксперимент
Международная IT-компания Garage Eight вместе с Данилой Елистратовым собрали классный аналитический кейс, на котором каждый может прочелленджить свою экспертность.
История следующая — в крупном таксопарке «Датапарк» назревает кризис. Заказы поступают без остановки, но водителей не хватает. Чтобы спасти ситуацию, команда таксопарка запустила продуктовый эксперимент. Но ей нужна помощь крутого аналитика, чтобы разобраться, все ли правильно работает и стоит ли выкатывать новую механику на весь парк.
Задачи:
— убедиться, что сплит-система A/B-теста «Датапарка» работает верно;
— посчитать результаты теста и понять, выгодна ли новая механика;
— предложить способ определять отложенные заказы;
— объяснить все менеджменту на понятной презентации.
Призы (^-^):
1 место — Симулятор от Karpov.Courses на выбор: Симулятор А/B-тестов, Симулятор data science или Симулятор аналитика. А также бомбер Garage Eight.
2 место — Симулятор A/B-тестов от Karpov.Courses и бомбер Garage Eight.
3 место — Симулятор A/B-тестов от Karpov.Courses и бомбер Garage Eight.
4 и 5 место — Наборы мерча от Garage Eight
Прием решений: до 2 декабря
Проверка: с 3 декабря по 10 декабря
Объявление победителей: 11 декабря
> Узнай все детали и забери материалы кейса здесь:
/channel/Garage_DataPark_bot
Реклама. ООО "Гараж". ИНН 7810671708.erid: 2W5zFHLiCDe
⚡️ 94-страничный обзор о том, как научные LLM эволюционируют за счет более богатых данных и замкнутых циклов с автономными агентами.
Авторы разобрали 270 датасетов и 190 бенчмарков.
Почему обычные LLM не тянут науку?
Научные данные - это смесь текста, таблиц, формул, кода, изображений и неопределённых измерений. Нюансы легко теряются.
Обзор предлагает:
- единую таксономию научных данных
- многослойную модель научного знания: от сырых наблюдений до теории
Эта рамка помогает строить преподготовку и постобучение так, чтобы модели сохраняли научные правила и могли соединять разные форматы и масштабы.
Обзор классифицирует модели по областям: физика, химия, биология, материалы, науки о Земле, астрономия, плюс универсальные научные ассистенты.
В оценке качества виден сдвиг: от одноходовых квизов, к процесс-ориентированным проверкам, которые оценивают цепочку рассуждений, работу с инструментами и промежуточные результаты.
Авторы продвигают закрытый цикл: агенты планируют эксперименты, запускают симуляторы или лаборатории, проверяют результаты и обновляют общее знание.
Итог: научные LLM движутся к подходу, основанному на данных, проверке процессов и агентных петлях, связанных с реальными доказательствами.
https://arxiv.org/abs/2508.21148
🚨 Новый обзорный препринт о том, как ИИ меняет человеческое мышление - простым языком выделяю главное.
ИИ перестал быть просто инструментом: он всё сильнее вмешивается в то, как мы думаем, что считаем важным и какие решения принимаем.
Главные идеи:
- ИИ берёт на себя всё больше когнитивных задач, а мы начинаем меньше думать сами. Растёт риск «ленивого мышления».
- Персонализированные алгоритмы создают пузырь: нам показывают только удобные мнения. Это снижает разнообразие взглядов и усиливает поляризацию.
- ИИ легко воздействует на наши когнитивные искажения. Алгоритмы могут подталкивать к нужным эмоциям и решениям.
- Информационные экосистемы становятся управляемыми: дезинформация может распространяться автоматически и тонко.
- Встаёт философский вопрос: что будет, если ИИ приблизится к сознанию? Где пройдёт граница между человеком и машиной?
- Итог автора: растёт риск потери интеллектуальной автономии. Чтобы смягчить эффект, нужны образование, прозрачные модели и продуманное управление ИИ.
Источник: arxiv.org/abs/2508.16628
🔥 Подборка полезных ресурсов для программистов.
Здесь ты найдёшь всё это - коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Собеседования DS: t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_1001_notes
Java: t.me/java_library
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: /channel/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: /channel/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: /channel/addlist/mzMMG3RPZhY2M2Iy
Папка Linux:/channel/addlist/w4Doot-XBG4xNzYy
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: /channel/addlist/BkskQciUW_FhNjEy
Сохрани себе, чтобы не потерять!
🚀 PyTorch выходит за рамки квантизации: теперь с **Sparse Inference**
Новый виток оптимизации - разреженный вывод в PyTorch. Это означает: меньше памяти, выше скорость, без необходимости менять архитектуру модели.
🔍 Что такое Sparse Inference?
Разреженность - это когда в весах и активациях модели большинство значений обнулены (например, 80–90%).
Теперь PyTorch умеет:
- 📦 Использовать N:M разреженность (например, 2:4 sparsity)
- ⚡ Ускорять инференс на GPU и CPU
- 🧠 Поддерживать это в torch.compile() и torch.export
🧠 Как это работает?
1. Модель обнуляется с помощью Pruning / Structured Sparsity
2. Преобразуется через torch.sparse.to_sparse() или torch.export
3. Запускается через TorchInductor + XNNPACK или CUTLASS
🔧 Что поддерживается:
- 🖥️ CPU (x86, M1/M2) — через XNNPACK backend
- ⚙️ GPU (Ampere+) — через CUTLASS
- 🔁 Интеграция с torch.compile() (TorchInductor)
💡 Почему это важно?
- 📉 Меньше память → меньше latency на edge-устройствах
- 🚀 Выше производительность без компромиссов
- 🔧 Удобно встраивается в текущий PyTorch-пайплайн
👉 Подробнее:https://pytorch.org/blog/beyond-quantization-bringing-sparse-inference-to-pytorch/
🧠 Большой шаг к AGI.
MIT представили подход SEAL - метод, который позволяет языковым моделям самостоятельно обновлять свои знания и «вписывать» новую информацию прямо во внутренние веса.
Вместо статичной модели после релиза появляется система, которая:
- пишет свои «учебные конспекты»,
- генерирует несколько вариантов объяснений,
- тестирует себя,
- выбирает лучший результат,
- и обновляет себя же, закрепляя новое знание.
Фактически модель саморедактируется и самообучается, как студент, который улучшает понимание через пробу и ошибки.
Первые результаты впечатляют:
- +15% точности в QA-задачах
- +50% успеха в освоении новых навыков
- маленькая модель превосходит крупные LLM
Проблема катастрофического забывания ещё есть, но прогресс быстрый.
Это выглядит как первый реальный шаг к непрерывно обучающимся AI-агентам, которые могут адаптироваться, эволюционировать и работать вместе.
https://news.mit.edu/2025/teaching-large-language-models-to-absorb-new-knowledge-1112
IBM представила два новых квантовых процессора - Nighthawk и Loon - и сделала важный шаг: теперь все её квантовые чипы производятся на 300-мм пластинах в Albany NanoTech. Это снижает стоимость, ускоряет эксперименты и делает квантовое железо более «промышленным». IBM говорит о квантовом преимуществе уже к 2026 году и устойчивой работе с коррекцией ошибок к 2029.
Nighthawk увеличивает сложность схем примерно на 30% при тех же уровнях ошибок. Он рассчитан на нагрузки с ~5000 двухкубитных операций и должен вырасти до ~15000 к 2028 году. Поддерживает Qiskit и будет доступен пользователям в конце 2025.
Loon — это шаг к по-настоящему устойчивым квантовым вычислениям: более эффективная коррекция ошибок, длинные связи между кубитами через многослойную маршрутизацию, сброс кубитов между циклами и сверхбыстрое декодирование ошибок менее чем за 480 нс. Новый LDPC-подход IBM вывела на год раньше графика.
Почему важны 300-мм пластины? Их площадь в 2.25 раза больше, чем у 200-мм, значит — больше чипов за один прогон и ниже стоимость. Это также позволяет параллельно тестировать разные варианты чипов и ускорять разработку.
Albany работает 24/7, и IBM уже удвоила скорость R&D: время сборки сократилось в два раза, а сложность создаваемых систем выросла в 10 раз.
Переход на полноценное 300-мм производство означает, что квантовые процессоры становятся реальной производственной технологией, а не лабораторными экспериментами.
https://www.ibm.com/quantum/blog/300mm-fab
🎨 Создание изображений с контролем идентичности
WithAnyone — это проект, направленный на генерацию изображений с несколькими идентичностями, позволяющий контролировать выражения лиц, прически и аксессуары. Он решает проблему "копирования-вставки" в генерации лиц, обеспечивая гармоничное сочетание всех созданных образов в одной фотографии.
🚀 Основные моменты:
- Контролируемая генерация лиц без артефактов.
- Поддержка многократной генерации идентичностей.
- Доступны модели и датасеты на Hugging Face.
- Интерактивная демонстрация доступна онлайн.
📌 GitHub: https://github.com/Doby-Xu/WithAnyone
🧮 Anthropic против OpenAI: ставка на эффективность
По данным *The Information*, Anthropic делает акцент не на масштабах, а на эффективности - и планирует тратить на вычисления в несколько раз меньше, чем OpenAI, при этом сохраняя агрессивное ценообразование.
💸 Прогноз по затратам на вычисления
- 2025: Anthropic — ~$6 млрд, OpenAI — ~$15 млрд
- 2028: Anthropic — ~$27 млрд, OpenAI — ~$111 млрд
Это показывает существенный разрыв по себестоимости обработки токена.
📈 Финансовые цели
- Anthropic ожидает выйти в плюс по cash-flow уже в 2027
- Цель — ~$70 млрд выручки в 2028
- Для сравнения: OpenAI прогнозирует ~$100 млрд, но прибыльности ждёт только к 2029 году
⚙️ Как достигается эффективность
Anthropic распределяет вычисления между Google TPUs, Nvidia и Amazon.
Свежий контракт с Google предусматривает до 1 млн TPU и >1 ГВт мощностей к 2026 году — это заметно снижает стоимость токена при высокой загрузке.
💡 Модель монетизации
OpenAI инвестирует миллиарды в инфраструктуру для обслуживания бесплатных пользователей ChatGPT.
Anthropic же получает 80 % выручки от платного API и избегает чрезмерных расходов на «бесплатный» трафик.
Anthropic строит менее громкую, но гораздо более устойчивую и экономичную модель роста.
DeepAnalyze: первый агентный LLM для полностью автономной Data Science 🤖📊
Забудьте о ручной обработке данных — DeepAnalyze-8B сам проходит весь путь:
от сырых файлов до аналитического отчёта уровня эксперта.
Поддерживает:
🛠 Подготовку данных, анализ, моделирование, визуализацию и генерацию инсайтов
🔍 Открытые исследовательские задачи и автоматическое составление research-репортов
И всё это — без жёстких workflow’ов, с обучением по принципу «от простого к сложному», как настоящий дата-сайентист.
При этом модель всего 8B параметров, но уже обгоняет агентов на проприетарных LLM.
✅ Открытый код
✅ Открытые веса
✅ Открытые данные обучения
Идеальный инструмент для автоматизации рутинных и сложных data-задач.
🔗 https://ruc-deepanalyze.github.io
LoRA-модель от autoweeb, которая превращает обычные фотографии в аниме-стиль ☺️
Основана на Qwen-Image-Edit-2509.
Работает просто: загружаете фото, пишете что-то вроде «transform into anime» - и получаете аниме-версию исходного снимка. Настроек минимум, результат отличный.
Ссылка: https://huggingface.co/autoweeb/Qwen-Image-Edit-2509-Photo-to-Anime
@data_analysis_ml
AI-видео в китайском *Douyin выходят на совершенно другой уровень
В ленте вырубится ролик, где «китайская мама» устраивает разнос ксеноморфу - и выглядит это как мини-фильм. Кажется, что вот сейчас всё закончится, но сцена продолжает разгоняться и становится ещё абсурднее и эффектнее.
*Douyin - это китайская версия TikTok.
❔ Почему крупные компании так уверенно держат пользователей?
Секрет в рекомендательных системах — технологиях, которые анализируют поведение и дают персонализированные предложения.
Это ядро современных цифровых сервисов: от банков до e-commerce. Владение такими инструментами открывает путь к топовым проектам и высоким зарплатам.
👍Курс «Рекомендательные системы» в OTUS создан для специалистов с опытом в ML, которые хотят прокачать навыки и внедрять реальные решения: от малого бизнеса до крупных корпораций.
Вас ждут живые лекции от практиков, работа с продвинутыми датасетами и проектирование систем под конкретные задачи.
Плавный старт продлится до 16.11.2025 — оставьте заявку и получите скидку: https://tglink.io/e55abca47c7f?erid=2W5zFGvxNk8
🎁 Промокод на скидку 15% : RS_15 до 11.11.2025
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
#google
@data_analysis_ml
NVIDIA делает историю.
Ещё десять лет назад мало кто верил, что эта компания станет самой дорогой в мире. Но в эпоху ИИ NVIDIA стала тем самым «продавцом лопат» - их чипы оказались фундаментом для тренировки и работы больших моделей. Без их GPU сегодня не существует современного ИИ.
Дженсен Хуан прекрасно осознал исторический момент. Когда стало ясно, что именно NVIDIA будет ускорителем ИИ-революции, он не замешкался:
• мгновенно заключил стратегические партнёрства
• расширил R&D и продуктовую линейку
• резко увеличил мощности производства через TSMC
Конкуренты пытались догнать, но дистанция только выросла. Даже AMD, которая тоже выигрывает от ИИ-бума, находится далеко позади по экосистеме, софту и масштабу.
NVIDIA войдёт в историю как компания, изменившая технологическую эпоху.
И Дженсен Хуан - как лидер, который увидел момент и сделал всё правильно, превращая потенциал в новую индустриальную реальность.