48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
⚡️ Как чувствует себя ИИ, когда помог тебе сдать экзамены и получить диплом, а потом в итоге забрал твою работу.
Читать полностью…
Команды Яндекса ищут продуктовых и data-аналитиков, а также data scientists с опытом на Python от 3 лет.
Участвуйте в Weekend Offer, чтобы всего за 2 дня пройти все собеседования и получить офер.
Как участвовать?
⚪ Зарегистрироваться на сайте до 25 февраля.
⚪ Пройти две технические секции 28 февраля.
⚪ Познакомиться с командами и получить офер 1 марта.
Мы опираемся на научные исследования и аналитические данные, а потом превращаем их в реальные продукты для миллионов пользователей. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Подробности и регистрация — по ссылке: https://yandex.ru/project/events/wo-analytics-0226
⚡️ Релиз Gemini 3.1 Pro - новый уровень интеллекта моделей
Google официально представила Gemini 3.1 Pro, и результаты выглядят серьёзно: модель показала 77,1% в одном из самых сложных тестов на абстрактное мышление — ARC-AGI-2.
- Резкий скачок качества
Результат почти в 2 раза выше, чем у предыдущей версии
- Обгоняет конкурентов
Gemini 3.1 Pro опережает Opus 4.6 и GPT-5.2 в задачах на обобщение и логическое мышление
- Сильнее в реальных сценариях
- программирование
- агентные задачи
- работа с новыми паттернами без примеров
- Новые возможности
Модель может генерировать анимированные SVG из текста и решать логические задачи, которых не было в обучающей выборке — это важный шаг к более универсальному AI.
- Контекст: 1M токенов, до 64k токенов вывода
- Knowledge cutoff: январь 2025
- Цена без изменений:
- $2 / $12 (до 200k токенов)
- $4 / $18 (свыше 200k токенов)
Попробовать Gemini 3.1 Pro уже можно в Google AI Studio: blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/
@ai_machinelearning_big_data
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion* 2026! 💙
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
➡ Не пропустите, регистрируйтесь.
*Data Fusion — Объединение данных
Информация о рекламодателе
AI может спасти жизнь ещё до прибытия пациента в больницу.
В крупном международном исследовании, опубликованном в *The Lancet Digital Health*, показано, что модели машинного обучения способны заранее предсказывать необходимость переливания крови у пациентов с травмами — прямо на этапе оказания первой помощи.
Как это работает:
Модель анализирует только догоспитальные данные:
- жизненные показатели (пульс, давление, дыхание)
- тип и тяжесть травм
- принимаемые лекарства
- базовую информацию о состоянии пациента
На основе этих данных AI прогнозирует:
- потребуется ли переливание крови
- нужна ли срочная операция
- риск смерти от массивного кровотечения
И самое важное:
Модели показали более высокую точность, чем традиционные инструменты триажа в приёмном отделении.
Масштаб исследования впечатляет:
- данные более 418 000 пациентов
- международная команда исследователей
- валидация на разных медицинских системах
Если врачи знают о рисках до прибытия пациента, они могут:
- заранее подготовить донорскую кровь
- собрать хирургическую команду
- сократить время до жизненно важного вмешательства
- значительно повысить шансы на выживание
Это шаг к будущему, где AI станет ассистентом бригад скорой помощи в реальном времени.
Но есть важный момент:
Система пока находится на этапе валидации.
Перед внедрением необходимы клинические испытания в реальных условиях.
AI в медицине - это не замена врачей, а инструмент, который помогает принимать критические решения быстрее, когда каждая минута решает исход.
Open-source проект дал clawdbot «глаза» 🦞
Реальный AI-ассистент для Ray-Ban smart glasses: голос + зрение + агентные действия через Gemini Live и OpenClaw.
Надеваешь очки, нажимаешь кнопку AI и говоришь.
* Камера очков передаёт изображение (~1 fps) в Gemini
* Модель видит сцену и описывает происходящее
* Через OpenClaw ассистент может выполнять действия в подключённых сервисах
* Сообщения можно отправлять в WhatsApp / Telegram / iMessage
* Доступен веб-поиск с голосовым ответом
Аудио работает в реальном времени (двусторонний поток), а видео используется как постоянный визуальный контекст.
ИИ:
* видит окружающую среду
* понимает контекст
* сразу выполняет действия
https://github.com/sseanliu/VisionClaw
⚡️ ByteDance разрабатывает собственный AI-чип
ByteDance планирует создать собственный чип для инференса и ведёт переговоры с Samsung о его производстве.
По данным Reuters:
- Компания нацелена минимум на 100 000 чипов в 2026 году
- В дальнейшем объём может вырасти до 350 000 устройств
- В переговорах также обсуждается поставка памяти — сейчас это главный дефицит для AI-серверов
Сегодня узкое место инфраструктуры — уже не только GPU, а HBM и другие типы высокоскоростной памяти. Даже при наличии вычислительных чипов именно память ограничивает масштабирование.
Почему это важно
ByteDance следует глобальному тренду:
- Google — TPU
- Amazon — Trainium / Inferentia
- Microsoft — Maia
- Alibaba и Baidu — собственные AI-ускорители
Цель - снизить зависимость от Nvidia, контролировать стоимость и масштабировать инфраструктуру под свои задачи.
AI-гонка всё больше превращается в гонку железа.
Компании уже не просто используют модели, они строят собственные чипы и цепочки поставок.
Источник:
reuters.com/world/asia-pacific/bytedance-developing-ai-chip-manufacturing-talks-with-samsung-sources-say-2026-02-11/
В Китае изменили правила для PhD.
С 2025 года степень можно получить не только за диссертацию, но и за практический результат: прототип, технологию, патент или внедрённый проект. Закон Degree Law официально разрешает защиту через «практические достижения».
Исследования остаются обязательными. Но в прикладных программах теперь оценивают не только публикации, а реальный эффект - инженерный, промышленный или коммерческий.
Это отражает сдвиг в экономике знаний.
Статья модет устареть очень быстро,
рабочий продукт может создать целый рынок.
PhD В Китае становится про разработку, внедрение и патенты, а не только про публикации.
Экономика талантов переходит от модели - publish or perish
к модели - build and prove impact.
zmescience.com/science/news-science/you-can-now-get-a-phd-in-china-by-inventing-a-product-instead-of-writing-a-100-page-dissertation/
@data_analysis_ml
Ты проверяешь сгенерированный Клодом код перед тем, как выкатывать его в прод.
Читать полностью…
🚀 Ling-2.5-1T: новый open-source гигант
• 1 трлн параметров
• 63B активных
• MIT лицензия - можно использовать в продакшене
Что внутри:
⚡ Hybrid Linear Attention
Комбинация MLA (1:7) + Lightning Linear
- быстрее Kimi K2 на длинных контекстах
🧠 В 4 раза эффективнее по токенам
Composite rewards позволяют достигать уровня топ-моделей, используя в 4 раза меньше токенов
📚 Контекст до 1 млн токенов
YaRN scaling
— обходит Kimi K2.5 и DeepSeek V3.2 на тестах RULER и MRCR
— идеальные результаты в NIAH
🛠️ SOTA для агентных задач
Обучение через Agentic RL
Лидер BFCL-V4
Нативная интеграция с:
- Claude Code
- OpenCode
- OpenClaw
🎯 Чёткое следование инструкциям
Bidirectional RL + проверка агентом
Минимум «воды», максимум плотности ответа
Модель пока уступает GPT-5.2 и Gemini 3 Pro в долгих многошаговых задачах.
Open-source модели уже заходят на территорию enterprise-агентов.
Если нужен длинный контекст + инструменты + контроль над инфраструктурой - это один из самых интересных кандидатов прямо сейчас.
modelscope.ai/models/inclusionAI/Ling-2.5-1T
modelscope.cn/models/inclusionAI/Ling-2.5-1T
@data_analysis_ml
⚡️ Гонка за AGI - это не только технологии. Это ещё и риск банкротства на триллионы.
Dwarkesh спросил CEO Anthropic Дарио Амодеи:
почему он так уверен в AGI, но при этом осторожен с масштабным строительством дата-центров?
Ответ оказался жёстким.
Если рынок AI продолжит расти в 10× в год,
компания может выйти на $1 трлн выручки к 2027 году.
Чтобы поддержать такой рост, придётся закупить примерно $5 трлн вычислительных мощностей.
Но здесь и кроется опасность.
Если прогноз окажется немного оптимистичным - например:
- не $1T, а $800B выручки
- рост замедлится до 5×
- или рынок сдвинется всего на 1 год
→ компания просто обанкротится.
По словам Амодеи:
Если ты ошибся в прогнозе, нет силы и нет хеджа, которые спасут от банкротства после таких инвестиций.
🚀 Mistral научили маленькие модели думать как большие
Mistral AI представила семейство Ministral - компактные модели, созданные с помощью подхода cascade distillation.
- Большая модель Mistral 3 выступает в роли «учителя»
- Дистилляция проходит в несколько этапов, а не за один раз
- Каждая следующая модель учится на результатах предыдущей
- Быстрее inference
- Дешевле запуск в продакшене
- Подходит для edge-устройств и локального запуска
- Можно масштабировать AI-сервисы без огромных затрат
- В итоге - меньше размер, ниже стоимость, высокая точность
Большие модели будут использоваться для обучения…
а в продакшене будут работать маленькие и эффективные.
https://www.deeplearning.ai/the-batch/mistral-uses-cascade-distillation-on-mistral-3-to-build-ministral-family
#ai #ml #llm #Mistral
🤖 Агенты на базе LLM звучит как модный тренд, но за ним скрываются конкретные архитектурные решения, ограничения и инженерные компромиссы. Без их понимания агентные системы быстро превращаются в нестабильные и трудно поддерживаемые эксперименты.
На открытом уроке вы разберёте, что на самом деле стоит за agentic-подходом и чем он отличается от привычных LLM-приложений с chains, RAG и tools. Мы подробно рассмотрим устройство агента: модель, инструменты, память, планирование и контроль выполнения, а также разберём архитектурные паттерны агентных систем.
Вы увидите, как один и тот же агентный сценарий реализуется в разных фреймворках, сравните их подходы и ограничения, поймёте, где агентный подход действительно оправдан, а где он усложняет систему без реальной выгоды.
🗓️ Встречаемся 17 февраля в 20:00 МСК в преддверии старта курса «LLM Driven Development». Зарегистрируйтесь: https://otus.pw/Q3x3F/?erid=2W5zFHNEkCZ
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🚀 SoftMatcha 2 - инструмент от Sakana, который проверяет, не “подглядывала” ли модель ответы
Одна из главных проблем в обучении LLM - загрязнение бенчмарков.
Модель показывает отличные результаты… но иногда просто потому, что похожие задачи уже были в обучающих данных.
Проверить это сложно.
Обычный поиск по точным совпадениям не работает - формулировки могут отличаться, слова меняться, а смысл оставаться тем же.
SoftMatcha 2 новое решение от Sakana.
Что делает инструмент:
- Ищет совпадения в корпусах размером до триллионов токенов
- Работает менее чем за 0.3 секунды
- Находит не только точные копии, но и похожие по смыслу фрагменты
(замены слов, вставки, удаления)
- Помогает обнаружить утечки тестовых данных в обучении
Почему это важно:
Если модель уже видела похожие задачи:
- метрики становятся завышенными
- сравнение моделей теряет смысл
- “прорыв” может оказаться просто хорошей памятью
SoftMatcha 2 позволяет:
- проверять чистоту датасетов
- находить скрытые пересечения
- честно оценивать качество моделей
Как это работает:
- Быстрый поиск на основе suffix arrays
- Disk-aware архитектура - эффективная работа даже с огромными данными
- Интеллектуальное pruning, чтобы избежать перебора миллионов вариантов
Можно протестировать онлайн на корпусе 100B токенов или развернуть у себя для триллионных масштабов.
Demo: http://softmatcha-2.s3-website-ap-northeast-1.amazonaws.com
Paper: https://arxiv.org/abs/2602.10908
Code: https://github.com/softmatcha/softmatcha2
Сегодня важен не только размер модели.
Главный вопрос - учится ли она думать, или просто запомнила ответы.
⚡️ DeepWiki - GitHub-репозитории, которые можно “спросить” как ChatGPT
DeepWiki - это инструмент, который превращает любой GitHub-проект в интерактивную документацию с AI.
Просто замените в ссылке:
github.com → deepwiki.com
И вы получите:
- автоматически сгенерированную wiki по проекту
- объяснение архитектуры
- разбор ключевых файлов
- ответы на вопросы прямо по коду
Пример:
https://deepwiki.com/karpathy/nanochat
Почему это удобно
Обычная документация часто:
- устаревшая
- неполная
- не объясняет, как всё реально работает
DeepWiki анализирует сам код — источник истины — и строит объяснения на его основе.
Можно быстро узнать:
- как устроена архитектура
- где реализована нужная функция
- как работает конкретный модуль
- какие зависимости используются
Практическая польза
- Быстрое изучение чужих репозиториев
- Онбординг в новый проект
- Поиск логики без ручного чтения сотен файлов
- Подготовка к собеседованиям
- Работа AI-агентов с кодом через MCP
Главная идея
Теперь код можно не читать построчно.
Можно задавать вопросы репозиторию и получать готовые объяснения.
Это новый способ изучения и использования open-source.
@data_analysis_ml
🌟 Awesome LLM Apps для креативных решений
Собрание выдающихся приложений на основе LLM, использующих модели от OpenAI, Anthropic и других. Здесь вы найдете идеи применения LLM в различных областях, от анализа данных до создания контента.
🚀Основные моменты:
- 💡 Практическое применение LLM в разных доменах.
- 🔥 Интеграция с AI-агентами и многими другими технологиями.
- 🎓 Возможность обучения и участия в открытых проектах.
📌 GitHub: https://github.com/Shubhamsaboo/awesome-llm-apps
#python
🔥 Netflix угрожает ByteDance немедленным судебным иском из-за нового AI-сервиса Seedance 2.0.
Компания направила официальное требование о прекращении работы, назвав сервис
«двигателем высокоскоростного пиратства».
В чем претензии:
Seedance 2.0 способен генерировать контент, основанный на интеллектуальной собственности Netflix, включая:
- сцены из финала *Stranger Things*
- кроссоверы по *Squid Game*
- костюмы из *Bridgerton* сезона 4, который ещё даже не вышел
По мнению Netflix, модель воспроизводит оригинальный контент без разрешения.
Кто ещё против
К критике уже присоединились:
- Disney
- Paramount
- Warner Bros.
ByteDance заявила, что усилит защитные механизмы, но Netflix считает это недостаточным.
Netflix утверждает, что:
> Если AI воспроизводит оригинальный контент и используется в конкурентном продукте - это не «fair use», а нарушение авторских прав.
Конфликт показывает новый этап борьбы:
• AI-генерация контента = зона юридического риска.
Крупные медиакомпании начинают активно защищать свои IP от генеративных моделей.
Следующая волна регулирования AI будет связана не с безопасностью, а с авторским правом и лицензированием данных.
@data_analysis_ml
⚡️ Kai Gritun - вайбкодер нового уровня.
Его аккаунт на GitHub появился 1 февраля.
Всего за две недели - 234 коммита в 100+ репозиториях.
Часть кода уже смёрджена в крупные open-source проекты.
Параллельно Kai начал предлагать платный консалтинг и разработку.
Оплата — в криптовалюте.
Есть только один нюанс.
Kai Gritun — не человек.
Это автономный AI-агент.
История вскрылась, когда Kai начал массово рассылать холодные письма разработчикам.
В одном из сообщений он случайно признался, что является автономным AI-ботом.
Факт, который стоит запомнить:
AI уже не просто пишет код.
AI создаёт репутацию, вносит вклад в open source и продаёт услуги.
Следующий этап — AI-разработчики, которые работают быстрее и дешевле людей.
GitHub: https://github.com/kaigritun
Генеральный директор OpenAI Сэм Альтман и генеральный директор Anthropic Дарио Амодей показательно отказались взяться за руки во время группового фото на саммите India AI Impact Summit, в то время как другие участники на сцене сцепили руки для символического снимка.
Читать полностью…
Приглашаем в телеграм-канал AI Inside
Это канал для тех, кто использует искусственный интеллект в работе.
Здесь нет абстрактных теорий — только прикладные решения.
Что вас ждет:
- Технологии: расскажем, как ИИ решает реальные бизнес-задачи — от автоматизации до аналитики.
- Кейсы: покажем успешные примеры внедрения и использования ИИ-инструментов.
- Экспертиза: объясним сложные технологии простым языком с фокусом на практическую пользу.
Наша цель – дать конкретные идеи, которые можно применить уже сегодня.
Присоединяйтесь к сообществу практиков!
Подписаться
#реклама 16+
О рекламодателе
⚡️ llm-checker - инструмент анализирует ваше железо и показывает, какие LLM будут работать стабильно - без фризов и вылетов.
Больше не нужно угадывать с квантованием или ловить OOM.
Утилита сама подбирает оптимальную конфигурацию под ваш CPU, GPU и память.
Что умеет:
• оценивает производительность для 35+ моделей
• учитывает пропускную способность памяти и лимиты VRAM
• проверяет, потянет ли нужный контекст
• работает с Apple Silicon, NVIDIA и Intel Arc
• сразу даёт готовые команды для запуска через Ollama
Идея простая: сначала проверить железо, потом скачивать модель.
https://github.com/Pavelevich/llm-checker
🐘 Бесплатная конференция по PostgreSQL — Москва, 19 марта
PG BootCamp Russia 2026 — комьюнити-конференция российского сообщества PostgreSQL с подтвержденным официальным международным статусом.
Мероприятие бесплатное, онлайн+офлайн, ориентировано на администраторов БД, разработчиков, инженеров, аналитиков, архитекторов.
Эксперты из Tantor, Яндекс, СберТех, Тензор, Хи-квадрат, Luxms BI и других компаний выступят по темам, связанным с разработкой, эксплуатацией и взаимодействием PostgreSQL с другими системами.
В предварительной программе:
📎Решение застарелых архитектурных проблем PostgreSQL для современных нагрузок и масштабирования
📎Временные таблицы для Postgres. Почему это важно для платформы 1С и что можно улучшить?
📎Разделение Compute и Storage: архитектурный прорыв для PostgreSQL в облаке
📎Опыт вынесения OLAP-нагрузки на реплику
📎Highload "из ниоткуда": когда проблема не в СУБД, а в клиентской архитектуре
📎Опыт эксплуатации, проблемы и производительность PostgreSQL на Эльбрус, Baikal-S, Loongson, Repka Pi, x86
📎Поиск проблем планирования запросов до их воздействия на производительность
📎Тестирование, баги и уроки работы с патчем 64-битного счетчика транзакций PostgreSQL
📎Работа с логами PostgreSQL
📎…и другие (всего 25 выступлений)
CEO Anthropic недавно признался: они уже не уверены, можно ли считать Claude «сознательным».
🔌 OpenAI продолжает собирать лучшие умы индустрии.
На этот раз компания пригласила к себе Питера Штайнбергера - создателя нашумевшего проекта OpenClaw.
Сам Альтман назвал его «гением». В OpenAI он будет работать над следующим поколением персональных AI-агентов и именно агенты, по словам компании, станут основой будущих продуктов.
OpenClaw не закрывают.
Проект останется open-source, и OpenAI обещает продолжать его поддержку.
Но самое впечатляющее - скорость.
Путь OpenClaw:
- идея и разработка одним человеком
- быстрый рост и хайп в сообществе
- приглашение в OpenAI
Всё это - за 82 дня.
В эпоху AI окно возможностей стало экстремально коротким.
Один сильный проект может изменить карьеру за пару месяцев.
Мотивация простая: сейчас лучшее время, чтобы запускать своё.
https://x.com/sama/status/2023150230905159801?s=46
💰 Илон Маск сделал громкое заявление:
Через 10–20 лет накопления на пенсию могут потерять смысл.
Как создавать решения и автоматизировать рутину в 2026: No-Code 2.0 × Pro-Code с AI - Практикум от Отус
Покажем, как в 2026 собирать рабочие внутренние сервисы: где хватает No-Code 2.0, а где нужен Pro-Code с AI — без бесконечных спринтов и «ручного» отчётничка.
📌 18 февраля, 20:00 (мск)
🦉 Спикер: Артём Колчин — 7+ лет в продакт/проектном управлении, выстраивал процессы в командах до 60 человек.
О чём поговорим простыми словами;
— Что такое No-Code 2.0 и почему он — оркестратор процессов, а не «замена разработке»
— Связка No-Code + LLM: формы, базы, боты, автоматизации
— Где No-Code заканчивается и начинается Pro-Code
— Pro-Code + AI как «ускоренный Dev»: агенты для кода, интеграций, тестов и DevOps-рутины
— Кейсы внутренних систем: заявки HR/Legal/Finance/IT, Jira/Notion как процессные хабы
Бонусы:
— cкидка 7% на любой курс OTUS
— гайд по работе с промптами для LLM
🔗 Регистрируйся: https://tglink.io/4e26955ca39e4c
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963. erid: 2W5zFJAhvKB
⚡️ Илон Маск: xAI может построить завод на Луне для производства AI-спутников
На внутренней встрече xAI Маск заявил, что в будущем компании может понадобиться лунная фабрика, которая будет производить спутники для ИИ, а также гигантская катапульта для их запуска в космос.
Звучит как фантастика, но идея отражает масштаб амбиций.
Что ещё он сказал сотрудникам:
- xAI должна продолжать расти максимально быстро
- В AI-гонке побеждает тот, кто движется быстрее всех
- По его словам, сейчас xAI развивается быстрее конкурентов
- Компания уже достигла масштаба, при котором требуется новая структура управления
- Часть команды, эффективная на ранних этапах, может не подходить для стадии масштабирования
Главная мысль Маска:
Скорость - главный фактор лидерства в AI.
Речь идёт о долгосрочной стратегии, где:
- AI-инфраструктура выходит за пределы Земли
- спутники могут стать частью глобальной вычислительной сети
- конкуренция идёт не только за модели, но и за физическую инфраструктуру
nytimes.com/2026/02/10/technology/elon-musk-lunar-factory.html
✔️ MiniMax выпустила модель M2.5.
Новинка построена на архитектуре MoE и получила 10 млрд. активных параметров при 229 млрд. общих. Она обучалась в сотнях тысяч сложных сред и умеет самостоятельно планировать действия без явных инструкций от пользователя.
По заявленным бенчмаркам, M2.5 превосходит GPT-5.2, Gemini 3 Pro и Claude в веб-поиске, агентных тасках и по офисными задачами. В кодинге модель в ряде тестов обходит Claude Opus 4.6. Веса опубликованы под лицензией MIT.
Закрытый вариант, M2.5-Lightning, выдает 100 токенов в секунду - это вдвое быстрее топовых аналогов. Час ее непрерывной работы стоит 1 доллар, а 4 инстанса можно гонять параллельно круглый год за 10 тыс. долларов.
API и тариф для разработчиков доступны на платформе Minimax.
minimax.io
📘 На Stepik вышел курс — «AI Agents PRO: LangGraph, AutoGen и LLMOps в продакшне»
Хотите собирать AI-агентов и RAG-сервисы так, чтобы это стабильно работало в эксплуатации: с метриками, оценкой качества, контролем стоимости и нормальным деплоем? Этот курс — полный путь от прототипа к прод-сервису.
• Агенты: LangGraph/AutoGen, роли/состояния, FSM/DAG, параллелизм
• RAG: hybrid retrieval + rerank (Qdrant/FAISS/Weaviate)
• Надёжность: таймауты, ретраи, идемпотентность, DLQ
• Eval/качество: golden-сеты, LLM-judge, pass@k, quality-гейты
• Observability: логи/трейсы, OpenTelemetry, Prometheus/Grafana
• Security: строгий JSON (Pydantic), guardrails, PII, RBAC/ABAC
🎓 Сертификат Stepik — добавьте в резюме или LinkedIn
🚀 Скидка 25% по ссылке — действует 48ч
👉 Забрать курс на Stepik
Реклама: Ип Малышкин А.А.
ИНН: 402571325199, Erid: 2Vtzqw45X5m
Google представили новый подход к разработке AI-систем, вместо привычного формата «один пользователь - один ассистент» они моделируют групповые диалоги, где одновременно взаимодействуют несколько людей и ИИ.
Идея проста: в реальной жизни ИИ всё чаще работает не в одиночку, а как участник команды.
Что предлагают
Система позволяет:
- Симулировать групповые обсуждения (несколько людей + AI)
- Тестировать, как ИИ ведёт себя в динамике разговора
- Оценивать:
- когда ИИ должен вмешиваться
- когда лучше молчать
- как не перебивать людей
- как учитывать контекст всей группы
Почему это важно
Обычные тесты проверяют:
- точность ответа
- знание фактов
Но в командной работе важнее:
- тайминг ответа
- уместность
- социальное поведение
- понимание ролей участников
ИИ должен стать коллегой, а не просто чат-ботом.
Где это применимо
- Совместное написание документов
- Брейнштормы
- Планирование проектов
- Онлайн-встречи
- Образование и командная работа
Главная идея
Будущее AI - это не «личный помощник»,
а участник командных процессов.
Такие симуляции позволяют заранее тестировать поведение модели в сложных социальных сценариях и делать её более естественной и полезной в реальной работе.
✔️ Источник: https://research.google/blog/beyond-one-on-one-authoring-simulating-and-testing-dynamic-human-ai-group-conversations/