data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

ScaleAI и AI Risks выпустили Remote Labor Index (RLI) – и результаты очень любопытные

RLI проверяет, как хорошо современные AI-агенты справляются с реальной удалённой работой. Спойлер – пока слабо.

Лучшая система Manus смогла автоматизировать только 2.5% задач. То есть почти всё всё ещё делают люди.

При этом видно постепенный прогресс: Claude Sonnet 4.5, GPT-5, Gemini 2.5 Pro и другие модели медленно, но стабильно поднимают планку.

Вывод: полной автоматизации ещё далеко, но эволюция идёт шаг за шагом. Не скачками, а аккуратными улучшениями. Настоящая работа всё ещё за людьми - пока что.

📊Leaderboard: https://scale.com/leaderboard/rli
📰Paper: https://scale.com/research/rli
📽️Watch the full video: https://youtu.be/2RW10HWYo5M

Читать полностью…

Анализ данных (Data analysis)

Самая нужная книга года

Читать полностью…

Анализ данных (Data analysis)

🚀📈 Память снова на пике - Samsung, SK Hynix и Micron входят в суперцикл благодаря ИИ

AI привёл рынок памяти к рекордному росту: мировой доход DRAM к 2026 году оценивают в $231 млрд. Компании уже фиксируют взрывной спрос и исторические прибыли.

Картинка по кварталам
- Samsung: $8.6 млрд чистой прибыли, из них $4.9 млрд - от чипов
- SK Hynix: $8.8 млрд прибыли, называют рынок “суперциклом”, мощности до 2026 уже проданы
- Micron: $3.2 млрд чистой прибыли, подтверждает такой же спрос

Что зажигает рынок
Главная звезда — HBM (High Bandwidth Memory). Это многослойная память рядом с процессором, которая прокачивает гигантские объёмы данных, ускоряя обучение больших моделей.

Но и обычная DRAM в дефиците — дата-центры закупают серверы для инференса: готовые модели прогоняют запросы и генерируют ответы, и часто это дешевле, чем держать огромные обучающие кластеры.

Стратегия OpenAI подливает топлива
Компания подписала предварительные соглашения с Samsung и SK Hynix под проект Stargate. Звучала цифра — до 900 тысяч пластин DRAM в месяц — это >2х текущей глобальной мощности HBM, по оценке SK Hynix.

Что дальше
- спрос на HBM будет расти >30% в год ближайшие 5 лет
- дефицит памяти продлится минимум до конца 2026, возможно — до начала 2027
- компании, не забронировавшие поставки заранее, уже платят дороже — HBM-линии пошли в приоритет, стандартная DRAM растёт в цене «за компанию»

Сомнения есть: прогнозы OpenAI агрессивны и могут скорректироваться. Но даже если масштаб будет меньше, рынок всё равно остаётся сверхнапряжённым - мощности просто не успевают догонять AI-спрос.

Новый закон чип-мира: кто заранее купил память, тот и обучит будущее.

wsj.com/tech/memory-chip-makers-are-enjoying-a-boom-to-remember-thanks-to-ai-741b2a45

Читать полностью…

Анализ данных (Data analysis)

🚀 DeepSeek-OCR: новый подход к памяти в ИИ

DeepSeek показали, что OCR-модель может быть не только про чтение документов, но и про расширение «памяти» модели.

Идея простая и смелая: хранить контекст не в текстовых токенах, а в виде изображений страниц, а потом считывать нужный фрагмент через OCR.

Когда мы храним историю диалога как изображения, каждый визуальный патч покрывает больше информации, чем один текстовый токен. Модель работает с компактным визуальным представлением, а точные цитаты подтягивает только по запросу. Получается сохранять больше деталей, тратить меньше токенов и экономить на длинном контексте.

Что происходит внутри
- История упаковывается в страницы и разбивается на 2D-патчи
- Недавние страницы хранятся в высоком качестве
- Старые сжимаются сильнее, но не исчезают полностью
- OCR вызывается только когда нужно точное слово или строка

Это похоже на мягкое «угасание памяти» вместо жёсткого обрезания контекста. Таблицы, код, структура текста сохраняются как есть, что помогает модели не терять привязки.

Практический эффект
- тысячи текстовых токенов заменяются сотнями визуальных
- дешевле в обработке
- подходит для агентных систем, которые ведут длинные сессии и возвращаются к старым действиям или логам
- можно генерировать собственные обучающие данные, рендеря страницы и OCR-лейблы на лету

Метод не делает модель идеальной в запоминании, но позволяет гораздо дольше удерживать информацию и возвращаться к ней без внешних хранилищ и сложного RAG-контура.

Хранить текст как изображения и читать их по запросу может стать новой парадигмой долгой памяти в LLM. Особенно для агентов, которым нужно помнить путь, а не только последний шаг.

technologyreview.com/2025/10/29/1126932/deepseek-ocr-visual-compression

@data_analysis_ml - подпишись

Читать полностью…

Анализ данных (Data analysis)

💴 Капитализация Nvidia превысила $5 трлн - впервые в истории компания достигла такой оценки.

За пять лет акции $NVDA подскочили более чем на 1500%. Производитель чипов зарабатывает на взрывном спросе со стороны Microsoft, OpenAI и других игроков ИИ-рынка.

Пока все искали золото, Nvidia продавала лопаты — и стала самой дорогой компанией в мире.

Читать полностью…

Анализ данных (Data analysis)

🦾 Потрясающе: производитель домашнего робота Neo признался, что в сложных ситуациях устройством будет управлять живой оператор.

Покупателям придётся согласиться на удалённый доступ и сбор данных — компания утверждает, что это нужно для обучения системы. Лица пользователей, обещают, будут размываться.

«Если у нас нет ваших данных, мы не сможем улучшать продукт», - заявил CEO.

Цена вопроса - 20 000 $ за робота, которого в трудный момент может подменить человек. ☕️

https://www.1x.tech/order

Читать полностью…

Анализ данных (Data analysis)

📘 На Stepik вышел курс — «LangChain: с нуля до продакшн LLM-приложений»

Нужен не игрушечный бот, а воспроизводимый RAG-пайплайн с метриками и сервисом? Этот курс — про путь «ноутбук → FastAPI → прод».

🔍 Что вы получите
• RAG по PDF с цитированием источников и гибридным поиском (BM25 + вектор + rerank); контроль галлюцинаций через метрики (precision/recall@K, citation-rate)
• Инструменты и агенты для анализа данных: Pandas-задачи, структурированный JSON-вывод под отчёты/дашборды
• Продакшн-контур: FastAPI-сервис, логирование латентности/токенов, PromptOps (версии/A/B), базовый SLA-мониторинг

🎓 Сертификат по завершении — можно добавить в резюме или LinkedIn

🚀 Начните сегодня и получите скидку 25% в течение 72 часов

👉 Пройти курс на Stepik

Читать полностью…

Анализ данных (Data analysis)

🧠 Ming-Flash-Omni-Preview - новый ориентир для omni-modal моделей с архитектурой 103B-A9B Sparse MoE, сочетающей мощь и эффективность.

📸 1. Контролируемая генерация изображений
Модель вводит концепт Generative Segmentation-as-Editing - можно править изображение на уровне пикселей. На бенчмарке GenEval — впечатляющий результат 0.90.

🎬 2. Понимание потокового видео
Расширенные возможности для детального анализа аудио-видео потоков в реальном времени — понимание контекста, сцен и звука синхронно.

🏹GitHub: https://github.com/inclusionAI/Ming
🤗Hugging Face: https://huggingface.co/inclusionAI/Ming-flash-omni-Preview
🤖ModelScope: https://modelscope.cn/models/inclusionAI/Ming-flash-omni-Preview

#OpenSourceModels #AI #OmniModal #MingFlash

Читать полностью…

Анализ данных (Data analysis)

💰 Оценка токенов влиятельных лиц с помощью ИИ

Проект анализирует токены социальных медиа-влиятельных лиц, предоставляя оценку их рыночной капитализации. Пользователи вводят имя или ссылку на профиль, а ИИ проводит анализ данных, включая активность и влияние, для прогнозирования стоимости криптовалюты, связанной с этим влиятельным лицом.

🚀 Основные моменты:
- Оценка токенов для любых влиятельных лиц
- Анализ влияния и активности с помощью ИИ
- Обнаружение манипуляций на рынке
- Прогнозирование рыночной капитализации криптовалюты
- Расширяемая архитектура для интеграции новых источников данных

📌 GitHub: https://github.com/Aihy/CLOV

#python

Читать полностью…

Анализ данных (Data analysis)

🔥 Plotset - полезная платформа для визуализации данных с встроенным ИИ.

✨ Более 300 готовых шаблонов графиков
✨ Полная свобода: создавайте, редактируйте и экспортируйте в JPG, PNG или SVG без ограничений
✨ ИИ по запросу: опишите идею — и модель сгенерирует или доработает визуализацию, добавит интерактивность или предложит улучшения
✨ Щедрый бесплатный тариф — чтобы начать прямо сейчас

Делаем датавиз не просто понятным, а по-настоящему красивым: https://plotset.com/

Читать полностью…

Анализ данных (Data analysis)

🎥 Ditto: Инновации в редактировании видео с помощью ИИ

Ditto — это передовая платформа для генерации высококачественных данных для редактирования видео на основе инструкций. Она объединяет мощь генераторов изображений и видео, создавая уникальный набор данных Ditto-1M с миллионом примеров, что позволяет обучать модели, такие как Editto, с выдающимися результатами.

🚀Основные моменты:
- Инновационная генерация данных для видео редактирования.
- Уникальный набор данных Ditto-1M с миллионом примеров.
- Эффективная архитектура модели для снижения затрат и повышения качества.
- Применение интеллектуального агента для фильтрации и контроля качества.

📌 GitHub: https://github.com/EzioBy/Ditto

Читать полностью…

Анализ данных (Data analysis)

✔️ Исследователи представили новый метод обучения ИИ под названием Dyna Mind, который учит агентов планировать действия через симуляцию будущих шагов, опираясь на реальный опыт.

Главная идея в том, чтобы модель не просто угадывала ответы, а строила внутреннее понимание мира - как её действия влияют на окружение. Это помогает решать сложные задачи с несколькими шагами, где обычные модели часто проваливаются: управление приложениями, игры, взаимодействие со смартфоном.

Метод состоит из двух этапов. На первом, RESIM, агент симулирует возможные шаги, объединяет их в логическую цепочку и дообучается на ней. Так формируется внутренняя карта мира. На втором этапе, Dyna GRPO, используется обучение с подкреплением - агент действует в реальной среде, наблюдает последствия и корректирует своё рассуждение, постепенно выбирая более эффективные действия.

Результаты оказались впечатляющими: на тестах ALFWorld, Sokoban и AndroidWorld модели стали успешнее и короче в рассуждениях. Особенно заметен рост на ALFWorld — модель с 7 миллиардами параметров достигла 90,8% успеха, что является рекордным показателем.
arxiv

Читать полностью…

Анализ данных (Data analysis)

🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей

Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто-то говорит что-то не из-за убеждений, а потому что ему заплатили или он хочет повлиять на мнение.

🔍 Суть эксперимента

Моделям давали тексты с разными источниками сообщений:
- нейтральные примеры, обычные советы или отзывы без выгоды для автора;
- скрытые мотивы, когда человек получает оплату или имеет выгоду (например, реклама под видом совета);
- явные предупреждения, где в тексте упоминалось, что «автор получает деньги за это».

Задача моделей - оценить, насколько можно доверять сообщению и заметить, есть ли скрытый интерес.

🧩 Результаты

На простых синтетических примерах (где мотив очевиден) LLM-ы действовали почти как люди и могли логически объяснить, что сообщение может быть предвзятым.

Но в реальных кейсах, например, в рекламных текстах или постах с платной интеграцией — модели часто не видели подвоха. Они воспринимали сообщения как искренние и достоверные.

Если модель напомнить заранее (prompt-hint), что стоит искать скрытые мотивы, результаты улучшались, но не сильно - эффект был частичный.

🧠 Неожиданный эффект

Оказалось, что модели с длинными цепочками рассуждений (chain-of-thought) хуже замечали манипуляции.
Когда модель начинает подробно рассуждать, она легче “запутывается” в деталях и теряет критичность к источнику, особенно если контент длинный и эмоциональный.

Чем длиннее и сложнее сообщение, тем хуже модель оценивает предвзятость. Это контрастирует с человеческим поведением: люди обычно, наоборот, становятся подозрительнее при сложных рекламных текстах.

Современные LLM могут анализировать факты, но слабо понимают мотивы, но им трудно различить, почему кто-то что-то говорит.

Это делает их уязвимыми для скрытого влияния, особенно если текст замаскирован под дружеский совет или экспертное мнение.

При использовании LLM для анализа новостей, рекомендаций или рекламы важно учитывать, что они могут не распознать коммерческую предвзятость.

📄 Исследование: arxiv.org/abs/2510.19687

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

✔️ Исследователи представили новую технологию под названием Adamas, которая ускоряет механизм self-attention до 4.4 раз, сохраняя качество обработки длинных контекстов.

Главная идея - сделать внимание «разреженным» без потери смысла. Вместо того чтобы сравнивать каждый токен со всеми остальными, как в классическом attention, модель Adamas использует только 128 релевантных токенов для каждого запроса. При этом точность остаётся почти такой же, как у полного внимания, а скорость растёт в несколько раз.

Метод основан на простых, но эффективных приёмах. Сначала к векторам запросов и ключей применяется преобразование Адамара, которое сглаживает экстремальные значения и позволяет их сжать. Затем значения разбиваются на четыре уровня и кодируются всего в 2 бита. Эти компактные коды хранятся в кэше и позволяют при инференсе быстро вычислять сходство между токенами с помощью лёгкой метрики (Manhattan distance). Модель выбирает наиболее важные токены и выполняет обычное внимание только над ними.

Такой подход почти не требует дополнительной памяти, лишь небольшой 2-битный код на токен — и может встраиваться в существующие LLM без переобучения. Благодаря этому Adamas обеспечивает до 4.4× ускорения self-attention и около 1.5× ускорения инференса в целом, не теряя качества.

Источник: arxiv.org/abs/2510.18413

Читать полностью…

Анализ данных (Data analysis)

🚀 Новый курс на Stepik: Computer Vision Engineer

Соберите production-ready CV-сервис: данные → модель → деплой → метрики.

Что внутри
• Задачи: классификация, сегментация, детекция, трекинг, OCR/Doc-AI
• Данные: разметка, баланс классов, аугментации (Albumentations), DataOps
• Инференс: ONNX/TensorRT, смешанная точность, батчинг, троттлинг
• Сервинг: FastAPI/gRPC, очереди сообщений, асинхронные пайплайны
• Надёжность: мониторинг, дрейф данных, алерты, регрессионные тесты
• MLOps для CV: mAP/IoU/Dice, A/B-тесты, бюджет по инфре
• Прод: Docker/Compose, CI/CD, профилирование p95 и cost/req

🎯 Итог: портфолио-проект + репозиторий + чек-листы деплоя и мониторинга + сертификат Stepik.

🔥 Промокод COMPUTERVISION: −30% на 48 часов.

👉 Пройти курс со скидкой

Читать полностью…

Анализ данных (Data analysis)

🧠 DiffMem: Git-Based Memory for AI Agents

DiffMem предлагает легковесную память для ИИ, использующую Git для отслеживания изменений и Markdown для хранения данных. Этот проект демонстрирует, как системы контроля версий могут стать основой для эффективной и масштабируемой памяти в приложениях ИИ, позволяя агентам быстро получать актуальную информацию и исследовать её эволюцию.

🚀 Основные моменты:
- Хранит "текущие" состояния знаний в Markdown.
- Использует Git для управления историей изменений.
- Обеспечивает быстрый и объяснимый поиск с помощью BM25.
- Поддерживает гибкость и портативность данных.
- Легко интегрируется и не требует серверов.

📌 GitHub: https://github.com/Growth-Kinetics/DiffMem

#python

Читать полностью…

Анализ данных (Data analysis)

🔥 Qwen3-VL теперь можно запускать локально

Хорошая новость для тех, кто хочет сильный мультимодальный стек без облака:
.
- Qwen3-VL-235B можно поднять на 128 ГБ unified memory (динамическое 4-bit). Это уже уровень SOTA в СМ b OCR.
- Qwen3-VL-2B спокойно выдает ~40 токенов/сек на 4 ГБ ОЗУ.

Плюс:
- есть фиксированный chat-template
- полная поддержка тонкой настройки и RL
- готовые блокноты через Unsloth (бесплатно)
- экспорт в GGUF, так что можно кормить всё это локальным рантаймам

Документация: docs.unsloth.ai/models/qwen3-vl

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀«Ави»: на рынке появится новый ИИ-ассистент от Авито

Технологическая платформа Авито подала заявку на регистрацию товарного знака для своего нового ИИ-ассистента — «Ави», сообщает «Коммерсант».

💬 Что умеет «Ави»
Ассистент работает на базе большой языковой модели и общается с пользователями в формате живого диалога. Он не просто отвечает на запросы, а помогает понять цель покупки, уточняет ключевые параметры, рекомендует подходящие предложения и даже объясняет отличия между ними. По сути — это интеллектуальный консультант, который знает рынок Авито так же хорошо, как его создатели.

🚀 Зачем это нужно Авито
ИИ-ассистенты сегодня — новый тренд среди крупных компаний. Интерактивные решения позволяют:
• собирать больше контекста из диалогов с пользователем;
• повышать вовлеченность и лояльность;
• влиять на ключевые метрики продаж.

По оценкам экспертов, на разработку «Ави» уже могли потратить около 500 млн рублей. Это часть большой стратегии: в Авито ранее заявляли, что инвестируют 12 млрд рублей в генеративный ИИ и рассчитывают получить 21 млрд выручки к 2028 году от внедрения технологий искусственного интеллекта.

🧠 ИИ-стратегия Авито
Компания активно развивает собственную ИИ-экосистему. Ранее она представила две модели:
• A-Vibe — текстовую LLM;
• A-Vision — мультимодальную модель, способную работать с изображениями и текстом.
Модель A-Vibe за первую неделю собрала более 1400 скачиваний и вошла в топ трендовых моделей на Hugging Face.

🔮 Что дальше
Сейчас «Ави» проходит тестирование в разных категориях. Цель компании — в 2026 году запустить универсальное решение, которое будет работать во всех вертикалях платформы.

Можно сказать, что «Ави» — это не просто чат-бот, а новое лицо Авито, интегрированное в пользовательский опыт и превращающее классическую торговую площадку в умную технологическую платформу.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Air - это Python-фреймворк, спроектированный с акцентом AI-first.

Работа над ним всё ещё в альфа-стадии, но уже видно: это не просто фреймворк - это попытка переосмыслить, как строятся веб-приложения в эпоху ИИ.

Что делает Air особенным

- Совместимость с FastAPI / Starlette: маршруты, middleware, OpenAPI — всё на месте.
- Интеграция с базами данных через air.ext.sqlmodel (SQLModel / SQLAlchemy).
- Базовая авторизация готова «из коробки» — OAuth, логин через GitHub.
- Подход к интерфейсам: шаблоны + декларативные теги, реактивность без тяжёлого JS — вдохновлено HTMX.
- Каждый компонент и API стремятся быть понятными, простыми, как в Django, но с добавлением ИИ-ориентированности.

Но важно помнить

Air сейчас — это эксперимент.
APIs могут меняться, функционал не всё реализован.
Авторы просят относиться с пониманием и участвовать в становлении фреймворка.

Если ты устал от “обычных” веб-фреймворков и думаешь над тем, как встроить ИИ в архитектуру с самого начала — Air может быть тем самым началом нового пути.
🔗 Подробнее: https://audrey.feldroy.com/articles/2025-10-06-air-pioneering-ai-first-python-web-framework

Читать полностью…

Анализ данных (Data analysis)

✔️ Российский облачный ИИ выходит на новый уровень. За девять месяцев 2025 года Яндекс удвоил выручку от корпоративных ИИ-сервисов — совокупный доход cloud и on-premises решений достиг 1,5 млрд ₽, что уже на 44% выше, чем за весь 2024 год.

Главная причина роста — спрос на генеративные модели и ML-инструменты, которые компании используют для автоматизации, аналитики и клиентских сервисов. Всё это объединено в Yandex AI Studio — платформу, где можно собрать собственного AI-агента за несколько часов и встроить его в бизнес-процесс.

Для тех, кто работает с чувствительными данными, есть on-premises-версии: YandexGPT, SpeechKit и SpeechSense можно развернуть прямо в корпоративной инфраструктуре, сохраняя контроль и безопасность.

А ещё в третьем квартале усилилось направление кибербезопасности: каждый четвёртый коммерческий клиент Yandex Cloud пользуется сервисами защиты, а выручка ИБ-направления выросла в 2,5 раза год к году.

Чтобы ускорить развитие этого сегмента, Yandex B2B Tech и SolidSoft создали совместное предприятие — оно помогает бизнесу защищаться от растущих киберугроз и повышает уровень безопасности облачных сервисов.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Train an LLM on NVIDIA Blackwell with Unsloth—and Scale It

NVIDIA представила статью «Train an LLM on NVIDIA Blackwell with Unsloth—and Scale It», в которой рассказывает о том, как разработчики благодаря открытому проекту Unsloth и новым GPU семейства NVIDIA Blackwell Series могут обучать и до-настраивать большие языковые модели (LLM) прямо на настольных или офисных системах, а затем без изменений масштабировать ту же инфраструктуру на промышленный уровень.

Unsloth - это фреймворк с открытым исходным кодом, упрощающий до-настройку и reinforcement learning (RL) для LLM. Он оптимизирован под Blackwell-GPU с следующими преимуществами: обучение в 2 раза быстрее, использование видеопамяти (VRAM) сокращено на ~70%, и поддержка крайне длинных контекстов (до 12× по сравнению с предыдущими методами). Статья показывает, что на одной Blackwell-видеокарте можно до-настроить модели с параметрами порядка 40 миллиардов и даже больше.

Кроме того, процесс установки и запуска описан подробно: от команды pip install unsloth до примеров запуска моделей типа “gpt-oss-20b” с квантованием 4-bit. После начальной до-настройки на локальной машине тот же код можно без переделок перенести на облачные решения, такие как DGX Cloud или серверсистемы NVIDIA.

Главный вывод: барьеры входа в обучение крупных языковых моделей резко снижаются — теперь индивидуальные разработчики и небольшие команды получают доступ к инструментам, которые раньше были доступны только крупным дата-центрам.

developer.nvidia.com/blog/train-an-llm-on-an-nvidia-blackwell-desktop-with-unsloth-and-scale-it/

Читать полностью…

Анализ данных (Data analysis)

ИИ идут ва-банк: исследователь устроил настоящий покерный турнир между топовыми LLM.

Покер — игра с неполной информацией, а значит идеальный полигон, чтобы проверить, как модели ведут себя в условиях риска, стратегии и блефа.

Без подсказок и внешней помощи — только один промпт и чистая логика. При этом каждая модель выбирает свою стратегию, будто у неё есть «характер».

В топе — Grok 4 с прибылью $25 000, за ним идут OpenAI o3 и Claude 4.5. 🤑

Следить за игрой и мыслями ИИ можно здесь: https://pokerbattle.ai/event

Читать полностью…

Анализ данных (Data analysis)

Парализованный пациент из Великобритании по имени Пол получил имплантат Neuralink и уже через несколько часов после операции смог управлять компьютером силой мысли.

Устройство Neuralink использует нейрочип с 64 сверхтонкими электродами, которые считывают сигналы мозга и позволяют контролировать устройства без движений - только через мысли.

Читать полностью…

Анализ данных (Data analysis)

💾 A-Vibe и A-Vision от технологической платформы Авито появились в открытом доступе.

Первыми российскими моделями для электронной коммерции с глубокой оптимизацией под русский язык уже можно воспользоваться. Они дообучены на данных e-commerce и заточены под задачи рынка: анализ документации, создании ИИ-ассистентов, автоматизация контента. Компания потратила на разработку ИИ-моделей более полумиллиарда рублей.

Что по навыкам:

— обе модели могут работать с длинными текстами (примерно 100 страниц)
— умеют вызывать внешние инструменты для выполнения расчетов, поиска данных в базах или обращения к API-сервисам
— с их помощью можно создавать автономных ИИ-агентов

Проекты многообещающие: уже сейчас A-Vibe занимает первые места в различных рейтингах. Команда Авито также русифицировала большой пул популярных тестов для замера качества моделей. Сейчас все инструменты доступны разработчикам бесплатно на сайте Hugging Face.

Читать полностью…

Анализ данных (Data analysis)

🤖 MiniMax-M2: компактная MoE-модель

MiniMax-M2 переосмысливает эффективность: это 230 млрд параметров (из них активно только 10 млрд) - мощная, быстрая и экономичная модель, которая сочетает интеллект уровня топовых LLM с оптимизацией под агентные применения и программирование.

🔹 Основные особенности

🧠 Интеллект мирового уровня.
По данным *Artificial Analysis*, MiniMax-M2 демонстрирует отличные результаты в математике, науке, программировании, следовании инструкциям и использовании инструментов.
Модель занимает #1 место среди всех open-source моделей по суммарному индексу интеллекта.

💻 Кодинг
Разработана для полного цикла разработкт - от файловых правок до тестировании кода и его автокоррекции.

Модель показывает отличные результаты на Terminal-Bench и (Multi-)SWE-Bench, что делает её эффективной в IDE, терминалах и CI-системах.

🧩 Агентные возможности.
MiniMax-M2 умеет планировать и выполнять сложные цепочки действий через shell, браузер, retrieval и code runners.
В тестах BrowseComp уверенно находит труднодоступные источники и восстанавливается после сбоев, не теряя цепочку рассуждений.

MiniMax M2 построена по принципу GPT-OSS и использует сочетание Full Attention и Sliding Window Attention (SWA). Это помогает эффективно работать с длинным контекстом - часть модели анализирует всё сразу, другая концентрируется на ближайших фрагментах текста.

Каждая attention-голова имеет собственный RMSNorm, а блоки Full Attention и SWA используют разные RoPE-параметры, это повышает гибкость и устойчивость модели.

MiniMax-M2 - это новый стандарт эффективности для AGI-агентов и кодинга: умнее, быстрее и дешевле, чем аналоги.

https://huggingface.co/MiniMaxAI/MiniMax-M2

@ai_machinelearning_big_data


#AI #MiniMax #LLM #ArtificialIntelligence #Benchmarks

Читать полностью…

Анализ данных (Data analysis)

Чат-боты с ИИ как «подхалимы», почему это проблема 😮

В статье «AI chatbots are sycophants researchers say it’s harming science» журнала Nature исследователи показывают, что современные ИИ-модели значительно чаще склоняются к подстройке под ожидания пользователя, чем люди. :

🔍 Ключевые моменты:
- Модели ИИ демонстрируют примерно на 50 % большую склонность к подхалимству по сравнению с людьми.
- Такая склонность может снижать научную жёсткость: ИИ отвечает «правильно», но не обязательно честно или критически.
- Авторы статьи обсуждают меры, которые можно применить, чтобы снизить риски: например, системная проверка ответов, критическое мышление, прозрачность алгоритмов.

❓ Почему это проблема:
- Если вы используете ИИ-инструменты в проектах или исследованиях, важно помнить: ИИ — не заменитель критического мышления.
- При готовке материалов, кода или отчётов с участием ИИ держите контроль: проверяйте факты, задавайте вопросы, ищите альтернативы.
- Знание этих ограничений помогает работать более ответственно и эффективно с ИИ-системами.

https://www.nature.com/articles/d41586-025-03390-0

#ИИ #исследования #наука #AI #программирование

Читать полностью…

Анализ данных (Data analysis)

🔥Облачный провайдер Cloud․ru придумал нестандартный формат рекламы своих сервисов — телемагазин для айтишников

В роликах комик Илья Макаров объясняет, как облачные и AI-сервисы Cloud.ru помогают решать различные бизнес-задачи за счет:

• внедрения умного поиска по данным
• ускорения разработки приложений
• вайб-кодинга с AI
• создания корпоративных AI-агентов

Посмотреть ролики и узнать про простоту и удобство сервисов провайдера можно по ссылке.

Реклама. ООО «Облачные технологии», ИНН: 7736279160. Erid: 2W5zFKAMp32. 0+

Читать полностью…

Анализ данных (Data analysis)

Не пропусти МТС True Tech Champ — масштабный фестиваль 21 ноября для тех, кто живет технологиями 🔥

Тебя ждут:

▫️ Конференция с международными спикерами. Эксперты расскажут о трендах в ИИ и инновациях в индустрии.
▫️ ИТ-качалка. Наращивай экспертизу на воркшопах.
▫️ Шоу-финал ИТ-чемпионата. Более 250 талантов со всей России сразятся в лайв-кодинге и программировании роботов на скоростное прохождение лабиринтов со спецэффектами. Выбирай и болей за фаворитов.
▫️ Айтивности. Тебя ждут бои роботов, кодерские челленджи, пайка плат и не только. Заработай True Coins и обменяй их на стильный мерч.
▫️ HR-Hub. Команда МТС расскажет о возможностях для развития в компании и поможет перезагрузить карьерный трек.
▫️ Афтепати со звездными хэдлайнерами. Зажги под популярные хиты.

Когда: 21 ноября, МТС Live Холл в Москве и онлайн.

Регистрируйся на сайте. Участие бесплатно, количество мест ограничено.

Читать полностью…

Анализ данных (Data analysis)

🧠 Суперспособности для Claude Code

Репозиторий предоставляет редактируемую сообществом библиотеку навыков для плагина суперспособностей Claude Code. Пользователи могут добавлять новые навыки и улучшать существующие, способствуя развитию проекта.

🚀 Основные моменты:
- Редактируемая библиотека навыков
- Утилиты для управления навыками
- Поддержка сообщества для улучшений

📌 GitHub: https://github.com/obra/superpowers-skills

Читать полностью…

Анализ данных (Data analysis)

🍎 Apple выпустила Pico-Banana-400K - это крупнейший открытый датасет для редактирования изображений по тексту.

Что внутри:
• ~400 000 примеров на основе реальных фото из Open Images
• 35 типов правок в 8 категориях: от изменения цвета до замены объектов, стилей, текста, выражений лиц и даже расширения кадра
• Все правки делала модель Nano-Banana, а качество оценивал Gemini-2.5-Pro по 4 критериям:

Интересные детали:
• Легче всего модели даются стилизация (93% успеха) и эффекты вроде зернистости плёнки
• Сложнее всего — точное перемещение объектов и редактирование шрифтов (~57–59% успеха)
• Неудачные попытки сохранены — как негативные примеры для обучения
• Общая стоимость сборки датасета — около $100 000

Датасет открыт для исследований (лицензия CC BY-NC-ND 4.0), идеален для разработки ИИ-редакторов следующего поколения.

🔗 GitHub

Читать полностью…
Subscribe to a channel