357943
Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml
✔️ Anthropic выходит на медицинский рынок с Claude for Healthcare.
Вслед за анонсом от OpenAI, Anthropic представила Claude for Healthcare, который открывает доступ к ИИ-ассистенту для врачей, страховых компаний и пациентов. Claude получил прямую интеграцию с медицинскими реестрами США и архивом публикаций PubMed.
Пользователи тарифов Pro и Max могут подключить свои медицинские данные через HealthEx и Function Health (поддержку Apple HealthKit и Android Health Connect обещают позже).
anthropic.com
✔️ Apple переводит свой ИИ-ландшафт на Gemini.
Компания заключила многолетнее соглашение с Google на использование моделей Gemini и облачной инфраструктуры для своих будущих продуктов.
Решение продиктовано серьезными проблемами с текущим бэкендом голосового ассистента. Внутренние источники описывают Siri как крайне фрагментированную систему из устаревших компонентов, основанных на жестких правилах и попытках внедрить новые генеративные модели. Такой гибрид сложно поддерживать и масштабировать.
Инженеры Apple продолжат работу над собственной LLM-архитектурой и моделью с триллионом параметров, рассчитывая в будущем вернуть полный контроль над технологическим стеком.
cnbc.com
✔️ Google представила открытый протокол для коммерции.
Universal Commerce Protocol — новый отраслевой стандарт для превращения ИИ-ассистентов в полноценных участников торговли. В разработке протокола принимали участие Shopify, Etsy и Walmart. UCP унифицирует поиск товаров, оформление заказов и пост-продажное обслуживание.
Первые внедрения UCP начнутся в США: интеграция появится в поисковых ИИ-моделях и приложении Gemini. Это позволит совершать покупки с помощью Google Pay (а позже и с PayPal) без перехода на сайты магазинов.
Ритейлеры же смогут предлагать динамические скидки прямо в рекомендациях и использовать ИИ-агентов для клиентской поддержки.
blog.google
✔️ Gemini API научился напрямую работать с файлами из Google Cloud Storage и внешних URL.
Google выпустила обновление для Gemini API, которое существенно упрощает пайплайны передачи данных - больше не нужно предварительно загружать тяжелые файлы во временное хранилище Files API.
Теперь система поддерживает прямую интеграцию с Google Cloud Storage (GCS) и внешними ссылками. Для доступа к данным на сторонних облачных платформах можно использовать URL и API самостоятельно подтянет нужный контент в момент обработки запроса.
Помимо этого, Google в 5 раз увеличила лимит на загрузку — максимальный размер файла вырос с 20 МБ до 100 МБ.
Google AI Studio в сети Х
✔️ Midjourney выпустила аниме-модель Niji 7.
Это первое мажорное обновление ветки за последние полтора года. Модель получила резкий скачок визуальной связности: разработчики устранили проблемы с прорисовкой лиц и физикой бликов в глазах.
Помимо эстетики, в модели обновилось логическое ядро. Niji 7 лучше и буквальнее понимает сложные промпты, спецификации по цветам и нетривиальную анатомию.
Midjourney заявила улучшение работы --sref: функция теперь пригодна для профессионального создания консистентных персонажей.
Обновление уже доступно в веб-интерфейсе и Discord.
Midjourney в сети Х
@ai_machinelearning_big_data
#news #ai #ml
⚡️ DeepSeek выпустит V4 в феврале.
Китайская лаборатория планирует представить модель следующего поколения уже в середине февраля 2026 года, пишет The Information.
Релиз V4 будет приурочен к празднованию Китайского Нового года (с 15 по 23 февраля), а главным преимуществом новой модели заявлены "выдающиеся способности в программировании".
Источники издания утверждают, что внутренние бенчмарки показывают превосходство V4 над флагманскими решениями OpenAI и Anthropic в задачах написания кода.
Архитектура модели оптимизирована для эффективной утилизации аппаратных ресурсов и обработки длинных технических промптов.
@ai_machinelearning_big_data
#news #ai #ml
🌟 Открытые модели и инструментарий для автопилотов от NVIDIA.
NVIDIA, сдержала обещания c NeurIPS 2025 и сделала еще один шаг к тому чтобы автомобили наконец научились понимать контекст вождения, а не просто детектировать разметку.
Современные автопилоты неплохо справляются со стандартными ситуациями. Но главная головная боль инженеров — это редкие, сложные сценарии, которые почти невозможно предугадать. Традиционные архитектуры, где восприятие отделено от планирования, часто пасуют, когда случается что-то нестандартное.
И вот здесь предлагается подход, где модель учится рассуждать причинно-следственными связями, почти как человек, разбирая ситуацию шаг за шагом. А это важный фактор для безопасности и доверия к системе.
🟡NVIDIA выкатила целую экосистему, которую можно пощупать руками:
🟢Alpamayo - первая в индустрии 10 миллиардная VLA-модель с поддержкой СoT, созданная специально для исследований. Она берет на вход видеопоток и генерирует не только траекторию движения, но и "reasoning traces" — то есть буквально объясняет логику своего решения.
Модель позиционируется как модель-учитель, которая может быть использована для обучения более компактных моделей или для авто-разметки данных.
🟢AlpaSim - полностью открытый, end-to-end фреймворк для симуляции, который позволяет моделировать реалистичные сенсоры и трафик, создавая идеальную песочницу для тестов.
🟢Physical AI Open Datasets - пожалуй, самый богатый датасет для автономного вождения на сегодняшний день. Туда входит более 1700 часов записей вождения из самых разных географических зон и условий. И, что важно, там куча тех самых редких кейсов, о которых мы говорили выше.
На практике, NVIDIA предлагает применять эти инструменты в своих решениях NVIDIA Cosmos и NVIDIA Omniverse.
В них можно дообучать модели на своих данных, валидировать их в симуляции и затем деплоить на железо.
@ai_machinelearning_big_data
#news #ai #ml
📌Как делали MiniMax М2.1 и что будет дальше.
Когда говорят, что одна модель пишет код лучше другой, обычно имеется ввиду бенчмарк SWE-Bench. Модель получает реальный баг из настоящего проекта с Github, который она должна прочитать, найти ошибку и исправить её. Это частично повторяет ежедневную работу программиста.
Но у этого бенча, как и у любого другого, есть свои недостатки.
🟠SWE-Bench работает только с Python. В реальном мире разработчики имеют дело с Java, Go, TypeScript, Rust, C++ и еще кучей других.
🟠Бенчмарк только про исправление ошибок, а программисты еще пишут новые функции, занимаются рефакторингом и оптимизацией.
🟠Его результаты сильно зависят от того, в каком окружении работает модель.
И вот здесь MiniMax-AI задалась вопросом: как создать по-настоящему универсального ИИ-программиста?
Ответ они нашли и реализовали его в своей свежайшей модели M2.1.
🟡Масштабирование окружения.
За этим расплывчатым термином кроется огромная система, которая оперирует популярными языками: JS, TS, Python, Java, Go, C++ и Rust.
Для этого с GitHub были собраны более 100 тыс. реальных задач с описанием проблемы, кодом и тестами. Это было непросто, так как сложные языки (Java или C++) требуют настройки и у каждого языка свои фреймворки и системы управления зависимостями.
Чтобы обучить модель на таком массиве данных, MiniMax построил инфраструктуру, способную запускать более 5 тыс. изолированных сред выполнения за максимально короткое время - 10 секунд.
🟡Выход за рамки баг-фиксов.
MiniMax-M2.1 обучали и генерации тестов и в результате оказалось, что это критически важный навык.
Предыдущая версия, M1, писала слишком простые тесты и часто выбирала неверные решения. M2.1 в этом преуспела и сравнялась по результатам с мощным конкурентом Claude Sonnet 4.5.
Еще она научилась оптимизировать производительность кода — на SWE-Perf показала средний прирост эффективности в 3.1%.
И наконец, M2.1 научили делать Code Review, для чего создали внутренний бенчмарк SWE-Review.
🟡Обобщение на незнакомых окружениях (Generalization on OOD Scaffolds).
Модель должна одинаково хорошо следовать длинным инструкциям и адаптироваться к разным способам управления контекстом диалога.
Команда провела тесты в mini-swe-agent, Droid и Claude Code и если посмотреть на цифры из их сравнительной таблицы, то можно увидель, что модель стала гораздо более гибкой и универсальной.
На том же SWE-Bench, при использовании Claude Code, MiniMax-M2.1 выбила 74 балла, что выше, чем у модели M2 с ее 69.2 баллами, и практически наравне с Claude Sonnet 4.5 и DeepSeek V3.2.
На другом тесте, OctoCodingBench, разрыв еще больше: 26.1 у новой модели против 13.3 у старой.
🟡Планы на 2026.
Во-первых, MiniMax планирует научить модель оценивать не только правильность кода, но и читаемость кода, качество комментариев, прозрачность процесса работы.
Во-вторых - повысить эффективность решения задач, чтобы модель не делала лишних шагов, например, не перечитывала один и тот же файл по несколько раз.
Но самое интересное — это их планы по RL Scaling, и создание так называемой Coding World Model.
Идея в том, чтобы построить модель-симулятор, которая сможет предсказывать результат выполнения кода, не запуская его в реальности.
🌟 IQuest-Coder-V1: китайская модель, которая обошла лидеров в кодинге.
Quest Research, поддержанная фондом Ubiquant, представила 40-миллиардную модель c контекстным окном в 128K токенов, которая, со слов авторов, выбивает 81,4% на SWE-Bench Verified, 49,9% на BigCodeBench и 81,1% на LiveCodeBench v6.
Это превосходит показатели Claude Sonnet 4.5 и GPT-5.1, несмотря на значительно меньшее количество параметров.
Модель использует технику "code-flow" — обучение на эволюции репозиториев и коммитах, и разделена на 2 ветки:
🟠Dense Models : Base и Instruct версии для дообучения и следованию инструкциям
🟢Loop Models: оптимизированная версия с максимальной эффективностью по VRAM (int4 может запускаться на 3090\4090)
Архитектура LoopCoder использует циклическую конструкцию трансформера, где одни и те же параметры модели используются в 2-х последовательных проходах обработки данных.
На первом проходе модель обрабатывает эмбеддинги через свои слои с учетом позиций слов.
На втором проходе модель одновременно использует два типа внимания: глобальное внимание, которое обращается ко всей информации из первого прохода для понимания общего контекста, и локальное внимание, которое смотрит только на предыдущие слова во втором проходе для сохранения последовательности текста.
Оба типа внимания комбинируются с помощью механизма, который решает, сколько веса дать глобальному контексту, а сколько локальной последовательности.
В техотчете заявлены еще 7B и 14B версии, но сроки их публикации неизвестны.
📌Лицензирование: Modified MIT License
🟡Страница проекта
🟡Техотчет
🟡Набор моделей
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #LLM #IQuest #QuestResearch
⚡️ Tencent выпустили новые open-source модели перевода HY-MT 1.5
Модель доступна в двух версиях: 1.8B и 7B. Обе работают как на устройстве, так и в облаке и показывают высокую скорость и точность.
Модель идет в двух размерах:
1) 8B для устройств
Оптимизирована под потребительское железо, занимает около 1 ГБ памяти.
Благодаря on-policy distillation достигает задержки 0.18 секунды на 50 токенов, обходя многие коммерческие API.
2) 7B новая SOTA
Превосходит большинство средних по размеру open-source моделей и сопоставима с закрытых решений.
Поддержка 33 языков и 5 китайских диалектов с высокой точностью.
Модели уже используются в сервисах Tencent. Связка двух моделей обеспечивает стабильную работу как на устройствах, так и в облаке.
🔹 Попробовать: https://hunyuan.tencent.com/modelSquare/home/list
🔹 GitHub: https://github.com/Tencent-Hunyuan/HY-MT
🔹 Hugging Face: https://huggingface.co/collections/tencent/hy-mt15
@ai_machinelearning_big_data
#opensource, #Tencent,
📌GLM 4.7 стала первой открытой моделью, вышедшей в плюс в бенчмарке Vending Bench 2.
Andon Labs опубликовала результаты Vending Bench 2, и GLM 4.7 вошла в шестерку лучших. Она стала первой открытой моделью, которая прошла полный "годовой тест" с реальной прибылью в 2 377 долларов.
Vending Bench 2 - это симуляционный тест для ИИ-агентов, в котором испытуемая модель в течение года управляет виртуальным бизнесом по продаже товаров через вендинговые автоматы.
Задачи бенча включают в себя закупку товаров, торговлю с поставщиками, корректировку цен в зависимости от спроса, покрытие расходов, учет погодных условий и сезонов.
Метрика теста - избежать банкротства и, в идеале, накопить деньги.
🏭🤖 Завод без людей: в Синьцзяне текстильная фабрика работает полностью с помощью ИИ
На огромном производстве ни одного рабочего на линии.
Около 5 000 ткацких станков крутятся круглосуточно под управлением ИИ и робототехники.
И это уже не эксперимент, в Китае такие фабрики становятся нормой:
— производство ускоряется
— себестоимость падает
— зависимость от человеческого труда минимальна
США сосредоточены на передовых исследованиях - медицине, биотехнологиях, науке.
Китай же внедряет технологии прямо в заводы и делает это быстрее всех.
Если Китай сохранит этот темп, его влияние на мировую торговлю усилится, а давление на промышленность США будет расти,даже несмотря на тарифы и планы «вернуть фабрики домой».
@ai_machinelearning_big_data
#ai #robots
📌 Топ-5 трендов робототехники уходящего года.
В 2025 году робототехника сошла с ума: боксерские поединки с участием человекоподобных роботов, роботы-лобстеры, дроны-птицы и роботы, стирающие белье.
За всей этой зрелищностью скрывалась реальность — андроиды получили работу, робо-такси перешли в категорию общественного транспорта, а количество роботов на складах превысило миллион.
🟡Гуманоиды становятся мейнстримом.
Человекоподобные роботы прошли путь от хайпа видео с их участием до создания устройств, похожих на реальные товары. В этом году инвесторы вложили в этот сектор миллиарды долларов, и около 50 стартапов привлекли более 100 млн. долларов инвестиций.
Промышленные заказчики начали проводить серьезные пилотные проекты, тестируя андроидов на складских линиях, а Neo от 1X появился и в домах.
Инструменты, компоненты и программные платформы для человекоподобных роботов достигли зрелости: от механизмов и аккумуляторных батарей до универсальных моделей управления и машинного зрения.
Китай превратил гуманоидов в часть своей промышленной политики, предлагая пилотные проекты для стимулирования локальных клиентов к масштабным внедрениям к концу десятилетия.
🟡Робо-такси вышли на реальные улицы.
2025 год стал годом, когда беспилотные такси стали реальностью: специальные капсулы на Лас-Вегас-Стрип, призрачные Tesla в Остине, китайские автопарки, расширяющиеся по всему городу - автономные поездки стали частью инфраструктуры транспорта.
Waymo начала включать поездки по автомагистралям Финикса, Сан-Франциско и Лос-Анджелеса, расширила свои услуги до Сан-Хосе и предложила круглосуточную встречу в аэропорту.
Дочерняя компания Amazon, Zoox представила свои автомобили в Лас-Вегасе - без руля, без педалей и с двумя рядами сидений для 4 пассажиров.
Tesla начала тестирование беспилотных такси на улицах Остина.
Китайские Baidu и Uber объявили о планах развернуть тысячи автомобилей Apollo Go на платформе Uber, а Pony AI запустила 1000 робо-такси в Шэньчжэне.
🟡Роботы стали очень маленькими.
Микророботы пережили год прорывов, уменьшившись до размеров песчинки и одновременно освоив сенсорные технологии, вычисления и передвижение. Лаборатории начали наделять их двигательной моторикой и реальными функциями.
Появление роботов для доставки лекарств стало ближе к реальности - создали с помощью 3D-печати вращающихся микророботы и суб-миллиметровые зонды непрерывного излучения.
В ходе исследования была разработана целая серия био-гибридов, реагирующих на внешние воздействия со способностью автономно реагировать на химические сигналы и магнитные поля.
🟡Логистика роботизируется семимильными шагами.
В уходящем году складские роботы стали главными героями. Amazon преодолела отметку в 1 млн. внедренных единиц, а Figure, Agility, Apptronik и 1X запустили своих гуманоидов в реальных условиях у крупных клиентов из сфер логистики и производства.
На автономных мобильных роботов приходится 45% всех систем на складах, при этом электронная коммерция, по прогнозам, обеспечит половину новых установок до 2030 года.
Пекин пошел ва-банк, открыто поставив цель развернуть сотни тысяч таких устройств к 2030 году и запустить 1,8 млн. промышленных роботов на заводах.
🟡Взрывной рост робототехники в Китае.
Никто не внедряет робототехнику так активно, как Китай. Более 82% из более чем 300 глобальных инвестиционных сделок в этой области в первой половине 2025 года были заключены в Китае, а общий объем финансирования превысил около 2,7 млрд. долларов
Unitree, Agibot и EngineAI завершили крупные раунды финансирования, при этом Unitree снизила цену на своего человекоподобного робота R1 до 5900 долларов.
На конец 2025 года Китай производит 70–80% мировых планетарных роликовых винтовых передач — важнейшего компонента привода, от которого зависят Tesla, Figure и 1X.
@ai_machinelearning_big_data
#news #ai #ml
🌟 Midea MIRO U: одна голова - шесть рук.
В отличие от традиционных двуруких андроидов, Midea Group спроектировала платфору исключительно под утилитарную эффективность. Шесть бионических манипуляторов работают скоординированно: нижняя пара отвечает за силовые операции и подъем тяжестей, а верхние конечности выполняют точную сборку и крепеж.
Такая архитектура позволяет роботу выполнять до 3 задач одновременно, при этом сохраняя габариты человеческого торса для интеграции в производственные линии без их переделки.
MIRO U базируется на мобильном колесном шасси с возможностью вращения на 360 градусов и вертикальным лифтом. Midea, использующая наработки своего немецкого подразделения KUKA, уже начала пилотное внедрение системы на заводе в Уси.
Инженеры рассчитывают, что шестирукий форм-фактор повысит эффективность переналадки линий на 30%, минимизируя простои при смене выпускаемых моделей.
@ai_machinelearning_big_data
#news #ai #ml
Обновился лидерборд русскоязычного бенчмарка для оценки бизнес-OCR от MWS. В лидерах – Gemini и Alice AI
Полный лидерборд лежит на GitHub. В тройке лидеров, кроме Gemini — новая визуально-языковая модель Яндекса Alice AI VLM dev, часть большой Alice AI VLM, об обучении которой компания совсем недавно рассказала в техрепорте.
Оттуда можно заимствовать подход к обучению VLM под OCR-задачи и узнать об архитектурных изменениях в VLM Яндекса.
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене
🔘Pro версия является ТОП-1 опенсорсом в мире (см. модели с лицензиями MIT, Apache 2.0 в лидерборде)
🔘Lite версия (2B параметров) лучше первой версии Sora
🔘На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘Для российских генеративных моделей выход на международную арену — уникальное событие
🚀 Полезные ссылки:
🔘Посмотреть весь лидерборд: lmarena
🔘Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘Open Source Kandinsky 5.0: github и hf
💀 NeuroSploit v2 - продвинутый AI-фреймворк для тестирования на проникновение (пентеста).
NeuroSploit v2 использует большие языковые модели, чтобы автоматизировать и усилить offensive security.
Фреймворк помогает анализировать цели, находить уязвимости, планировать эксплуатацию и поддерживать защитные меры, сохраняя фокус на этике и операционной безопасности.
Основные возможности:
• Агентная архитектура
Специализированные AI-агенты под разные роли: Red Team, Blue Team, Bug Bounty Hunter, Malware Analyst.
• Гибкая интеграция LLM
Поддержка Gemini, Claude, GPT (OpenAI) и Ollama с настройкой через профили.
• Тонкая настройка моделей
Отдельные LLM-профили для каждой роли: выбор модели, температура, лимиты токенов, кэш и контекст.
• Markdown-промпты
Динамические шаблоны промптов, адаптирующиеся под задачу и контекст.
• Расширяемые инструменты
Интеграция Nmap, Metasploit, Subfinder, Nuclei и других security-инструментов через конфигурацию.
• Структурированные отчёты
JSON-результаты кампаний и удобные HTML-отчёты.
• Интерактивный CLI
Командная строка для прямого управления агентами и сценариями.
NeuroSploit v2 - пример того, как agentic AI превращает пентест из ручной работы в управляемую автоматизацию.
git clone https://github.com/CyberSecurityUP/NeuroSploitv2.git
cd NeuroSploitv2
🌟 Minimax VTP: гибридный токенизатор для диффузии на стероидах.
В диффузионных архитектурах считается, что масштабировать первую стадию, VAE - занятие неблагодарное.
Eго задача - превратить пиксели в латентный код и обратно, а добавление ему параметров или данных никак не помогает основной модели DiT генерировать изображения лучше.
🔍 Mistral представила OCR 3 - новую версию своей AI-системы распознавания документов.
Ключевое:
- Существенный рост качества по сравнению с OCR 2, особенно на формах, таблицах и сложных PDF
- Уверенно работает со сканами, рукописным текстом и нестандартной версткой
- Возвращает структурированный результат, а не просто сырой текст
- Подходит для автоматизации Document AI и downstream-аналитики
- Доступен через API и готов к продакшен-использованию
Главное
- На 74% лучше Mistral OCR 2 при работе с формами, сканированными документами, сложными таблицами и рукописным текстом.
- Точность уровня state-of-the-art: Обходит как корпоративные системы обработки документов, так и современные AI-OCR решения.
- Используется в Document AI Playground:
В Mistral AI Studio появился простой drag-and-drop интерфейс для разбора PDF и изображений в чистый текст или структурированный JSON.
https://mistral.ai/news/mistral-ocr-3
@ai_machinelearning_big_data
#ocr #mistal #llm
🌟 Голографический ИИ-компаньон на базе Grok от Razer.
На CES 2026 Razer анонсировала Project AVA - аппаратного ИИ-ассистента в форм-факторе настольной капсулы с прозрачным дисплеем.
Устройство проецирует 14-сантиметрового 3D анимированного аватара и использует языковую модель Grok от xAI, при этом архитектура системы предполагает возможность подключения других LLM-провайдеров в будущем.
Техническая реализация выходит за рамки простого чат-бота: встроенная камера и массив микрофонов AVA способны воспринимать визуальный и аудио-контекст.
Ассистент в реальном времени наблюдает за происходящим на мониторе пользователя, что позволяет ему выступать в роли игрового коуча, давая тактические советы, или помогать в рабочих задачах.
Пользователи смогут настраивать визуализацию помощника, выбирая между личностями Grok, аниме-персонажами или цифровыми копиями киберспортсменов.
Поставки устройства ожидаются в конце 2026 года, а пока Razer открыла предзаказ для США с внесением возвратного депозита в 20 долларов. Окончательная стоимость устройства пока не объявлена.
@ai_machinelearning_big_data
#news #ai #ml
✔️ OpenAI запустила ChatGPT Health.
ChatGPT Health — отдельный раздел чат-бота исключительно для запросов, связанных со здоровьем, с возможностью интеграции с сервисами трекинга: Apple Health, MyFitnessPal, а также с личными медицинскими записями для анализа результатов анализов и истории болезни.
Вопросы приватности и безопасности данных решены с помощью многоуровневого шифрования и отдельной инфраструктуры; данные из ChatGPT Health по умолчанию не используются для обучения основных моделей ChatGPT.
Доступ к бета-версии открыт через лист ожидания для пользователей за пределами ЕС, Швейцарии и Великобритании; интеграция с медицинскими картами пока доступна только в США.
openai.com
✔️ Китай проверяет сделку по покупке Manus на нарушение экспортного контроля.
Министерство торговли КНР начало расследование приобретения стартапа Manus. Власти подозревают, что релокация сотрудников и технологий компании из Китая в Сингапур с последующей продажей американскому техно-гиганту могла быть попыткой обхода требований по лицензированию экспорта технологий.
Команда и основатели Manus покинули Китай летом 2025 года, чтобы дистанцироваться от геополитических рисков. Этот маневр позволил привлечь $75 млн. от американского фонда Benchmark, что ранее уже вызывало вопросы у Минфина США.
Компания Цукерберга утверждает, что на момент закрытия сделки в Manus не осталось китайского капитала, однако Пекин намерен выяснить, легально ли технологии покинули страну до того, как стартап сменил юрисдикцию.
ft.com
✔️ Siemens и NVIDIA создадут ИИ-ОС для заводов.
Компании объявили о расширении партнерства ради создания единой среды Industrial AI Operating System. Она построена на концепции централизованного интеллекта, который позволит непрерывно анализировать цифровые двойники и валидировать любые производственные изменения в виртуальной среде до их реализации в поле. Эталоном такого производства станет завод Siemens в немецком Эрлангене.
Для инженеров альянс готовит новые инструменты. В середине 2026 года выйдет Digital Twin Composer на движке NVIDIA Omniverse для построения промышленных мета-вселенных, а интеграция библиотек CUDA-X в программный стек Siemens обещает кратный прирост производительности в проектировании полупроводников и тяжелых инженерных симуляциях.
press.siemens.com
✔️ OpenAI, Anthropic и Google разделили лидерство в Intelligence Index 4.0.
Artificial Analysis представила 4-ю версию рейтинга ИИ-моделей, зафиксировав жесткую конкуренцию между топовыми игроками. Формальное лидерство досталось GPT-5.2 (Х-High), однако Claude Opus 4.5 и Gemini 3 Pro отстают от нее с минимальным разрывом, фактически образуя тройку равных лидеров.
В новой итерации индекса заметно просели абсолютные показатели: лучшие модели теперь набирают в районе 50 баллов против 73 в прошлой версии. Это связано с ужесточением методологии и ротацией тестовых наборов.
На смену AIME 2025 и MMLU-Pro пришли более суровые тесты: AA-Omniscience для проверки эрудиции и склонности к галлюцинациям, GDPval-AA для прикладных задач в 44 сферах и CritPt, оценивающий способности в физических исследованиях. Итоговый балл формируется из 4-х категорий: агенты, программирование, научное мышление и общие задачи.
Artificial Analysis в сети Х
✔️ Учёные из Ватерлоо научились бэкапить квантовые данные.
Команда из Университета Ватерлоо решила одну из фундаментальных проблем квантовых вычислений — невозможность прямого копирования информации. Суть метода, описанного в Physical Review Letters, заключается в шифровании квантовой информации в процессе ее копирования.
Как поясняют авторы, запрет на клонирование можно обойти, если создавать неограниченное количество зашифрованных дубликатов кубитов. Механизм защиты работает через одноразовые ключи: как только пользователь расшифровывает одну из копий, ключ автоматически аннулируется.
Это открытие фактически легализует создание «квантового облака». Технология позволяет хранить квантовые данных на распределенных серверах и создать аналог квантового Dropbox или Google Drive.
uwaterloo.ca
@ai_machinelearning_big_data
#news #ai #ml
✔️ Science Context Protocol: научное расширение стандарта MCP.
Шанхайская лаборатория ИИ выложила в опенсорс спецификации SCP — протокола, созданного для формирования глобальной сети автономных исследовательских систем. Новинка развивает идеи стандарта MCP от Anthropic, добавляя к нему критически важный слой для взаимодействия с физическим миром науки.
В отличие от MCP, ориентированного на подключение данных, SCP поддерживает подключение лабораторного оборудования, расширенные метаданные экспериментов и API для оркестрации сложных рабочих процессов.
Фактически это позволяет ИИ-агентам напрямую управлять приборами и обмениваться результатами между различными институтами. Технология уже обкатана на платформе Internal Discovery, где доступно более 1600 инструментов, преимущественно для биологии, физики и химии.
arxiv.org
✔️ OpenAI переводит производство своего первого гаджета на заводы Foxconn.
Компания Сэма Альтмана меняет стратегию выпуска дебютного аппаратного устройства под кодовым именем «Gumdrop». По данным Economic Daily News, OpenAI отказалась от услуг китайской Luxshare и передала контракт тайваньскому гиганту Foxconn, чтобы исключить материковый Китай из цепочки поставок - сборка будет развернута на мощностях во Вьетнаме или США.
Gumdrop находится на стадии проектирования и, вероятно, это будет умная ручка или носимый аудио-гаджет. Устройство получит камеру и микрофон, а его киллер-фичей станет нативная интеграция с ChatGPT для оцифровки и анализа рукописных заметок.
Релиз устройства запланирован на 2026–2027 годы.
money.udn.com
✔️ Попытка главы Microsoft защитить репутацию ИИ обернулась вирусным трендом «Microslop».
Сатья Наделла непреднамеренно спровоцировал имиджевый кризис, опубликовав в конце 2025 года призыв к обществу «перерасти» использование термина «slop» в отношении генеративного контента. Реакция сообщества оказалась мгновенной: эффект Стрейзанд вывел в тренды тег «Microslop», ставший символом отторжения агрессивной политики компании по повсеместному внедрению ИИ.
Пользователи выражают недовольство тем, что Microsoft принудительно встраивает Copilot в каждый продукт, игнорируя реальные потребности аудитории. Пока руководство Big Tech обещает глобальные прорывы, рынок фиксирует негативные побочные эффекты: от дефицита и удорожания памяти и сокращения рабочих мест до засорения экосистемы бесполезными функциями.
windowscentral.com
✔️ Neuralink запускает серийное производство нейро-чипов.
Илон Маск подтвердил планы компании начать массовый выпуск интерфейсов «мозг-компьютер» в 2026 году. Технологический процесс станет полностью автономной хирургической процедурой: роботы будут устанавливать импланты без прямого участия людей-нейрохирургов.
Проект уже вышел за рамки лабораторных экспериментов - база пациентов с активными имплантами достигла 12 человек. Устройства позволяют людям с тяжелыми нарушениями моторики управлять цифровыми интерфейсами и игровыми контроллерами напрямую через нейронную активность.
reuters.com
✔️ Армия США ввела специальность по ИИ и ML для офицеров.
С 5 января Пентагон официально открыл прием заявок на новую специализацию, позволяющую офицерам строить карьеру в ИИ и ML. Приоритет при отборе отдается кандидатам с профильным образованием и опытом разработки.
Офицеры пройдут углубленную подготовку, после чего займутся созданием, развертыванием и поддержкой военных ИИ-систем. Инициатива реализуется на фоне жестких дедлайнов по внедрению ИИ-управления в штабах к 2027 году и обеспечению армии автономными системами до конца 2026 года.
Параллельно Минобороны США запустило платформу GenAi.mil с Gemini for Government на борту, чтобы предоставить армии доступ к передовым языковым моделям. Таким образом, ИИ перестает быть экспериментальным направлением и становится штатной функцией офицерского состава.
federalnewsnetwork.com
@ai_machinelearning_big_data
#news #ai #ml
🎾 Твой новый роботозированный партнёр по теннису.
UBTECH показали как их гуманоид Walker S2 вышел на корт и провёл полноценный розыгрыш против человека в прямом эфире.
Наблюдать, как робот уверенно держит баланс, ловит темп и отбивает мячи с точностью, - ощущение почти сюрреалистическое.
Похоже, время обычных машин для подачи подходит к концу.
@ai_machinelearning_big_data
#Robotics #Tennis #AI #UBTECH #Future
🎄🎄 Qwen-Image: обновление как раз к Новому году
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
📌GPU Glossary: исчерпывающая база по GPU.
Modal Labs составили подробный глоссарий, чтобы решить проблему, с которой сами столкнулись при работе с графическими процессорами в сервисе Modal : документация фрагментирована и зачастую очень сложно сопоставить концепции на разных уровнях стека.
Modal Labs (бренд Modal) – компания, основанная в 2021 году, которая предоставляет высокопроизводительную серверную вычислительную платформу для разработчиков, работающих с данными, ИИ и машинным обучением.
На vc.ru вышла вдохновляющая статья для тех, кто задумывается о развитии своего диптех-стартапа в новом году. Автор предлагает простой взгляд на рынок ИИ-решений и объясняет, где сегодня появляется реальная ценность.
Самое интересное — в прикладных ИИ-продуктах. Там, где технологии перестают быть абстракцией и решают задачи бизнеса: автоматизируют процессы, снижают издержки, экономят время команд.
• CyberPhysics предсказывают поломки оборудования без дополнительных датчиков, опираясь только на данные завода.
• Bitrobotics делают роботов с компьютерным зрением, которые автоматизируют заводы производство, от отбраковки до упаковки.
• «Синтелли» разрабатывают ИИ‑платформу для химиков и фармацевтов. Теперь для анализа миллионов молекул и реакций достаточно нескольких секунд!
• Slider AI научили ИИ собирать презентации из сырых данных.
• HiveTrace сделали защиту от кибератак и утечек данных для GenAI‑приложений.
Откуда берутся и как развиваются современные техностартапы — рассказывают тут. Спойлер: об инструментах, которые могут помочь тебе, если ты уже занимаешься чем-то похожим, там тоже есть.
✔️ Темпы развития ИИ удвоились, но доверие к бенчмаркам падает: отчет Epoch AI
В обзоре за 2025 год Epoch AI зафиксировала резкое ускорение прогресса развития ИИ. По данным аналитиков, индустрия прошла «переломную точку»: скорость улучшения показателей SOTA-моделей выросла почти в 2 раза — с 8 до 15 пунктов индекса производительности за год. Драйверами роста называют массовый переход к ризонинг-моделям и фокус на RL.
Однако, отчет указывает на серьезную проблему: результаты тестов становятся всё менее репрезентативными. Даже при использовании одинаковых бенчмарков прямое сравнение моделей затруднено из-за различий в промптах, параметрах сэмплирования и программных обвязках. Последние особенно сильно искажают оценку ИИ-агентов, а нестабильность API провайдеров добавляет шум в данные, делая метрики новых моделей уязвимыми для ошибок измерения.
epoch.ai
✔️ Salesforce теряет доверие к большим языковым моделям.
В компании заметили, что первоначальный энтузиазм сменился более прагматичным взглядом. LLM оказываются ненадежными для бизнес-задач. Год назад оптимизма было больше, но теперь разработчики возвращаются к проверенной автоматизации на основе правил.
Основная причина — непредсказуемость ИИ. Модели часто «дрейфуют», теряя контекст разговора или игнорируют инструкции.
Чтобы сделать корпоративный софт предсказуемым, Salesforce переходит на жесткие ограничения. Вместо креатива нейросети теперь будет работать строгая логика выполнения сценариев.
theinformation.com
✔️ Китай требует от Apple Intelligence отклонять 95% провокационных запросов.
Для легального запуска Apple Intelligence в КНР компании придется доказать соответствие своих алгоритмов жестким стандартам местной цензуры. Поскольку иностранные LLM в стране заблокированы, Apple вынуждена использовать локальное решение — модель Qwen3 от Alibaba, которая сейчас проходит государственную аттестацию.
Регламент проверки серьезный: регуляторы используют пул из 2 тыс. специально подобранных вопросов, касающихся политики и других чувствительных тем. Чтобы получить разрешение на релиз, нейросеть обязана отказаться отвечать минимум на 95% таких промптов.
Процедура настолько сложна, что на китайском рынке сформировалась ниша консалтинговых агентств, которые помогают техно-гигантам настраивать фильтры моделей именно под этот тест.
9to5mac.com
✔️ Microsoft опровергла слухи о переписывании Windows на Rust с помощью ИИ.
Компания заявила, что не планирует переписывать ядро операционной системы с использованием генеративных моделей. Поводом для спекуляций стал вирусный пост ведущего инженера Microsoft Галена Ханта в LinkedIn, где онописал цель — полностью избавиться от C/C++ к 2030 году и достичь производительности «один инженер, один месяц, миллион строк кода» за счет автоматизации.
IT-сообщество интерпретировало это как анонс глобального рефакторинга Windows 11. В ответ Microsoft пояснила, что описанный сценарий относится лишь к исследовательским проектам по миграции легаси-кода, а не к продуктовой стратегии ОС. Хант также внес правки в публикацию, снизив градус категоричности.
windowslatest.com
✔️ xAI запустила Grok Collections API.
xAI представила инструмент для разработчиков, который упрощает создание RAG-приложений - Grok Collections API. Он берет на себя задачи по хранению, индексации и семантическому поиску по документам, избавляя инженеров от необходимости строить векторные баз данных.
Решение использует технологию layout-aware parsing с использованием OCR и может сохранять структуру исходников: таблицы, макеты PDF и синтаксис кода остаются читаемыми для модели.
По внутренним бенчмаркам xAI, в задачах на точность извлечения данных новый сервис превосходит показатели Gemini 3 Pro и GPT-5.1. Стоимость - $2.50 за 1000 поисковых запросов и, по словам xAI, загруженные в Collections файлы не используются для дообучения базовых моделей без явного согласия.
x.ai
@ai_machinelearning_big_data
#news #ai #ml
Яндекс анонсировал эмпатичных AI-помощников, которые будут давать пользователям советы и обсуждать с просмотренное, прослушанное и прочитанное
Официальный запуск запланирован на 2026-й год, а пока пользователям предлагают «разбудить своего люмена» в развлекательных сервисах Яндекса.
Планируются, что люмены будут персонализировать опыт пользователя, но подробностями об этом разработчики не делятся. Зато известно, как будут выглядеть люмены — у каждого юзера «проснется» свое животное..
Ранее Кинопоиск уже заявлял о разработке ИИ-ассистента с возможностью диалогового общения и специальных функций для зрителей фильмов из сериалов. Посмотреть на люменов a.k.a виртуальных патронусов можно на сайте lumen.yandex.ru
📌 Тренируем FunctionGemma самостоятельно.
LM Studio в коллаборации с Unsloth опубликовали подробный туториал по файнтюнингу недавно выпущенной Google модели FunctionGemma.
FunctionGemma - уменьшенная версия Gemma (всего 270Ь параметров) для агентских сценариев и работы в качестве бэкенда приложений, которую можно запускать практически на любом устройстве.
🌟 Z-Image Turbo взяла 1 место на Artificial Analysis Image Arena.
Детище Alibaba, которое было выпущено отдельно от команд Wan и Qwen и стоит 5 долларов за 1000 изображений на Alibaba Cloud добралась до 1 места в рейтинге Artificial Analysis Image Arena.
Это модель с 6 млрд. параметров, которая может работать на потребительском оборудовании с объемом памяти всего 16 ГБ в полной точночти, а квантованные варианты запускаются на 8 ГБ.
Z-Image Turbo дешевле всех конкурентов: FLUX.2 [dev] ($12/1 тыс. изображений), HiDream-I1-Dev ($26/1 тыс. изображений) и Qwen-Image ($20/1 тыс. изображений), доступна под открытой лицензией Apache 2.0, что позволяет использовать ее в коммерческих целях без ограничений.
Кто-нибудь, поднимите веки Stable Diffusion
@ai_machinelearning_big_data
#news #ai #ml
🤖 Cтудия Leehom Wang показала выступление с гуманоидным роботом Unitree G1 на сцене.
Финальный акробатический флип стал настоящей кульминацией шоу и вызвал бурную реакцию публики.
ИИ должен был оптимизировать бизнес-процессы.
Но сначала решил раскачать зал.
@ai_machinelearning_big_data
#Robotics #HumanoidRobots #AI #Unitree
✔️ Higgsfield запустил сервис профессионального ИИ-кинопроизводства.
Cinema Studio — специализированная среда генерации со структурой съемочного процесса.
Новинка предлагает глубокую настройку виртуальной кинематографии: эмуляция 6 профессиональных камер (ARRI Alexa 35, RED и Panavision) и 11 типов объективов, от анаморфотных до макро.
Cinema Studio поддерживает вывод в 4K с соотношением сторон 21:9 и позволяет управлять сложными операторскими приемами, а также менять освещение сцены с сохранением реалистичности теней.
higgsfield.ai
✔️ Qwen-Image-Layered: декомпозиция изображений в редактируемые RGBA-слои.
Qwen релизнула Qwen-Image-Layered - диффузионную модель, которая разбивает изображения на отдельные семантические слои с прозрачностью.
Инструмент переводит работу с генеративной графикой из плоского растра в формат, где каждый элемент (фон, передний план, текст) можно перемещать, масштабировать или удалять независимо друг от друга.
Модель обучалась на реальных PSD-файлах и уже доступна на Hugging Face и ModelScope.
qwen.ai
✔️ Cursor покупает платформу код-ревью Graphite.
Сделка, сумма которой по данным инсайдеров, значительно превышает последнюю оценку Graphite в $290 млн, нацелена на создание сквозной экосистемы для ИИ-разработки: объединить процесс написания кода с этапами ревью и командной работы.
В ближайшие месяцы компании планируют представить интеграцию, которая позволит ИИ-агентам обучаться на полном процессе - от черновиков в редакторе до финальных мержей.
Несмотря на смену владельца, Graphite продолжит функционировать автономно.
cursor.com
✔️ NVIDIA выпустила в продажу 72-гигабайтную версию RTX PRO 5000.
Компания анонсировала доступность видеокарты RTX PRO 5000 с увеличенным до 72 ГБ VRAM. Новинка сохранила те же 14 080 CUDA-ядер и TBP на уровне 300 Вт.
Точная цена 72-гигабайтной версии пока не раскрыта. Ожидается, что она займет нишу между базовой моделью на 48 ГБ и флагманской RTX PRO 6000. Глобальные поставки через системных интеграторов начнутся в начале следующего года.
blogs.nvidia.com
✔️Gemma Scope 2: крупнейший набор инструментов для интерпретации работы LLM.
Google DeepMind открыла исходный код Gemma Scope 2 — инструментария для детального анализа внутреннего мира моделей семейства Gemma 3. Релиз включает более 400 автоэнкодеров и транскодеров, которые буквально просвечивают слои модели, разбирая ее реакции на концепты: от математических вычислений до идиом.
Инструменты покрывают весь спектр весов Gemma 3: от 270M до 27B, позволяя изучать причины галлюцинаций, механизмы отказов и уязвимости к джейлбрейкам.
Веса Scope 2 доступны на Hugging Face, а интерактивные демо для визуального исследования нейронов размещены на Neuronpedia.
deepmind.google
@ai_machinelearning_big_data
#news #ai #ml
✔️ GPT-5.2-Codex.
OpenAI представила GPT-5.2-Codex, которую называет самым продвинутым инструментом для реальной программной инженерии на сегодняшний день. Модель получила нативную поддержку сжатия контекста, улучшенную интеграцию с терминалом Windows и способность проводить глубокий рефакторинг крупных репозиториев без потери логической нити.
Ключевой апдейт коснулся сферы безопасности - Codex резко прибавил способностей в анализе защищенности кода. Модель уже доступна платным пользователям ChatGPT, а API будет открыт в ближайшие недели.
openai.com
✔️ xAI представила Grok Voice Agent API.
Компания Илона Маска открыла публичный доступ к Grok Voice Agent API — нативному интерфейсу speech-to-speech для создания голосовых ассистентов. Решение построено на полностью собственной архитектуре, что позволило достичь задержки ответа менее 1 секунды.
API поддерживает вызов внешних инструментов, веб-поиск, прямую интеграцию с телефонией через SIP и понимает более 100 языков. В бенчмарке Big Bench Audio модель заняла 1 место с точностью 92,3%, опередив Gemini 2.5 Flash и GPT Realtime.
Главной фишкой стала ценовая политика: единый тариф составляет $0.05 за минуту. Это значительно дешевле, чем у OpenAI и ElevenLabs.
x.ai
✔️ VS Code получил поддержку стандарта Agent Skills.
В VS Code Insiders появилась поддержка Agent Skills - открытого протокола, разработанного Anthropic. Технология позволяет упаковывать инструкции, скрипты и вспомогательные ресурсы в модули, которыми можно пользоваться в разных ИИ-инструментах.
Главное отличие Agent Skills от привычных кастомных инструкций в функциональности: это не текстовые гайдлайны по стилю кода, а полноценные наборы инструментов для автоматизации задач, которые подгружаются в контекст модели динамически и только при необходимости.
Стандарт дает кросс-платформенность: созданный один раз скилл будет работать одинаково как в интерфейсе редактора, так и в CLI-агентах.
code.visualstudio.com
✔️ Google выпустила T5Gemma 2.
T5Gemma 2 получила серьезные архитектурные изменения по сравнению с первой версией. Чтобы снизить потребление памяти, инженеры внедрили tied word embeddings для энкодера и декодера, а также объединили механизмы self-attention и cross-attention в единый слой. Модели доступны в компактных конфигурациях на 270M, 1B и 4B параметров.
Новинка поддерживает контекстное окно до 128 тыс. токенов и умеет обрабатывать не только текст на 140 языках, но и изображения. В бенчмарках T5Gemma 2 обошла базовую Gemma 3 в задачах на длинный контекст, кодинг и мультимодальное понимание. Модели доступны на Hugging Face и Kaggle для исследовательских целей.
blog.google
✔️ ИИ-подразделение Марка Цукерберга открыло аудио-визуальный энкодер PE-AV.
Perception Encoder Audiovisual (PE-AV) - техническое ядро, лежащее в основе SAM Audio. Это мультимодальная модель, которая объединяет аудио, видео и текст в единое пространство эмбеддингов.
PE-AV умеет извлекать векторы признаков из аудио или видеокадров и формировать совместные аудиовизуальные представления. Это повышает точность в задачах кросс-модального поиска, детекции звуков и глубокого понимания сцен, где важен синхронный контекст изображения и звука.
В открытом доступе - 6 чекпоинтов модели разного размера (от Small до Large) с вариациями по количеству обрабатываемых кадров. Код опубликован на GitHub, а веса - на Hugging Face.
huggingface.co
@ai_machinelearning_big_data
#news #ai #ml
🌟 TurboDiffusion: ускорение генерации видео в 100+ раз.
Суровая реальность нашего времени: вы хотите сгенерировать 5-секундное видео на большой SOTA-модели. Вы запускаете промпт, идете пить кофе, возвращаетесь, а процесс все еще идет. И зачастую генерация может занимать больше часа.
Главные виновники - чудовищная вычислительная сложность механизма внимания в трансформерах, необходимость сотен шагов денойзинга и огромный объем памяти для весов в полной точности.