ai_machinelearning_big_data | Technologies

Telegram-канал ai_machinelearning_big_data - Machinelearning

359493

Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml

Subscribe to a channel

Machinelearning

✔️ Роль Wikipedia в интернете изменилась.

Википедия стремительно теряет аудиторию, но получает всё больше автоматических обращений со стороны ИИ-систем, которые берут оттуда данные напрямую, не отправляя пользователей на страницы.

Wikipedia становится не столько источником контента, сколько платформой для проверки фактов. Уже сегодня она применяет собственные ИИ-инструменты, которые автоматически отслеживают подозрительные правки, например, попытки вставить ложную информацию, оскорбления или спам. Система не публикует изменения сама, но помогает редакторам быстрее их находить и проверять.

Поскольку проект не может продавать данные напрямую, как Reddit, Wikipedia запустила платные подписки на мгновенный доступ к обновлениям, и среди клиентов уже есть Google.
Ежегодное содержание платформы обходится примерно в 178 миллионов долларов, большая часть которых уходит на серверы и инфраструктуру.
ft

✔️ Китайский стартап Noetix Robotics представил своего первого потребительского робота под названием Bumi, ориентированный на работу по дому и образовательное применение.

Робот стоит всего 9 988 юаней (~1 402 доллара США), его рост - 94 см, вес - 12 кг.

Робот снабжён 21 степенью свободы, способен ходить на двух ногах и выполнять гибкие танцевальные движения. Он построен из лёгких композитных материалов, поднимает голосовые команды взаимодействие, а так же у него есть своя среда разработки, для которой можно писать код .
scmp

✔️NVIDIA представила Audio Flamingo 3: новую мультимодальную модель, которая умеет понимать и анализировать звук, речь и музыку.

Модель сочетает несколько технологий: аудиокодер AF-Whisper, адаптер, языковую модель Qwen 2.5 7B и модуль генерации речи. Такой стек позволяет ей работать с длинными звуковыми записями (до 10 минут), распознавать речь, понимать контекст и вести многотуровые голосовые диалоги.

Audio Flamingo 3 обучена на множестве аудио-датасетов и уже показывает высокие результаты на 20 бенчмарках по звуковому пониманию и рассуждению.
Модель распространяется для исследовательских целей и интегрирована в экосистему NVIDIA с поддержкой PyTorch и Hugging Face Transformers.
HF

✔️ Kuaishou Technology представила новую генеративную модель SVG - это Latent Diffusion без классического блока VAE.

Вместо вариационного автоэнкодера модель использует самообучающиеся представления, которые позволяют модели работать быстрее и точнее.

Результат впечатляющий: обучение идёт в 62 раза быстрее, а инференс - в 35 раз. При этом качество изображений не только не падает, но и становится лучше. Отказ от VAE устранил искажения при переходе в латентное пространство и повысил стабильность при генерации картинок высокого разрешения.

SVG можно рассматривать как новую архитектуру для диффузионных моделей, более простую, быструю и энергоэффективную альтернативу привычным решениям с VAE.
Hf

✔️Акции энергетических компаний, выросшие на ожиданиях ИИ-бума, резко упали - сектор потерял около 12% за пять торговых сессий к середине октября, что стало самым сильным падением с февраля.

Сильнее всего пострадали Oklo (минус 30%) и Vistra (минус 12%). Поводом стали осторожные сигналы с рынка: исследования показали, что некоторые модели ИИ могут работать с меньшими вычислительными затратами, GE Vernova намекнула на охлаждение инвестиций, а инвесторы вновь обратили внимание на отсутствие выручки у Oklo.

После бурного роста в начале октября: Oklo выросла почти в восемь раз, Constellation прибавила более 80% - сектор оказался слишком чувствительным к любым сомнениям в темпах спроса.

При этом фон не полностью негативный: власти США ускоряют подключение дата-центров к электросетям, а Oracle готовится к масштабному размещению облигаций для займов на строительства новых центров обработки данных.
bloomberg

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

✔️ IBM совершила прорыв в квантовых вычислениях: на обычных FPGA-чипах

Всего через два дня после новости от Google - ещё один крупный квантовый прорыв.

IBM заявила, что один из её ключевых алгоритмов квантовой коррекции ошибок теперь способен работать в реальном времени на FPGA-чипах AMD, без использования экзотического оборудования.

Это делает квантовые вычисления быстрее, дешевле и ближе к практическому применению, чем ожидалось.

Алгоритм, который отслеживает и исправляет ошибки кубитов «на лету»,показал производительность в 10 раз выше необходимой, что стало важным шагом к созданию квантового компьютера Starling, запланированного на 2029 год.
Теперь IBM утверждает, что проект идёт на год впереди графика.

Исследовательская статья выйдет в понедельник.
Темп развития квантовых технологий заметно ускоряется.
reuters

✔️ Microsoft представила AI-браузер Edge - ответ на OpenAI Atlas

Через два дня после запуска OpenAI Atlas Microsoft представили обновлённый браузер Edge с новым режимом Copilot Mode. Это полноценный AI-бразуер, который понимает контекст вкладок, выполняет действия и способен продолжать проекты, используя историю пользователя.

Функция Actions позволяет голосом или через чат открывать страницы, находить нужную информацию, отписываться от рассылок и даже бронировать рестораны. Система Journeys группирует прошлую активность по темам и помогает вернуться к незавершённым задачам, предлагая логичные следующие шаги. Включение Page Context даёт Copilot доступ к истории для более точных и персонализированных ответов, однако это остаётся опциональной функцией, которую можно отключить в любой момент.

Edge также получил встроенный AI-защитник от фейковых всплывающих окон, менеджер паролей с проверкой на утечки.

Браузер уже доступен в странах, где работает Copilot, на Windows и macOS.
Microsoft

✔️ Google добавили reasoning в Google Earth

Google представила фреймворк Geospatial Reasoning на базе Gemini, который объединяет предиктивные модели и данные в единую систему анализа Земли.
Теперь ИИ способен рассуждать о реальных процессах, например, предсказывать землетрясения, оценивать риски и предлагать план эвакуации.

Система уже применяется в ВОЗ (WHO AFRO) для прогнозов вспышек холеры и у McGill & Partners для расчёта ущерба после ураганов.

Google превращает Google Earth из карты в разумный аналитический инструмент планеты.
google


✔️ Исследователи создали систему DiscoRL (Discovered Reinforcement Learning), где модель сама открыла правило обучения с подкреплением, не опираясь на человеческие алгоритмы вроде Q-Learning или PPO.

Мета-обучатель наблюдал за множеством агентов в разных средах и вывел универсальное правило обновления, которое улучшает поведение моделей без ручной настройки.
В итоге DiscoRL победил лучшие алгоритмы на Atari 57 и успешно перенёс этот навык на новые задачи.
nature

✔️ Hugging Face выпустила OpenEnv: универсальную среду для создания AI-агентов

Hugging Face открыла OpenEnv -платформуа где можно собирать, обучать и масштабировать агентов под ваши задачи.
Внутри уже есть всё: инструменты, плагины, API и поддержка обучения с подкреплением - без сторонних библиотек.

OpenEnv позволяет создавать системы, где агенты взаимодействуют, распределяют задачи и выполняют их самостоятельно.
Платформа полностью открыта и готова к использованию без ограничений.
HF

✔️ Qwen3-Max вышла в лидеры среди AI-трейдеров

На криптобенчмарке AlphaArena модели ИИ торгуют по $10 000 на площадке Hyperliquid, чтобы проверить качество торговых стратегий.
После старта, где лидировала DeepSeek V3.1, а GPT-5 показывала убыток около −39 %, Qwen3-Max обошла всех и заняла первое место.

Все участники - Qwen3-Max, DeepSeek V3.1, Claude 4.5 Sonnet, Gemini 2.5 Pro, Grok 4 и GPT-5 — торгуют в одинаковых условиях без приватных данных, что делает тест прозрачным.
На Polymarket оценивают шансы Qwen3-Max удержать лидерство в 45 %.

Организаторы планируют расширить эксперимент на акции и другие активы и запустить инвестплатформу для AI-агентов.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю

Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.

Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.

Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.

В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.

Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.

Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».

Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».

Один из фаундеров пошутил:

«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».


Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116

@ai_machinelearning_big_data


#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google

Читать полностью…

Machinelearning

🚀 Новый курс на Stepik: Computer Vision Engineer

Соберите production-ready CV-сервис: данные → модель → деплой → метрики.

Что внутри
• Задачи: классификация, сегментация, детекция, трекинг, OCR/Doc-AI
• Данные: разметка, баланс классов, аугментации (Albumentations), DataOps
• Инференс: ONNX/TensorRT, смешанная точность, батчинг, троттлинг
• Сервинг: FastAPI/gRPC, очереди сообщений, асинхронные пайплайны
• Надёжность: мониторинг, дрейф данных, алерты, регрессионные тесты
• MLOps для CV: mAP/IoU/Dice, A/B-тесты, бюджет по инфре
• Прод: Docker/Compose, CI/CD, профилирование p95 и cost/req

🎯 Итог: портфолио-проект + репозиторий + чек-листы деплоя и мониторинга + сертификат Stepik.

🔥 Промокод COMPUTERVISION: −30% на 48 часов.

👉 Пройти курс со скидкой

Читать полностью…

Machinelearning

🌟 NVIDIA OmniVinci: омнимодальная модель, которая бьет рекорды.

OmniVinci - модель, способная одновременно понимать и обрабатывать разные типы информации: текст, изображения, видео и звук.

Модель крайне эффективна, несмотря на то, что была обучена всего на 200 млрд. токенов (что в 6 раз меньше, чем у Qwen2.5-Omni - 1.2 трлн.). Это стало возможным благодаря архитектурным фишкам и тщательному подходу к подготовке данных.

В основе OmniVinci 3 компонента:

🟢Temporal Embedding Grouping (TEG) - упорядочивает эмбеддинги из видео и аудио по временным меткам.

🟢Constrained Rotary Time Embedding (CRTE) - кодирует уже абсолютное время.

🟢OmniAlignNet - выравнивает эмбеддинги видео и аудио в общем латентном пространстве с помощью контрастивного обучения.

Абляция показала, что вклад каждого элемента играет свою важную роль: базовая модель с простой конкатенацией токенов набирает в среднем 45.51 балла. Добавление TEG поднимает результат до 47.72 (+2.21), CRTE — до 50.25 (+4.74 от базовой), а финальный слой в виде OmniAlignNet доводит средний балл до 52.59, что в сумме дает прирост в 7.08 пункта.

Данные для обучения - 24 млн. диалогов, которые пропустили через систему, где отдельная LLM анализирует и объединяет описания из нескольких модальностей, создавая единую и корректную аннотацю.

Итоговый датасет на 36% состоял из изображений, на 21% из звуков, на 17% из речи, 15% - из смешанных данных и на 11% из видео.

В бенчах OmniVinci обошла всех конкурентов. На Worldsense модель набрала 48.23 балла против 45.40 у Qwen2.5-Omni. На Dailyomni - 66.50 против 47.45. В аудио-задачах OmniVinci тоже молодец: 58.40 в MMAR и 71.60 в MMAU.

В распознавании речи модель показала WER 1.7% на датасете LibriSpeech-clean.

Применение модели протестили на практике. В задаче классификации дефектов полупроводниковых пластин, OmniVinci достигла точности 98.1%, что лучше, чем у специализированной NVILA (97.6%), и у более крупную 40-миллиардную VILA (90.8%).


📌Лицензирование кода : Apache 2.0 License.

📌Лицензирование: NVIDIA One Way Noncommercial License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #NVIDIA #OmniVinci

Читать полностью…

Machinelearning

🔗 GigaChat-2-Max, Qwen3-Coder, GLM-4.6

И еще 15+ популярных open source LLM можно сейчас забрать бесплатно.

До 31 октября Cloud․ru раздает бесплатный доступ к текстовым моделям, эмбеддерам и реранкерам в сервисе Evolution Foundation Models.

Модели уже готовы к использованию — вам не нужно разворачивать инференс и писать код. Достаточно подключить через API, совместимый с OpenAI.

Тестим тут 🙌

Читать полностью…

Machinelearning

🤖 Unitree G1 Kungfu Kid V6.0 — это уже не просто робот, а настоящий кунг-фу мастер.

Полтора года тренировок сделали своё дело: он стал быстрее, сильнее и умнее.

У робота 43 степени свободы, куча сенсоров и гибридная система управления, которая позволяет ему постоянно учиться и оттачивать движения.

Кажется, мы реально приближаемся к моменту, когда роботы начнут тренироваться, как люди.
Интересно, чему G1 научится следующим - паркуру или еще чему покруче?

@ai_machinelearning_big_data


#AI #Robotics #Humanoid #Unitree #FutureTech

Читать полностью…

Machinelearning

🖥 Перед вами первое публичное выступление Сэма Альтмана

На видео - 19-летний студент Стэнфорда, который бросил университет, чтобы запустить свой первый стартап Loopt.

Loopt был геолокационным приложением - своего рода предшественником Find My Friends и функции геометок в соцсетях. В приложении можно было смотреть, какие места посещают ваши друзья, какие отзывы оставляют.

Loopt продали в 2012 году за $43,4 млн. После этого Сэм Альтман создал свой венчурный фонд Hydrazine, начал инвестировать в стартапы, затем стал главой акселератора Y Combinator — программы, которая помогает молодым компаниям расти и получать инвестиции.

А уже в 2015 году он соосновал OpenAI.

@ai_machinelearning_big_data


#openai #ml #ai #chatgpt #SamAltman

Читать полностью…

Machinelearning

🚀 Крутая новость в области термоядерной энергии

Учёные из MIT создали прорывную гибридную модель - сочетание искусственного интеллекта + физики, которая прогнозирует поведение плазмы в термоядерных реакторах и делает будущие функционирующие установки более надёжными.

🔥 Особо важный момент: модель умеет предсказывать, как ведёт себя сверхгорячая плазма во время остановки (выключения/снижения мощности), это один из самых опасных моментов работы реактора, когда могут происходить разрушительные возмущения.

В отличие от обычных ИИ-моделей, эта требует гораздо меньше тренировочных данных, но остаётся очень точной.

Учёные также разработали алгоритм, который превращает прогнозы модели в конкретные инструкции по управлению плазмой: например, как менять силу магнитов или температуру, чтобы плазма оставалась стабильной и безопасно “загасла”.

🟢 Новость: https://news.mit.edu/2025/new-prediction-model-could-improve-reliability-fusion-power-plants-1007

@ai_machinelearning_big_data

#mit #science

Читать полностью…

Machinelearning

✔️ Google выпустили EmbeddingGemma - открытую модель эмбеддингов для локальных AI-приложений

Google объявил о запуске новой модели EmbeddingGemma, созданной для работы прямо на устройствах - без подключения к интернету. Модель на 308 миллионов параметров, поддерживает более 100 языков и показывает лучшие результаты среди всех открытых моделей размером до 500 млн параметров по тесту MTEB.

После квантования модель кушает менее 200 МБ оперативной памяти, а генерация эмбеддингов занимает всего около 20 миллисекунд на устройствах с EdgeTPU.

Google внедрил технологию Matryoshka Representation Learning, позволяющую использовать разные размеры векторов - от 768 до 128 - в зависимости от задач и ресурсов устройства. Контекстное окно достигает 2000 токенов.

EmbeddingGemma уже интегрируется с популярными инструментами вроде SentenceTransformers, Llama.cpp, LangChain и Transformers.js, а её веса открыты для использования и коммерческой адаптации.
googleblog

✔️ Kani-TTS-370M - лёгкая и быстрая открытая модель синтеза речи

Вышла новая open-source модель Kani-TTS-370M, создающая естественное и выразительное звучание при крайне высокой скорости работы. Модель насчитывает 370 миллионов параметров и оптимизирована под потребительские GPU, включая RTX 3060, где она обеспечивает реальное время генерации речи.

Kani-TTS построена на сочетании NanoCodec и LFM2-350M, что обеспечивает компактность и качество, сравнимое с крупными нейронными TTS-системами. Разработчики использовали современные нейросетевые методы синтеза речи, чтобы добиться максимально естественной интонации и чистоты звучания.

Главный акцент сделан на эффективности и универсальности - модель легко разворачивается локально, подходит для встраивания в ассистентов, игровых персонажей и офлайн-озвучку, не требуя облачных вычислений.
HF

✔️Adobe прогнозирует рост AI-покупок в интернете на 520 % в период праздников 2025

По оценкам Adobe Analytics, объем онлайн-продаж в США в праздничный сезон 2025 года достигнет $253,4 млрд, что на 5,3 % больше, чем в прошлом году. AI-трафик при этом вырастет на 520 %, особенно в последние 10 дней перед Днём благодарения.

Почти половина американцев намерены воспользоваться AI-инструментами: 53 % - для поиска товаров, 40 %- для рекомендаций, 36 % — для поиска выгодных предложений, 30 % — чтобы вдохновиться идеями подарков.

Мобильные устройства останутся доминирующей платформой - 56,1 % транзакций пройдут с телефона. Среди драйверов роста - скидки (среднее снижение цен до 28 %), сервисы «купи сейчас, заплати позже» и активность в соцсетях, чья рекламная отдача вырастет на 51 %.
techcrunch

✔️ Kaleido: новая система для фотореалистичного нейронного рендеринга объектов и сцен.

Модель обучается не на 3D-структурах, а чисто на видео и многовидовых данных, что делает её универсальной и масштабируемой.

Kaleido превосходит все предыдущие генеративные модели в задачах с малым числом видов и впервые достигает качества рендеринга уровня InstantNGP в zero-shot режиме. Это шаг к гибкому world modeling, способному как точно реконструировать реальность, так и дорисовывать недостающие детали.
shikun

✔️ OpenAI и AMD заключили стратегическое партнерство: 6 гигаватт GPU и опцион на 10 % акций

OpenAI и AMD объявили масштабное сотрудничество: по условиям соглашения OpenAI развернёт 6 гигаватт графических процессоров AMD, начиная с первой волны - 1 гигаватт Instinct MI450 во второй половине 2026 года.

AMD, чтобы выровнять интересы, выдала OpenAI варрант на 160 млн своих акций, который будет реализован по мере достижения этапов развертывания и роста стоимости компании, что может превратить его в ~10 % долю.

Соглашение может принести AMD десятки миллиардов долларов дохода, а также усилить её позиции на рынке чипов для искусственного интеллекта.

Этот шаг позволяет OpenAI диверсифицировать аппаратные поставки и снизить зависимость от одного производителя, а также закладывает мощную основу для масштабных AI-инфраструктур следующих лет.
openai

@ai_machinelearning_big_data


#news #ai #ml

Читать полностью…

Machinelearning

📘 Learning Deep Representations of Data Distributions — новая бесплатная книга от исследователей UC Berkeley (Sam Buchanan, Druv Pai, Peng Wang, Yi Ma).

Главная идея книги - показать, почему и как глубокие нейросети учатся извлекать сжатые, информативные представления сложных данных, и что у них внутри:

💡В книге вы найдите:

🟠простое объяснение фундаментальных принципов архитектур нейросетей через оптимизацию и теорию информации.
🟠как модели формируют инвариантные и устойчивые представления
🟠связь с PCA, автоэнкодерами и дифференцируемыми отображениями — то есть, как нейросети по сути обобщают классические методы сжатия данных и учатся находить их оптимальное представление
🟠взгляд на обучение через энергию, энтропию и структуру данных
🟠свежие идеи для понимания LLM и генеративных моделей

📖 Читать онлайн: ma-lab-berkeley.github.io/deep-representation-learning-book

🖥 Github: https://github.com/Ma-Lab-Berkeley/deep-representation-learning-book

@ai_machinelearning_big_data

#book #deeplearning #representationlearning #ucberkeley #machinelearning

Читать полностью…

Machinelearning

🚀 Qwen Chat получил интересные апдейты

Теперь в Qwen Chat можно не только искать данные в интернете, но и сразу визуализировать их графиками благодаря связке *Code Interpreter + Web Search*.

Пример, можно прогноз погоды на 7 дней и получить готовый график прямо в чате.

📈 Если хотите быстро построить диаграмму по найденным данным, то просто напишите это в промоет.

Попробовать можно здесь: https://chat.qwen.ai

@ai_machinelearning_big_data


#qwen #llm

Читать полностью…

Machinelearning

13 сентября Илье Сегаловичу, одному из создателей и техническому директору «Яндекса», исполнился бы 61 год.

Для многих он был не только выдающимся инженером, но и человеком, который умел вдохновлять, поддерживать и замечать в других то, чего они сами в себе не видели.

Во многом именно он заложил основы внутренней культуры и ценности компании.

Яндекс опубликовал видео с воспоминаниями друзей и коллег Ильи, которые работали с ним в разные годы. Рекомендую посмотреть каждому!

Читать полностью…

Machinelearning

✔️ Новый агент от OpenAI может оказаться на базе GPT-5.

По данным TestingCatalog, в закрытом тестировании замечена модель под названием Alpha Agent, которая, предположительно, является улучшенной версией ChatGPT Agent.
Первые результаты тестов показывают значительно более высокую эффективность и возможности по сравнению с текущим поколением.

Если эти слухи подтвердятся, то 2025 год действительно может стать «годом агентов». Всё больше признаков указывает, что во второй половине года мы увидим по-настоящему полезные автономные системы, и предсказание Сэма Альтмана может оказаться верным.
X

✔️ Microsoft расширяет возможности 365 Copilot, добавив поддержку моделей Claude от Anthropic.

Теперь пользователи могут использовать как OpenAI, так и Claude — сначала в инструментах Researcher и Copilot Studio, а позже и в других продуктах.

Компания подчёркивает, что её стратегия «multi-model» выходит за рамки простого выбора: цель — объединить лучшие ИИ-модели индустрии, настроенные под рабочие процессы и потребности бизнеса.
Microsoft

✔️Германия объявила о крупной инициативе: SAP и OpenAI запускают проект “OpenAI for Germany”.

В отличие от обычных PR-заявлений, это поддержанный Microsoft проект с размещением на суверенной облачной инфраструктуре Германии. Это значит, что миллионы сотрудников государственного сектора будут пользоваться ИИ, созданным в Германии и для Германии, с учётом строгих требований к суверенитету данных, юридической прозрачности и национальным ценностям.

SAP выделяет 631 млрд евро инвестиций и дополнительно 20 млрд на цифровой суверенитет. Цель Берлина - к 2030 году увеличить вклад ИИ в экономику страны до 10% ВВП.

Долгое время Германию обвиняли в том, что она отстаёт в технологиях. Сегодня ситуация меняется: с суверенным ИИ, колоссальными вложениями и партнёрством SAP + OpenAI страна заявляет о возвращении в мировую технологическую гонку.

✔️Google выпустила руководство о том, как создавать и использовать AI-агентов.

Внутри: 10 способов применения AI-агентов, пошаговая инструкция по в Google Agentspace, более 100 полезных готовых промптов.
Гайд

✔️ NVIDIA представила способ создания RAG-агента на базе модели Nemotron, который может сам решать, когда искать информацию, а когда — генерировать ответ напрямую.

Новый подход, основанный на архитектуре ReAct (Reason + Act), интегрирует модели NeMo Retriever Embedding и Reranking, а также фреймворк LangGraph. Агент запускается в Jupyter и разворачивается через DevX Workshop.

Инструмент предлагает более гибкие интеллектуальные агенты, которые обращаются к базе знаний только по необходимости и способны решать комплексные задачи, комбинируя инструменты и принятие решений.
nvidia

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

⚡️ Новая модель LFM2-2.6B - лидер в классе до 3B параметров.

Ключевые особенности:
- лёгкая и быстрая, всего 2.6B параметров
- построена на архитектуре v2 (short convs + group query attention)
- обучена на 10 трлн токенов, поддерживает контекст до 32k

LFM2-2.6B - компактная, но мощная моделька для широкого спектра задач.

🟠Blog post: https://liquid.ai/blog/introducing-lfm2-2-6b-redefining-efficiency-in-language-models
🟠HF: https://huggingface.co/LiquidAI/LFM2-2.6B
🟠Model Bundle on LEAP: https://leap.liquid.ai/models?model=lfm2-2.6b

@ai_machinelearning_big_data

#AI #LLM #LFM2 #OpenSourceAI #Multilingual

Читать полностью…

Machinelearning

✔️ Подбора полезных бесплатных курсов и гайдов на выходные.

🖥 Microsoft представила свежий цикл лекций по Python и и ИИ.

Содержание: Курс включает 9 лекций, дополненных видео, подробными презентациями и примерами кода. Цикла - обучение разработке ИИ-агентов доступен написан понятно, даже для новичков в программирование.
Темы: В лекциях рассматриваются такие темы, такие как RAG (Retrieval-Augmented Generation), эмбеддинги, агенты и протокол MCP.
👉 Курс

💡Гарвардский курс по машинному обучению

Культовый трек CS 249 превратили в интерактивный учебник - и это, пожалуй, один из лучших стартов для инженеров, которые хотят делать реальные ML-системы, а не просто играться с моделями.

• Вся база по ML: объясняют фундамент с нуля, нужно только знание Python
• Проектирование систем и инженерия данных
• Подготовка датасетов, MLOps и мониторинг
• Развёртывание ИИ в IoT и продакшене

Это практический курс: не о формулах, а о том, как внедрять ML так, чтобы он приносил бизнесу прибыль.
Если хочешь понять, как модели живут в проде - идеальный вариант для старта.
👉Курс

🖥 Создай своего Bash-агента с NVIDIA Nemotron за 1 час

NVIDIA показала, как собрать AI-агента, который понимает твои запросы на естественном языке и сам выполняет команды Bash.
В основе модель Nemotron Nano 9B v2: компактная, быстрая, идеально подходит для локального эксперимента.

Агент умеет:
- распознавать команды на естественном языке («создай папку», «покажи файлы»),
- превращать эти команды в рабочие Bash-срипты
- спрашивать подтверждение перед выполнением.

Весь код занимает ~200 строк Python, работает через FastAPI и LangGraph.
Можно расширить под DevOps, Git-операции, анализ логов или управление сервером.
👉Гайд

⚡️ Kaggle Learn: интерактивные мини-курсы по Python, Data Science и машинному обучению.
Полностью бесплатно и максимально практично.


Что внутри:
• Python, Pandas, визуализация
• Основы машинного обучения и фичеринжиниринг
• Подготовка данных и работа с моделями

Практика без лишней теории учишься и сразу применяешь.
👉Курс

🖥 Гайд по шардингу баз данных от PlanetScale

Вы узнаете, как масштабировать базы данных через шардинг - разбиение данных по серверам для роста производительности и отказоустойчивости.

Главное:
• Шардинг нужен, когда одна база больше не справляется с нагрузкой.
• Есть два популярных подхода — по диапазону (range) и по хешу (hash).
• Важно выбрать стабильный ключ (например, user_id) и избегать кросс-шардовых запросов.
• Прокси-слой немного увеличивает задержку, но даёт масштабируемость.

Отличный материал, если хочешь понять, как строят системы уровня YouTube. А здесь много базы по SQL
Читать

🧠 60 готовых проектов по генеративному ИИ

Список из 60 проектов на GitHub с открытым кодом по генеративному ИИ 0от текстовых моделей до аудио и видео.

Каждый проект - с описанием и ссылкой на репозиторий. Можно выбрать идею, запустить локально и собрать своё AI-портфолио.
👉 Github

👉 Еще больше полезного.

@ai_machinelearning_big_data

#AI #MachineLearning #DataScience #ML #ИИ #freecourses

Читать полностью…

Machinelearning

🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей

Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто-то говорит что-то не из-за убеждений, а потому что ему заплатили или он хочет повлиять на мнение.

🔍 Суть эксперимента

Моделям давали тексты с разными источниками сообщений:
- нейтральные примеры, обычные советы или отзывы без выгоды для автора;
- скрытые мотивы, когда человек получает оплату или имеет выгоду (например, реклама под видом совета);
- явные предупреждения, где в тексте упоминалось, что «автор получает деньги за это».

Задача моделей - оценить, насколько можно доверять сообщению и заметить, есть ли скрытый интерес.

🧩 Результаты

На простых синтетических примерах (где мотив очевиден) LLM-ы действовали почти как люди и могли логически объяснить, что сообщение может быть предвзятым.

Но в реальных кейсах, например, в рекламных текстах или постах с платной интеграцией — модели часто не видели подвоха. Они воспринимали сообщения как искренние и достоверные.

Если модель напомнить заранее (prompt-hint), что стоит искать скрытые мотивы, результаты улучшались, но не сильно - эффект был частичный.

🧠 Неожиданный эффект

Оказалось, что модели с длинными цепочками рассуждений (chain-of-thought) хуже замечали манипуляции.
Когда модель начинает подробно рассуждать, она легче “запутывается” в деталях и теряет критичность к источнику, особенно если контент длинный и эмоциональный.

Чем длиннее и сложнее сообщение, тем хуже модель оценивает предвзятость. Это контрастирует с человеческим поведением: люди обычно, наоборот, становятся подозрительнее при сложных рекламных текстах.

Современные LLM могут анализировать факты, но слабо понимают мотивы, но им трудно различить, почему кто-то что-то говорит.

Это делает их уязвимыми для скрытого влияния, особенно если текст замаскирован под дружеский совет или экспертное мнение.

При использовании LLM для анализа новостей, рекомендаций или рекламы важно учитывать, что они могут не распознать коммерческую предвзятость.

📄 Исследование: arxiv.org/abs/2510.19687

@data_analysis_ml

Читать полностью…

Machinelearning

До конца октября на Финуслугах проходит акция: покупайте паи фондов на сумму от 10 000 ₽, держите их до конца года и получите шанс выиграть до 100 000 ₽.
 
🎯 Участвуют все фонды платформы
🎁 6 победителей
💸 Призы: 10 000 ₽, 50 000 ₽ и 100 000 ₽, уже за вычетом налога
 
Победителей объявят 15 января 2026 года.
Подробнее: по ссылке

Реклама. ПАО Московская биржа, ИНН 7702077840 erid: 2W5zFHg7Qwi

Читать полностью…

Machinelearning

🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI

Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».

Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.

Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.

🟠Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.

Проще говоря:

1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.

2) Затем применяют обратные операции, как будто “перематывают” процесс назад.

3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.

4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.

Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.

Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.

«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.

*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.

🟢 Статья: https://www.nature.com/articles/s41586-025-09526-6

@ai_machinelearning_big_data

#QuantumComputing #Google #AI #Nature #Physics

Читать полностью…

Machinelearning

📊 GenAI Traffic - статистика по ИИ трафику.

Свежие данные показывают, как меняется расстановка сил среди генеративных ИИ:
- ChatGPT продолжает терять долю рынка.
- Perplexity впервые перешагнул порог 2%.

🗓️ Год назад:
ChatGPT — 87.1%
Gemini — 6.4%
Perplexity — 1.7%
Claude — 1.7%
Copilot — 1.1%

🗓️ 6 месяцев назад:
ChatGPT — 78.8%
DeepSeek — 6.8%
Gemini — 5.5%
Grok — 3.1%
Perplexity — 1.5%
Claude — 1.3%
Copilot — 1.3%

🗓️ 3 месяца назад:
ChatGPT — 78.3%
Gemini — 8.7%
DeepSeek — 4.5%
Grok — 2.6%
Perplexity — 1.6%
Claude — 1.5%
Copilot — 1.2%

🗓️ Месяц назад:
ChatGPT — 76.4%
Gemini — 10.8%
DeepSeek — 4.0%
Grok — 2.2%
Perplexity — 2.0%
Claude — 1.9%
Copilot — 1.2%

🗓️ Сегодня:
ChatGPT — 74.1%
Gemini — 12.9%
DeepSeek — 3.7%
Perplexity — 2.4%
Grok — 2.0%
Claude — 2.0%
Copilot — 1.2%

📈 Тенденция очевидна:
ChatGPT теряет трафик, рынок становится более сбалансированным, а Gemini и Perplexity показывают стабильный рост интереса пользователей.

@ai_machinelearning_big_data


#AI #GenAI #Analytics #ChatGPT #Gemini #Perplexity #Claude #DeepSeek #Copilot

Читать полностью…

Machinelearning

25% рабочего времени специалистов кибербеза научились экономить в Авито.

Технологическая платформа внедрила в работу отдела кибербезопасности собственную языковую модель A-Vibe. Совместно с их же разработкой, сканером DeepSecrets, который можно найти на GitHub, модель эффективно анализирует потенциально чувствительные данные и находит 99 из 100 уязвимостей. Для этого LLM заранее обучили на тысячах примерах уязвимостей.

Команда исключила человеческий фактор и ускорила проверку кода в 5 раз. Если раньше бэклог из 50 000 угроз один специалист мог анализировать полгода, то сейчас машина справляется с этим объемом за рабочий день (6–8 часов). Это экономит около 25% рабочего времени, которое специалисты по кибербезопасности теперь могут направить на решение сложных задач.

Компания планирует внедрить ИИ в оценку рисков и моделирование угроз, также рассматривают применение возможностей нейросетей в безопасности на всех этапах разработки. Что логично: по данным IBM, компании, использующие ИИ, на 100 дней быстрее узнают об утечках данных.

Подпишитесь на полезные каналы Авито

Читать полностью…

Machinelearning

⚡️ Mamba-3 тихо и без объявления вышла на ICLR - и это может стать началом конца эпохи Transformers.

Новая архитектура Mamba-3 делает модели быстрее, стабильнее и эффективнее при работе с длинными контекстами.

Главная идея - не в слоях внимания, а в state-space моделях, где модель хранит и обновляет внутреннее состояние во времени.

📘 Краткие эускурс:
- Mamba-1 ввела непрерывную динамику и выборочное обновление памяти - помнила эффективно без высокой цены attention.
- Mamba-2 показала, что обновления состояния и attention - это две стороны одной математики, что ускорило вычисления на GPU.
- Mamba-3 довела концепцию до зрелости: теперь внутренняя память развивается плавнее и устойчивее за счёт перехода от простого шага Эйлера к трапецеидальному интегрированию.

Вместо простого шага Эйлера, как в Mamba-2, Mamba-3 аппроксимирует интеграл обновления состояния не только по правому концу интервала, но усреднением между началом и концом, с коэффициентом λ, зависящим от данных. Это даёт более точное приближение (второго порядка) и делает динамику состояния более выразительной.

🧠 Что изменилось под капотом:

- Память стала «ритмичной»: теперь модель может хранить повторяющиеся и периодические паттерны (например, структуры языка или музыки).

- Новый multi-input-multi-output дизайн позволяет обрабатывать несколько потоков параллельно — идеально для современных GPU.

⚙️ Что это даёт на практике:
- Эффективная работа с длинными последовательностями: документы, геномы, временные ряды.

- Линейное время выполнения и стабильная задержка делают её идеальной для реального времени: чат-ботов, перевода, речи.

- Энергоэффективность и масштабируемость открывают путь к on-device AI, где большие модели работают локально, без облака.

Mamba-3 - это не просто ускоренная альтернатива Transformers.

Это новая архитектура, которая объединяет глубокое понимание контекста, скорость и устойчивость, от серверных систем до умных устройств.

🟢 Подробности: https://openreview.net/pdf?id=HwCvaJOiCj

@ai_machinelearning_big_data


#ssm #mamba3 #llm,#architecture #ai

Читать полностью…

Machinelearning

Команде Kandinsky нужны именно вы? Сейчас узнаем! 😏

1) Разрабатывать и внедрять техники ускорения инференса.
2) Использовать и дорабатывать существующие ML-компиляторы.
3) Улучшать процессы обучения с помощью исследований.

Если вы трижды ответили «да» — добро пожаловать на One Day Offer, который пройдёт 11 октября.

Зарегистрироваться!

Читать полностью…

Machinelearning

🧩 Новая архитектура нейросетей от Samsung: Tiny Recursive Model (TRM) - обошла DeepSeek-R1, Gemini 2.5 Pro и o3-mini в задачах рассуждения ARC-AGI 1 и ARC-AGI 2.

✔️ Размер модели - всего 7 миллионов параметров и около 1000 обучающих примеров.

Это меньше в 10 000 раз, чем у современных LLM, но результат лучше.

Как работает TRM:

1️⃣ Черновой ответ: модель сразу формирует быстрый набросок решения, а не пишет его по словам.
2️⃣ Скрачпад: создаёт внутреннее пространство для логики и промежуточных рассуждений.
3️⃣ Самокритика: многократно (6 раз) проверяет свои рассуждения, уточняя и исправляя ошибки.
4️⃣ Переписывание: на основе улучшённой логики создаёт новую, более точную версию ответа.
5️⃣ Цикличность: повторяет процесс до 16 раз, пока не достигнет уверенного, логически цельного решения.

💡 Чем интересна модель:

- Меньше затрат на вычисления, а результат выше; высокая эффективность при низких издержках.
- Доказательство того, что собственная логика и архитектура могут быть сильнее простого размера модели. Можно коротко описать ее: «думай, прежде чем действовать».
- Мощные рассуждающие системы становятся доступными даже без огромных кластеров, модель можно запускать на ограниченных ресурсах.

Это не просто «компактаная LLM», это другой способ мышления: модель, которая действительно *думает, прежде чем говорить*.

🟠Статья: https://arxiv.org/abs/2510.04871v1
🟠Github: https://github.com/SamsungSAILMontreal/TinyRecursiveModels

@ai_machinelearning_big_data

#TinyRecursiveModels #TRM #DeepLearning #NeuralNetworks

Читать полностью…

Machinelearning

🔥 Главное с OpenAI DevDay 2025

✔️ App SDK
Позволяет создать нативные приложенийяпрямо внутри ChatGPT.

Идея простая: теперь не нужно выходить из ChatGPT, чтобы делать привычные вещи.
Можно прямо в чате работать с дизайном в Figma, создавать презентации в Canva, искать жильё на Booking или смотреть курсы на Coursera — всё в одном окне.

Платформа поддерживает авторизацию, оплату и подключение внешних сервисов,
а значит, ChatGPT становится центром, где совмещаются ИИ, приложения и автоматизация задач.

Скоро разработчики (вайбкодеры) смогут добавлять свои приложения и зарабатывать на них через ChatGPT SDK.

✔️Agent Builder

По сути это убийца n8n и Zapier.
Это интуитивно понятный**визуальный конструктор**, где можно создавать своих ИИ-агентов без единой строчки кода.
Просто перетаскиваешь блоки, подключаешь MCP и ChatKit — и агент сам ищет файлы, анализирует данные и выполняет задачи.
Инструмент уже доступен всем.
OpenAi умеют в дизайн, должно быть удобно.
Можно уже попробовать: https://platform.openai.com/agent-builder

✔️ Обновили Codex

Вышел из беты, получил интеграцию со Slack и собственный SDK.
На демо агент управлял светом и экраном голосом - без кода.

На презентации заявили, что теперь почти весь их код пишется с помощью Codex

Благодаря Codex разработчики OpenAI стали отправлять на 70% больше pull-request’ов в неделю, чем раньше.

Теперь у кодекса появляется интеграция со Slack и SDK, чтобы разработчики могли встраивать его в свои рабочие процессы.

Прямо в эфире Codex написал код для управления камерой, сам собрал интерфейс и **запустил готовое при

✔️ GPT-5 Pro - доступна по API

$15 за ввод и $120 за вывод за 1M токенов

Gpt-realtime-mini - на 70% дешевле, подходит для мгновенных ответов и потоковых задач

✔️ Sora 2 - будет доступна по API.

Можно будет генерировать видео прямо из кода

PS: Agent Builder выглядит действительно интересно - интуитивный, гибкий, инструмент с большим потенциало
м.
А вот насколько полезными окажутся приложения внутри ChatGPT, не особо понятно.

OpenAI не боится экспериментировать.
Они развивают ChatGPT как платформу, ищут
новые варианты захвата рынка и пробуют смелые идеи. Это дорогого стоит.

Их интерфейс просто топ: минимализм, аккуратность, почти в духе Apple. UX - на уровне искусства.

У OpenAI уже более 800 млн активных пользователей в неделю и они обрабатывают 6 миллиардов токенов в минуту!

К концу года число пользователей, похоже, вплотную подойдёт к 1 миллиарду.

Но гонка только начинается.
Google явно готовит ответ - Gemini 3 обещает быть топом. Другие игроки тоже не дремлют.

@ai_machinelearning_big_data


#openai #chatgpt #llm #ml #ai

Читать полностью…

Machinelearning

🔥 Интересный кейс про ML в картографии

В статье рассказано про развитие детектора Яндекс Карт для распознавания дорожных знаков на панорамах — от бинарного классификатора до нейросетей. Сейчас детектор умеет находить почти все знаки в России. Первая же версия создавалась в 2016 году с помощью небольшого датасета и модели на классических подходах компьютерного зрения. Использовали ACFFeatures + WaldBoost с бинарными решающими деревьями.

Классические методы страдали «близорукостью» — детектили знаки только «в лоб», повороты пропускали, поэтому перешли к новой версии на свёрточных нейросетях и натренировали Faster R-CNN.

Нетривиальные архитектурные решения:
▪️Объединили все знаки ограничения скорости в один класс + дополнительная сеть для распознавания чисел на вырезанном знаке
▪️ То же с направлениями по полосам — детектор находит знак, дополнительная модель выдаёт бинарный вектор направлений
▪️ Создали отдельную модель для обработки найденных знаков многополосности. Полная техническая реализация описана в статье.

🟢 Главная проблема — сбор датасета

Как обычно, всё упёрлось в данные для обучения. Терабайты фотографий улиц прогонять через асессоров — дорого и неэффективно. Выстроили такой процесс: сначала автоматически находить фотографии, где есть дорожные знаки, и только потом отправлять их на разметку асессорам.

🟢 Финальные цифры:
▪️ 300 тысяч фотографий в датасете
▪️ 1,5 миллиона размеченных знаков
▪️200+ поддерживаемых классов знаков

Любопытный факт: самый частый знак в датасете — пешеходный переход.

Практический результат: всё это помогает автоматически обновлять данные в Картах, по которым сервис строит маршруты, выдаёт голосовые подсказки о том, с какой скоростью ехать и тд. В год так вносится более 200 тысяч автообновлений

⚡️ Статья: https://habr.com/ru/companies/yandex/articles/946338/

@ai_machinelearning_big_data

#ai #ml

Читать полностью…

Machinelearning

📘На Stepik вышел курс — «AI Agents PRO»

Хотите вывести бота из ноутбука в реальный бизнес-процесс? Этот курс — то, что поможет довести прототип до production-ready агента.

• Архитектура: LangGraph, очереди сообщений,CI/CD
• Надёжность: ретраи, guardrails, работа с PII
• Метрики качества и A/B-тесты
• Дашборды и наблюдаемость
• Интеграции: CRM, helpdesk, базы данных
• Итоговый проект — свой агент под реальную задачу (с код-ревью и менторством)

🎓 К концу курса у вас будет рабочий агент, который можно показать на собесе или внедрить в продукт.

🚀 Старт потока — уже 29 сентября.

👉 Перейти на курс со скидкой 30% (действует 24ч)

Читать полностью…

Machinelearning

🚀Привет! Хочешь прокачаться до уровня Senior, но не хочешь покупать кота в мешке? У нас решение!

Приходи на бесплатные вебинары продвинутого курса «Machine Learning. Advanced» от OTUS. Почувствуй мощь обучения в деле:

— Advanced Data Science — что отличает сеньоров от ML-новичков?
— Рекомендательные системы на матричных разложениях — создавай как в Spotify.— Властелин Хаоса — сила метода Монте-Карло в ML. Live-код на Python!

Проведем тест-драйв курса без риска. Понравится — забирай полную программу со скидкой по промокоду MLADV_10.

Преподаватели — практики из SberDevices и не только. Только хардкор, только ML-магия! Регистрируйся сейчас → https://otus.pw/EzmQ/?erid=2W5zFJRFSPr

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Machinelearning

⚡️Магнитный транзистор от MIT: электроника будущего

Инженеры MIT создали новый тип транзистора - магнитный транзистор.
Обычные транзисторы работают только за счёт электричества, а здесь добавлен магнитный контроль.

Что это даёт:
- транзистор может быть и переключателем, и памятью одновременно
- работает быстрее и потребляет меньше энергии
- размеры схем можно сделать ещё меньше

Почему это интересно:
- Сейчас в компьютерах логика и память разделены: процессор считает, память хранит.
- Новый подход объединяет эти функции прямо в одном элементе. Это может упростить схемы и ускорить работу устройств.

Вызовы:
- нужно научиться производить такие транзисторы массово
- переключение пока требует магнитного поля, а в будущем его хотят делать электрическим током

Перспективы:
Если технология выстрелит, мы получим мощные и экономичные чипы, что особенно важно для смартфонов, носимой электроники и систем с ограниченными ресурсами.

🟠 Статья: https://news.mit.edu/2025/mit-engineers-develop-magnetic-transistor-more-energy-efficient-electronics-0923

@ai_machinelearning_big_data


#MIT #технологии #электроника #полупроводники

Читать полностью…

Machinelearning

🖥 Huawei строит план, чтобы догнать Nvidia за 3 года - ставка не на мощность отдельного чипа, а на масштабирование кластеров.

Идея проста: собрать тысячи Ascend-чипов в **SuperPod**-стойки с новой шиной UnifiedBus, чтобы они работали как единый ускоритель.

В 2026 году Huawei обещает SuperPod 950 с 8,192 чипами, что даст:
- в 6,7 раза больше вычислительной мощности,
- в 15 раз больше памяти,
- в 62 раза выше пропускную способность,
чем у Nvidia NVL144.

К 2028-му скорость связи между чипами хотят поднять до 4 Тбит/с (у Nvidia сейчас 1,8).

В будущем Huawei говорит даже о кластерах из миллиона чипов.

⚠️ Но главное слабое место — производство. После санкций компания лишилась доступа к фабрикам TSMC. Попытка сделать 5нм чип Ascend 910D провалилась: слишком мало годных кристаллов выходит с пластин. Последний реальный прорыв — 7нм чип в Mate 60 Pro в 2023 году.

У Китайцев есть амбиции и архитектура, но нет надёжного производства. Это и есть главный барьер на пути к конкуренции с Nvidia.

🟠Новость: bloomberg.com/news/articles/2025-09-23/huawei-plans-three-year-campaign-to-overtake-nvidia-in-ai-chips

@ai_machinelearning_big_data


#Huawei #Nvidia #AIChips #SuperPod

Читать полностью…
Subscribe to a channel