353148
Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml
📊 GenAI Traffic - статистика по ИИ трафику.
Свежие данные показывают, как меняется расстановка сил среди генеративных ИИ:
- ChatGPT продолжает терять долю рынка.
- Perplexity впервые перешагнул порог 2%.
🗓️ Год назад:
ChatGPT — 87.1%
Gemini — 6.4%
Perplexity — 1.7%
Claude — 1.7%
Copilot — 1.1%
🗓️ 6 месяцев назад:
ChatGPT — 78.8%
DeepSeek — 6.8%
Gemini — 5.5%
Grok — 3.1%
Perplexity — 1.5%
Claude — 1.3%
Copilot — 1.3%
🗓️ 3 месяца назад:
ChatGPT — 78.3%
Gemini — 8.7%
DeepSeek — 4.5%
Grok — 2.6%
Perplexity — 1.6%
Claude — 1.5%
Copilot — 1.2%
🗓️ Месяц назад:
ChatGPT — 76.4%
Gemini — 10.8%
DeepSeek — 4.0%
Grok — 2.2%
Perplexity — 2.0%
Claude — 1.9%
Copilot — 1.2%
🗓️ Сегодня:
ChatGPT — 74.1%
Gemini — 12.9%
DeepSeek — 3.7%
Perplexity — 2.4%
Grok — 2.0%
Claude — 2.0%
Copilot — 1.2%
📈 Тенденция очевидна:
ChatGPT теряет трафик, рынок становится более сбалансированным, а Gemini и Perplexity показывают стабильный рост интереса пользователей.
@ai_machinelearning_big_data
#AI #GenAI #Analytics #ChatGPT #Gemini #Perplexity #Claude #DeepSeek #Copilot
25% рабочего времени специалистов кибербеза научились экономить в Авито.
Технологическая платформа внедрила в работу отдела кибербезопасности собственную языковую модель A-Vibe. Совместно с их же разработкой, сканером DeepSecrets, который можно найти на GitHub, модель эффективно анализирует потенциально чувствительные данные и находит 99 из 100 уязвимостей. Для этого LLM заранее обучили на тысячах примерах уязвимостей.
Команда исключила человеческий фактор и ускорила проверку кода в 5 раз. Если раньше бэклог из 50 000 угроз один специалист мог анализировать полгода, то сейчас машина справляется с этим объемом за рабочий день (6–8 часов). Это экономит около 25% рабочего времени, которое специалисты по кибербезопасности теперь могут направить на решение сложных задач.
Компания планирует внедрить ИИ в оценку рисков и моделирование угроз, также рассматривают применение возможностей нейросетей в безопасности на всех этапах разработки. Что логично: по данным IBM, компании, использующие ИИ, на 100 дней быстрее узнают об утечках данных.
Подпишитесь на полезные каналы Авито
⚡️ Mamba-3 тихо и без объявления вышла на ICLR - и это может стать началом конца эпохи Transformers.
Новая архитектура Mamba-3 делает модели быстрее, стабильнее и эффективнее при работе с длинными контекстами.
Главная идея - не в слоях внимания, а в state-space моделях, где модель хранит и обновляет внутреннее состояние во времени.
📘 Краткие эускурс:
- Mamba-1 ввела непрерывную динамику и выборочное обновление памяти - помнила эффективно без высокой цены attention.
- Mamba-2 показала, что обновления состояния и attention - это две стороны одной математики, что ускорило вычисления на GPU.
- Mamba-3 довела концепцию до зрелости: теперь внутренняя память развивается плавнее и устойчивее за счёт перехода от простого шага Эйлера к трапецеидальному интегрированию.
Вместо простого шага Эйлера, как в Mamba-2, Mamba-3 аппроксимирует интеграл обновления состояния не только по правому концу интервала, но усреднением между началом и концом, с коэффициентом λ, зависящим от данных. Это даёт более точное приближение (второго порядка) и делает динамику состояния более выразительной.
🧠 Что изменилось под капотом:
- Память стала «ритмичной»: теперь модель может хранить повторяющиеся и периодические паттерны (например, структуры языка или музыки).
- Новый multi-input-multi-output дизайн позволяет обрабатывать несколько потоков параллельно — идеально для современных GPU.
⚙️ Что это даёт на практике:
- Эффективная работа с длинными последовательностями: документы, геномы, временные ряды.
- Линейное время выполнения и стабильная задержка делают её идеальной для реального времени: чат-ботов, перевода, речи.
- Энергоэффективность и масштабируемость открывают путь к on-device AI, где большие модели работают локально, без облака.
Mamba-3 - это не просто ускоренная альтернатива Transformers.
Это новая архитектура, которая объединяет глубокое понимание контекста, скорость и устойчивость, от серверных систем до умных устройств.
🟢 Подробности: https://openreview.net/pdf?id=HwCvaJOiCj
@ai_machinelearning_big_data
#ssm #mamba3 #llm,#architecture #ai
Команде Kandinsky нужны именно вы? Сейчас узнаем! 😏
1) Разрабатывать и внедрять техники ускорения инференса.
2) Использовать и дорабатывать существующие ML-компиляторы.
3) Улучшать процессы обучения с помощью исследований.
Если вы трижды ответили «да» — добро пожаловать на One Day Offer, который пройдёт 11 октября.
Зарегистрироваться!
🧩 Новая архитектура нейросетей от Samsung: Tiny Recursive Model (TRM) - обошла DeepSeek-R1, Gemini 2.5 Pro и o3-mini в задачах рассуждения ARC-AGI 1 и ARC-AGI 2.
✔️ Размер модели - всего 7 миллионов параметров и около 1000 обучающих примеров.
Это меньше в 10 000 раз, чем у современных LLM, но результат лучше.
Как работает TRM:
1️⃣ Черновой ответ: модель сразу формирует быстрый набросок решения, а не пишет его по словам.
2️⃣ Скрачпад: создаёт внутреннее пространство для логики и промежуточных рассуждений.
3️⃣ Самокритика: многократно (6 раз) проверяет свои рассуждения, уточняя и исправляя ошибки.
4️⃣ Переписывание: на основе улучшённой логики создаёт новую, более точную версию ответа.
5️⃣ Цикличность: повторяет процесс до 16 раз, пока не достигнет уверенного, логически цельного решения.
💡 Чем интересна модель:
- Меньше затрат на вычисления, а результат выше; высокая эффективность при низких издержках.
- Доказательство того, что собственная логика и архитектура могут быть сильнее простого размера модели. Можно коротко описать ее: «думай, прежде чем действовать».
- Мощные рассуждающие системы становятся доступными даже без огромных кластеров, модель можно запускать на ограниченных ресурсах.
Это не просто «компактаная LLM», это другой способ мышления: модель, которая действительно *думает, прежде чем говорить*.
🟠Статья: https://arxiv.org/abs/2510.04871v1
🟠Github: https://github.com/SamsungSAILMontreal/TinyRecursiveModels
@ai_machinelearning_big_data
#TinyRecursiveModels #TRM #DeepLearning #NeuralNetworks
🔥 Главное с OpenAI DevDay 2025
✔️ App SDK
Позволяет создать нативные приложенийяпрямо внутри ChatGPT.
Идея простая: теперь не нужно выходить из ChatGPT, чтобы делать привычные вещи.
Можно прямо в чате работать с дизайном в Figma, создавать презентации в Canva, искать жильё на Booking или смотреть курсы на Coursera — всё в одном окне.
Платформа поддерживает авторизацию, оплату и подключение внешних сервисов,
а значит, ChatGPT становится центром, где совмещаются ИИ, приложения и автоматизация задач.
Скоро разработчики (вайбкодеры) смогут добавлять свои приложения и зарабатывать на них через ChatGPT SDK.
✔️Agent Builder
По сути это убийца n8n и Zapier.
Это интуитивно понятный**визуальный конструктор**, где можно создавать своих ИИ-агентов без единой строчки кода.
Просто перетаскиваешь блоки, подключаешь MCP и ChatKit — и агент сам ищет файлы, анализирует данные и выполняет задачи.
Инструмент уже доступен всем.
OpenAi умеют в дизайн, должно быть удобно.
Можно уже попробовать: https://platform.openai.com/agent-builder
✔️ Обновили Codex
Вышел из беты, получил интеграцию со Slack и собственный SDK.
На демо агент управлял светом и экраном голосом - без кода.
На презентации заявили, что теперь почти весь их код пишется с помощью Codex
Благодаря Codex разработчики OpenAI стали отправлять на 70% больше pull-request’ов в неделю, чем раньше.
Теперь у кодекса появляется интеграция со Slack и SDK, чтобы разработчики могли встраивать его в свои рабочие процессы.
Прямо в эфире Codex написал код для управления камерой, сам собрал интерфейс и **запустил готовое при
✔️ GPT-5 Pro - доступна по API
$15 за ввод и $120 за вывод за 1M токенов
Gpt-realtime-mini - на 70% дешевле, подходит для мгновенных ответов и потоковых задач
✔️ Sora 2 - будет доступна по API.
Можно будет генерировать видео прямо из кода
PS: Agent Builder выглядит действительно интересно - интуитивный, гибкий, инструмент с большим потенциало
м.
А вот насколько полезными окажутся приложения внутри ChatGPT, не особо понятно.
OpenAI не боится экспериментировать.
Они развивают ChatGPT как платформу, ищут
новые варианты захвата рынка и пробуют смелые идеи. Это дорогого стоит.
Их интерфейс просто топ: минимализм, аккуратность, почти в духе Apple. UX - на уровне искусства.
У OpenAI уже более 800 млн активных пользователей в неделю и они обрабатывают 6 миллиардов токенов в минуту!
К концу года число пользователей, похоже, вплотную подойдёт к 1 миллиарду.
Но гонка только начинается.
Google явно готовит ответ - Gemini 3 обещает быть топом. Другие игроки тоже не дремлют.
@ai_machinelearning_big_data
#openai #chatgpt #llm #ml #ai
🔥 Интересный кейс про ML в картографии
В статье рассказано про развитие детектора Яндекс Карт для распознавания дорожных знаков на панорамах — от бинарного классификатора до нейросетей. Сейчас детектор умеет находить почти все знаки в России. Первая же версия создавалась в 2016 году с помощью небольшого датасета и модели на классических подходах компьютерного зрения. Использовали ACFFeatures + WaldBoost с бинарными решающими деревьями.
Классические методы страдали «близорукостью» — детектили знаки только «в лоб», повороты пропускали, поэтому перешли к новой версии на свёрточных нейросетях и натренировали Faster R-CNN.
Нетривиальные архитектурные решения:
▪️Объединили все знаки ограничения скорости в один класс + дополнительная сеть для распознавания чисел на вырезанном знаке
▪️ То же с направлениями по полосам — детектор находит знак, дополнительная модель выдаёт бинарный вектор направлений
▪️ Создали отдельную модель для обработки найденных знаков многополосности. Полная техническая реализация описана в статье.
🟢 Главная проблема — сбор датасета
Как обычно, всё упёрлось в данные для обучения. Терабайты фотографий улиц прогонять через асессоров — дорого и неэффективно. Выстроили такой процесс: сначала автоматически находить фотографии, где есть дорожные знаки, и только потом отправлять их на разметку асессорам.
🟢 Финальные цифры:
▪️ 300 тысяч фотографий в датасете
▪️ 1,5 миллиона размеченных знаков
▪️200+ поддерживаемых классов знаков
Любопытный факт: самый частый знак в датасете — пешеходный переход.
Практический результат: всё это помогает автоматически обновлять данные в Картах, по которым сервис строит маршруты, выдаёт голосовые подсказки о том, с какой скоростью ехать и тд. В год так вносится более 200 тысяч автообновлений
⚡️ Статья: https://habr.com/ru/companies/yandex/articles/946338/
@ai_machinelearning_big_data
#ai #ml
📘На Stepik вышел курс — «AI Agents PRO»
Хотите вывести бота из ноутбука в реальный бизнес-процесс? Этот курс — то, что поможет довести прототип до production-ready агента.
• Архитектура: LangGraph, очереди сообщений,CI/CD
• Надёжность: ретраи, guardrails, работа с PII
• Метрики качества и A/B-тесты
• Дашборды и наблюдаемость
• Интеграции: CRM, helpdesk, базы данных
• Итоговый проект — свой агент под реальную задачу (с код-ревью и менторством)
🎓 К концу курса у вас будет рабочий агент, который можно показать на собесе или внедрить в продукт.
🚀 Старт потока — уже 29 сентября.
👉 Перейти на курс со скидкой 30% (действует 24ч)
🚀Привет! Хочешь прокачаться до уровня Senior, но не хочешь покупать кота в мешке? У нас решение!
Приходи на бесплатные вебинары продвинутого курса «Machine Learning. Advanced» от OTUS. Почувствуй мощь обучения в деле:
— Advanced Data Science — что отличает сеньоров от ML-новичков?
— Рекомендательные системы на матричных разложениях — создавай как в Spotify.— Властелин Хаоса — сила метода Монте-Карло в ML. Live-код на Python!
Проведем тест-драйв курса без риска. Понравится — забирай полную программу со скидкой по промокоду MLADV_10.
Преподаватели — практики из SberDevices и не только. Только хардкор, только ML-магия! Регистрируйся сейчас → https://otus.pw/EzmQ/?erid=2W5zFJRFSPr
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
⚡️Магнитный транзистор от MIT: электроника будущего
Инженеры MIT создали новый тип транзистора - магнитный транзистор.
Обычные транзисторы работают только за счёт электричества, а здесь добавлен магнитный контроль.
Что это даёт:
- транзистор может быть и переключателем, и памятью одновременно
- работает быстрее и потребляет меньше энергии
- размеры схем можно сделать ещё меньше
Почему это интересно:
- Сейчас в компьютерах логика и память разделены: процессор считает, память хранит.
- Новый подход объединяет эти функции прямо в одном элементе. Это может упростить схемы и ускорить работу устройств.
Вызовы:
- нужно научиться производить такие транзисторы массово
- переключение пока требует магнитного поля, а в будущем его хотят делать электрическим током
Перспективы:
Если технология выстрелит, мы получим мощные и экономичные чипы, что особенно важно для смартфонов, носимой электроники и систем с ограниченными ресурсами.
🟠 Статья: https://news.mit.edu/2025/mit-engineers-develop-magnetic-transistor-more-energy-efficient-electronics-0923
@ai_machinelearning_big_data
#MIT #технологии #электроника #полупроводники
🖥 Huawei строит план, чтобы догнать Nvidia за 3 года - ставка не на мощность отдельного чипа, а на масштабирование кластеров.
Идея проста: собрать тысячи Ascend-чипов в **SuperPod**-стойки с новой шиной UnifiedBus, чтобы они работали как единый ускоритель.
В 2026 году Huawei обещает SuperPod 950 с 8,192 чипами, что даст:
- в 6,7 раза больше вычислительной мощности,
- в 15 раз больше памяти,
- в 62 раза выше пропускную способность,
чем у Nvidia NVL144.
К 2028-му скорость связи между чипами хотят поднять до 4 Тбит/с (у Nvidia сейчас 1,8).
В будущем Huawei говорит даже о кластерах из миллиона чипов.
⚠️ Но главное слабое место — производство. После санкций компания лишилась доступа к фабрикам TSMC. Попытка сделать 5нм чип Ascend 910D провалилась: слишком мало годных кристаллов выходит с пластин. Последний реальный прорыв — 7нм чип в Mate 60 Pro в 2023 году.
У Китайцев есть амбиции и архитектура, но нет надёжного производства. Это и есть главный барьер на пути к конкуренции с Nvidia.
🟠Новость: bloomberg.com/news/articles/2025-09-23/huawei-plans-three-year-campaign-to-overtake-nvidia-in-ai-chips
@ai_machinelearning_big_data
#Huawei #Nvidia #AIChips #SuperPod
✔️ OpenAI активно переманивает инженеров из Apple для работы над своим первым железом, которое планируется к выпуску в 2026–27 годах.
В 2025 году в OpenAI перешло более двадцати специалистов Apple. Компания привлекает их миллионными пакетами акций и менее бюрократичной культурой. Среди новых сотрудников - дизайнер звуковых волн для Siri Сайрус Ирани и бывший топ-менеджер Apple Watch Эрик де Йонг.
Причины ухода называют одни и те же: медленные продуктовые обновления Apple и слабая динамика акций. Ситуация настолько встревожила Купертино, что было отменено выездное совещание в Китае, чтобы удержать ключевых сотрудников ближе к офису.
Новость
✔️ Qwen представила новую модель Qwen3-TTS-Flash для преобразования текста в речь. Разработчики называют её самой стабильной в линейке.
Модель поддерживает 14 выразительных голосов и умеет работать с 10 языками, включая русский. Задержка генерации составляет всего 97 миллисекунд — примерно одна десятая секунды, что открывает путь к полноценным голосовым ассистентам в реальном времени.
Qwen3-TTS-Flash
✔️ OpenAI объявила о заключении стратегического партнёрства с Nvidia, которое уже называют историческим.
Главное в сделке - Nvidia инвестирует до 100 миллиардов долларов, предоставляя инфраструктуру для обучения и запуска моделей OpenAI. Речь идёт о строительстве датацентров совокупной мощностью не менее 10 гигаватт, что эквивалентно миллионам GPU. Таким образом Nvidia становится ключевым поставщиком вычислительных мощностей для компании Сэма Альтмана.
Первый кластер на базе платформы NVIDIA Vera Rubin планируется запустить во второй половине 2026 года.
Openai
✔️Инженеры-биомедики из Duke University разработали платформу TuNa-AI, которая сочетает искусственный интеллект и робототехнику для создания и оптимизации наночастиц, используемых в разработке лекарств.
В отличие от существующих моделей, ограниченных фиксированными соотношениями материалов, TuNa-AI может исследовать как состав, так и количество ингредиентов, что позволяет повысить стабильность и эффективность наночастиц.
В рамках первых испытаний система показала значимые результаты. Успешность формирования наночастиц увеличилась на 42,9%. При использовании препарата венетоклакс, применяемого в лечении лейкоза, удалось улучшить его растворимость и эффективность подавления раковых клеток. В другом эксперименте содержание канцерогенного вспомогательного вещества удалось сократить на 75%, сохранив при этом эффективность химиотерапии и улучшив распределение препарата в организме.
✔️ И еще про Qwen, китайцы представили модель Qwen-Image-Edit-2509, которую уже называют «убийцей» Nano Banana. Она умеет редактировать сразу несколько изображений и комбинировать их в единый результат.
Модель лучше сохраняет контекст, лица и целостность объектов, а встроенный ControlNet позволяет менять позы персонажей для точного управления сценой.
Qwen-Image-Edit
@ai_machinelearning_big_data
#news #ai #ml
✔️ Google представил обновлённый Chrome с искусственным интеллектом, и теперь браузер перестаёт быть просто окном в интернет.
Главное новшество - Gemini внутри Chrome. Ассистент понимает, что у вас открыто, и помогает быстро найти нужное среди вкладок, упростить работу с большим количеством информации и не потеряться в хаосе открытых страниц.
Вторая фишка - AI прямо в адресной строке. Больше не нужно открывать отдельный поиск: теперь можно задать вопрос прямо в omnibox и сразу получить осмысленный ответ, а не просто список ссылок.
Еще ИИ анализирует сайты и предупреждает о подозрительных страницах, защищает пароли и блокирует спам-уведомления, делая интернет-серфинг заметно безопаснее.
Пока обновление доступно только в США на Windows и Mac, и работает на английском языке. Но уже очевидно, что Google планирует расширить географию и языковую поддержку.
Google
✔️ DeepMind открыла новый путь в изучении загадок гидродинамики
Учёные из Google DeepMind применили искусственный интеллект, чтобы разобраться с задачами, над которыми математики спорят уже больше века. Речь идёт о «сингулярностях» - моментах, когда уравнения движения жидкости начинают давать бессмысленные ответы вроде «бесконечной скорости» или «бесконечного давления».
Такие сбои возникают, например, в уравнениях Буссинеска (описывают движение тёплой или холодной жидкости, учитывая разницу в плотности) и IPM-уравнениях (движение жидкости в пористых материалах). Эти модели помогают объяснять процессы от океанских течений до фильтрации нефти, но давно оставались загадочными.
С помощью нейросетей PINNs (Physics-Informed Neural Networks) исследователи нашли новые типы этих «сбоев» и закономерности в том, как они развиваются. Точность вычислений оказалась почти идеальной - сравнимой с машинными расчетами.
Главный вывод: ИИ может стать инструментом для решения фундаментальных проблем физики и математики, включая знаменитые уравнения Навье-Стокса, за разгадывание которых назначена премия в миллион долларов.
Deepmind
✔️ Compute as Teacher: новый способ обучать модели без «правильных ответов»
Исследователи представили метод Compute as Teacher (CaT), который позволяет улучшать языковые модели, даже если у задачи нет готового эталонного ответа.
Идея проста - вместо того чтобы искать «истину», модель сама становится своим учителем. Для этого она многократно решает одну и ту же задачу, создавая разные варианты ответа. Затем специальный механизм выбирает из этих вариантов наиболее обоснованный - и использует его как новую цель для обучения.
Метод работает в двух сценариях. Для задач, где результат можно проверить программно (например, в математике), CaT автоматически оценивает правильность. Для более сложных случаев используется другая LLM-судья, которая задаёт правила оценки (rubrics).
Результаты впечатляют: точность на математическом бенчмарке MATH-500 выросла на +27%, а на HealthBench - на +12%. В дообученной версии CaT-RL улучшения достигли +30–33%.
Главное - CaT снижает зависимость от больших размеченных датасетов и открывает путь к более универсальному и доступному обучению моделей. Это шаг к тому, чтобы ИИ сам помогал себе становиться умнее.
alphaxiv
✔️Команда Magistral представила обновлённые версии своих моделей — Magistral Small 1.2 и Magistral Medium 1.2.
Это эволюция прошлой линейки 1.1 с акцентом на мультимодальность и практическую производительность.
Теперь модели умеют работать не только с текстом, но и с изображениями благодаря встроенному vision-энкодеру.
Рост точности прирост +15% на бенчмарке по математике и коде (AIME 24/25 и LiveCodeBench v5/v6).
Улучшена работа с веб-поиском, интерпретатором кода и генерацией изображений.
Стиль ответов - более естественный тон, ясность изложения и улучшенное форматирование.
Magistral продолжает развивать свои открытые модели, предлагая всё более удобные и универсальные инструменты для работы с текстом, кодом и картинками. Обновление 1.2 делает их ещё ближе к «швейцарскому ножу» в мире ИИ.
HF
@ai_machinelearning_big_data
#news #ai #ml
Канал о серверной и облачной инфраструктуре для ИИ.
Подписывайся на Telegram-канал HOSTKEY — здесь вы найдете:
🔹тесты производительности и бенчмарки GPU-карт и серверного «железа»
🔹новости рынка и технологий
🔹лайфхаки и инструкции по интеграции ИИ в проекты
🔹практические советы для разработчиков и бизнеса
🔥 Последние популярные публикации канала:
🔹 Сравнение NVIDIA RTX 6000 Blackwell 96 ГБ с RTX 5090, A5000 и H100 в задачах LLM и генерации видео — результаты удивляют!
🔹Тестирование NVIDIA GeForce RTX 5090 в задачах ИИ.
🔹10 советов по Open WebUI, которые помогут в работе с нейросетями.
🔹Как добавить генерацию изображений через ComfyUI в Open WebUI.
🎁 А еще мы каждый месяц разыгрываем Telegram Premium среди подписчиков!
Если вы работаете с ИИ и нейросетями — вам точно будет интересно и полезно!
Подписывайтесь!
#реклама
О рекламодателе
⚡️ Релиз Hunyuan3D 3.0
Новая версия обеспечивает в 3 раза более высокую точность 3d-генерации , геометрическое разрешение 1536³ и 3.6 миллиарда вокселей для создания моделей с ультра-HD детализацией.
Ключевые улучшения:
▪ Генерация лиц с реалистичными контурами и естественными позами, что делает модели максимально правдоподобными.
▪ Точная реконструкция сложных структур из изображений благодаря многоуровневой стратегии генерации, позволяющей улавливать скрытые детали.
▪ Повышенная чёткость и профессиональная детализация: улучшенное качество текстур и корректное выравнивание для визуализаций, близких к оригинальному дизайну.
Доступен бесплатный доступ через Hunyuan 3D AI Engine (20 генераций). Решение интегрировано в Tencent Cloud API.
Попробовать можно здесь: https://3d.hunyuan.tencent.com
@ai_machinelearning_big_data
#Hunyuan3D #Tencent #3Dmodeling #AI #UltraHD
🔗 GigaChat-2-Max, Qwen3-Coder, GLM-4.6
И еще 15+ популярных open source LLM можно сейчас забрать бесплатно.
До 31 октября Cloud․ru раздает бесплатный доступ к текстовым моделям, эмбеддерам и реранкерам в сервисе Evolution Foundation Models.
Модели уже готовы к использованию — вам не нужно разворачивать инференс и писать код. Достаточно подключить через API, совместимый с OpenAI.
Тестим тут 🙌
🤖 Unitree G1 Kungfu Kid V6.0 — это уже не просто робот, а настоящий кунг-фу мастер.
Полтора года тренировок сделали своё дело: он стал быстрее, сильнее и умнее.
У робота 43 степени свободы, куча сенсоров и гибридная система управления, которая позволяет ему постоянно учиться и оттачивать движения.
Кажется, мы реально приближаемся к моменту, когда роботы начнут тренироваться, как люди.
Интересно, чему G1 научится следующим - паркуру или еще чему покруче?
@ai_machinelearning_big_data
#AI #Robotics #Humanoid #Unitree #FutureTech
🖥 Перед вами первое публичное выступление Сэма Альтмана
На видео - 19-летний студент Стэнфорда, который бросил университет, чтобы запустить свой первый стартап Loopt.
Loopt был геолокационным приложением - своего рода предшественником Find My Friends и функции геометок в соцсетях. В приложении можно было смотреть, какие места посещают ваши друзья, какие отзывы оставляют.
Loopt продали в 2012 году за $43,4 млн. После этого Сэм Альтман создал свой венчурный фонд Hydrazine, начал инвестировать в стартапы, затем стал главой акселератора Y Combinator — программы, которая помогает молодым компаниям расти и получать инвестиции.
А уже в 2015 году он соосновал OpenAI.
@ai_machinelearning_big_data
#openai #ml #ai #chatgpt #SamAltman
🚀 Крутая новость в области термоядерной энергии
Учёные из MIT создали прорывную гибридную модель - сочетание искусственного интеллекта + физики, которая прогнозирует поведение плазмы в термоядерных реакторах и делает будущие функционирующие установки более надёжными.
🔥 Особо важный момент: модель умеет предсказывать, как ведёт себя сверхгорячая плазма во время остановки (выключения/снижения мощности), это один из самых опасных моментов работы реактора, когда могут происходить разрушительные возмущения.
В отличие от обычных ИИ-моделей, эта требует гораздо меньше тренировочных данных, но остаётся очень точной.
Учёные также разработали алгоритм, который превращает прогнозы модели в конкретные инструкции по управлению плазмой: например, как менять силу магнитов или температуру, чтобы плазма оставалась стабильной и безопасно “загасла”.
🟢 Новость: https://news.mit.edu/2025/new-prediction-model-could-improve-reliability-fusion-power-plants-1007
@ai_machinelearning_big_data
#mit #science
✔️ Google выпустили EmbeddingGemma - открытую модель эмбеддингов для локальных AI-приложений
Google объявил о запуске новой модели EmbeddingGemma, созданной для работы прямо на устройствах - без подключения к интернету. Модель на 308 миллионов параметров, поддерживает более 100 языков и показывает лучшие результаты среди всех открытых моделей размером до 500 млн параметров по тесту MTEB.
После квантования модель кушает менее 200 МБ оперативной памяти, а генерация эмбеддингов занимает всего около 20 миллисекунд на устройствах с EdgeTPU.
Google внедрил технологию Matryoshka Representation Learning, позволяющую использовать разные размеры векторов - от 768 до 128 - в зависимости от задач и ресурсов устройства. Контекстное окно достигает 2000 токенов.
EmbeddingGemma уже интегрируется с популярными инструментами вроде SentenceTransformers, Llama.cpp, LangChain и Transformers.js, а её веса открыты для использования и коммерческой адаптации.
googleblog
✔️ Kani-TTS-370M - лёгкая и быстрая открытая модель синтеза речи
Вышла новая open-source модель Kani-TTS-370M, создающая естественное и выразительное звучание при крайне высокой скорости работы. Модель насчитывает 370 миллионов параметров и оптимизирована под потребительские GPU, включая RTX 3060, где она обеспечивает реальное время генерации речи.
Kani-TTS построена на сочетании NanoCodec и LFM2-350M, что обеспечивает компактность и качество, сравнимое с крупными нейронными TTS-системами. Разработчики использовали современные нейросетевые методы синтеза речи, чтобы добиться максимально естественной интонации и чистоты звучания.
Главный акцент сделан на эффективности и универсальности - модель легко разворачивается локально, подходит для встраивания в ассистентов, игровых персонажей и офлайн-озвучку, не требуя облачных вычислений.
HF
✔️Adobe прогнозирует рост AI-покупок в интернете на 520 % в период праздников 2025
По оценкам Adobe Analytics, объем онлайн-продаж в США в праздничный сезон 2025 года достигнет $253,4 млрд, что на 5,3 % больше, чем в прошлом году. AI-трафик при этом вырастет на 520 %, особенно в последние 10 дней перед Днём благодарения.
Почти половина американцев намерены воспользоваться AI-инструментами: 53 % - для поиска товаров, 40 %- для рекомендаций, 36 % — для поиска выгодных предложений, 30 % — чтобы вдохновиться идеями подарков.
Мобильные устройства останутся доминирующей платформой - 56,1 % транзакций пройдут с телефона. Среди драйверов роста - скидки (среднее снижение цен до 28 %), сервисы «купи сейчас, заплати позже» и активность в соцсетях, чья рекламная отдача вырастет на 51 %.
techcrunch
✔️ Kaleido: новая система для фотореалистичного нейронного рендеринга объектов и сцен.
Модель обучается не на 3D-структурах, а чисто на видео и многовидовых данных, что делает её универсальной и масштабируемой.
Kaleido превосходит все предыдущие генеративные модели в задачах с малым числом видов и впервые достигает качества рендеринга уровня InstantNGP в zero-shot режиме. Это шаг к гибкому world modeling, способному как точно реконструировать реальность, так и дорисовывать недостающие детали.
shikun
✔️ OpenAI и AMD заключили стратегическое партнерство: 6 гигаватт GPU и опцион на 10 % акций
OpenAI и AMD объявили масштабное сотрудничество: по условиям соглашения OpenAI развернёт 6 гигаватт графических процессоров AMD, начиная с первой волны - 1 гигаватт Instinct MI450 во второй половине 2026 года.
AMD, чтобы выровнять интересы, выдала OpenAI варрант на 160 млн своих акций, который будет реализован по мере достижения этапов развертывания и роста стоимости компании, что может превратить его в ~10 % долю.
Соглашение может принести AMD десятки миллиардов долларов дохода, а также усилить её позиции на рынке чипов для искусственного интеллекта.
Этот шаг позволяет OpenAI диверсифицировать аппаратные поставки и снизить зависимость от одного производителя, а также закладывает мощную основу для масштабных AI-инфраструктур следующих лет.
openai
@ai_machinelearning_big_data
#news #ai #ml
📘 Learning Deep Representations of Data Distributions — новая бесплатная книга от исследователей UC Berkeley (Sam Buchanan, Druv Pai, Peng Wang, Yi Ma).
Главная идея книги - показать, почему и как глубокие нейросети учатся извлекать сжатые, информативные представления сложных данных, и что у них внутри:
💡В книге вы найдите:
🟠простое объяснение фундаментальных принципов архитектур нейросетей через оптимизацию и теорию информации.
🟠как модели формируют инвариантные и устойчивые представления
🟠связь с PCA, автоэнкодерами и дифференцируемыми отображениями — то есть, как нейросети по сути обобщают классические методы сжатия данных и учатся находить их оптимальное представление
🟠взгляд на обучение через энергию, энтропию и структуру данных
🟠свежие идеи для понимания LLM и генеративных моделей
📖 Читать онлайн: ma-lab-berkeley.github.io/deep-representation-learning-book
🖥 Github: https://github.com/Ma-Lab-Berkeley/deep-representation-learning-book
@ai_machinelearning_big_data
#book #deeplearning #representationlearning #ucberkeley #machinelearning
🚀 Qwen Chat получил интересные апдейты
Теперь в Qwen Chat можно не только искать данные в интернете, но и сразу визуализировать их графиками благодаря связке *Code Interpreter + Web Search*.
Пример, можно прогноз погоды на 7 дней и получить готовый график прямо в чате.
📈 Если хотите быстро построить диаграмму по найденным данным, то просто напишите это в промоет.
Попробовать можно здесь: https://chat.qwen.ai
@ai_machinelearning_big_data
#qwen #llm
13 сентября Илье Сегаловичу, одному из создателей и техническому директору «Яндекса», исполнился бы 61 год.
Для многих он был не только выдающимся инженером, но и человеком, который умел вдохновлять, поддерживать и замечать в других то, чего они сами в себе не видели.
Во многом именно он заложил основы внутренней культуры и ценности компании.
Яндекс опубликовал видео с воспоминаниями друзей и коллег Ильи, которые работали с ним в разные годы. Рекомендую посмотреть каждому!
✔️ Новый агент от OpenAI может оказаться на базе GPT-5.
По данным TestingCatalog, в закрытом тестировании замечена модель под названием Alpha Agent, которая, предположительно, является улучшенной версией ChatGPT Agent.
Первые результаты тестов показывают значительно более высокую эффективность и возможности по сравнению с текущим поколением.
Если эти слухи подтвердятся, то 2025 год действительно может стать «годом агентов». Всё больше признаков указывает, что во второй половине года мы увидим по-настоящему полезные автономные системы, и предсказание Сэма Альтмана может оказаться верным.
X
✔️ Microsoft расширяет возможности 365 Copilot, добавив поддержку моделей Claude от Anthropic.
Теперь пользователи могут использовать как OpenAI, так и Claude — сначала в инструментах Researcher и Copilot Studio, а позже и в других продуктах.
Компания подчёркивает, что её стратегия «multi-model» выходит за рамки простого выбора: цель — объединить лучшие ИИ-модели индустрии, настроенные под рабочие процессы и потребности бизнеса.
Microsoft
✔️Германия объявила о крупной инициативе: SAP и OpenAI запускают проект “OpenAI for Germany”.
В отличие от обычных PR-заявлений, это поддержанный Microsoft проект с размещением на суверенной облачной инфраструктуре Германии. Это значит, что миллионы сотрудников государственного сектора будут пользоваться ИИ, созданным в Германии и для Германии, с учётом строгих требований к суверенитету данных, юридической прозрачности и национальным ценностям.
SAP выделяет 631 млрд евро инвестиций и дополнительно 20 млрд на цифровой суверенитет. Цель Берлина - к 2030 году увеличить вклад ИИ в экономику страны до 10% ВВП.
Долгое время Германию обвиняли в том, что она отстаёт в технологиях. Сегодня ситуация меняется: с суверенным ИИ, колоссальными вложениями и партнёрством SAP + OpenAI страна заявляет о возвращении в мировую технологическую гонку.
✔️Google выпустила руководство о том, как создавать и использовать AI-агентов.
Внутри: 10 способов применения AI-агентов, пошаговая инструкция по в Google Agentspace, более 100 полезных готовых промптов.
Гайд
✔️ NVIDIA представила способ создания RAG-агента на базе модели Nemotron, который может сам решать, когда искать информацию, а когда — генерировать ответ напрямую.
Новый подход, основанный на архитектуре ReAct (Reason + Act), интегрирует модели NeMo Retriever Embedding и Reranking, а также фреймворк LangGraph. Агент запускается в Jupyter и разворачивается через DevX Workshop.
Инструмент предлагает более гибкие интеллектуальные агенты, которые обращаются к базе знаний только по необходимости и способны решать комплексные задачи, комбинируя инструменты и принятие решений.
nvidia
@ai_machinelearning_big_data
#news #ai #ml
⚡️ Новая модель LFM2-2.6B - лидер в классе до 3B параметров.
Ключевые особенности:
- лёгкая и быстрая, всего 2.6B параметров
- построена на архитектуре v2 (short convs + group query attention)
- обучена на 10 трлн токенов, поддерживает контекст до 32k
LFM2-2.6B - компактная, но мощная моделька для широкого спектра задач.
🟠Blog post: https://liquid.ai/blog/introducing-lfm2-2-6b-redefining-efficiency-in-language-models
🟠HF: https://huggingface.co/LiquidAI/LFM2-2.6B
🟠Model Bundle on LEAP: https://leap.liquid.ai/models?model=lfm2-2.6b
@ai_machinelearning_big_data
#AI #LLM #LFM2 #OpenSourceAI #Multilingual
Positive Technologies приглашает на онлайн-презентацию нового продукта — PT Data Security
Решение помогает защитить критически важные данные компании, снижает риски утечек и обеспечивает соответствие требованиям регуляторов.
На онлайн-трансляции вы первыми узнаете:
— Какие задачи и риски сегодня определяют настоящее и будущее рынка защиты данных.
— Какие вызовы стоят перед компаниями на рынке защиты данных.
— О новом подходе Positive Technologies к защите данных.
📅 8 октября, 15:00 мск
📍 Онлайн
👉 Регистрация
🏭 Microsoft строит самый мощный в мире датацентр для ИИ — Fairwater AI в Висконсине.
Он будет оснащён сотнями тысяч GPU NVIDIA GB200 и обеспечит производительность в 10 раз выше, чем у самого быстрого суперкомпьютера сегодня.
📍 Факты:
- Кампус: около 127 гектаров, 3 здания, примерно 111 000 м² (бывший Foxconn)
- Хранилище: длиной с 5 футбольных полей
- Охлаждение: замкнутый жидкостный контур, 172 гигантских вентилятора, второй по величине водоохлаждающий чиллер
- Сеть: InfiniBand + Ethernet по 800 Гбит/с, топология fat-tree без блокировок
- Рэк: 72 GPU GB200 как один ускоритель → 865 тыс. токенов/сек
- Память: 14 ТБ в пуле на рэк, 1,8 ТБ/с скорость обмена между GPU
🌍 В глобальном масштабе Microsoft объединяет Fairwater с 400+ датацентрами в 70 регионах в единую сеть AI WAN, чтобы десятки тысячи GPU могли работать синхронно над одной задачей.
Запуск планируют на начало 2026 года. Это инфраструктура планетарного уровня.
🟠 Подробности
@ai_machinelearning_big_data
✔️ DeepSeek-R1: прорыв в обучении ИИ рассуждению без человеческих примеров
В журнале Nature опубликована работа о новой модели DeepSeek-R1, которая показывает, что LLM можно научить рассуждать без заранее подготовленных человеческих подсказок. Обычно для обучения таким системам используют «цепочки мыслей» — примеры пошагового рассуждения, составленные людьми. В DeepSeek-R1 от этого отказались: модель получает единственную награду — правильный конечный ответ.
Для обучения применили алгоритм Group Relative Policy Optimization (GRPO). С его помощью базовая версия, названная DeepSeek-R1-Zero, постепенно сама научилась стратегиям проверки своих решений, рефлексии и смены подхода в зависимости от задачи. Иными словами, система начала вырабатывать собственные приёмы мышления, а не копировать человеческие.
Результаты впечатляют. На математическом бенчмарке AIME точность выросла с 15% на старте до 78% после обучения, а с использованием механизма самопроверки — до 87%. Это выше среднего результата реальных участников. В задачах программирования и тестах по STEM-дисциплинам DeepSeek-R1 также обогнал сопоставимые по размеру модели и даже приблизился к гораздо более крупным системам. Более компактные версии, созданные методом дистилляции, сохраняют большую часть этих возможностей.
Есть и недостатки: модель иногда пишет менее читаемые ответы, смешивает языки и пока что хуже работает в областях за пределами логики и математики. Но сам подход доказывает: ИИ способен учиться рассуждать без дорогой и трудоёмкой разметки данных.
Этот прорыв открывает новый этап развития искусственного интеллекта. В будущем такие модели смогут самостоятельно находить эффективные пути решения задач, что особенно важно для науки, инженерии и образования. DeepSeek-R1 показывает, что «чистое подкрепление» может стать реальной альтернативой традиционному обучению с человеческими примерами.
nature
✔️ OpenAI и Google показали рекордные результаты на ICPC Programming Contest
Сразу две компании — OpenAI и Google — сообщили о победах на престижном международном соревновании по программированию ICPC. По данным инсайдов, их модели впервые показали уровень, сопоставимый с лучшими командами из людей, и даже превзошли их.
Команда OpenAI заявила, что их модель решила 12 из 12 задач. Из них GPT-5 с первой попытки справился с 11 заданиями, а самое сложное было закрыто с помощью ещё не представленной reasoning-модели, которая также направляла решения по другим задачам. Это фактически идеальный результат, который ранее был недостижим даже для лучших университетских команд.
Google выступил с собственным достижением: продвинутая версия Gemini 2.5 Deep Think решила 10 из 12 задач и, по заявлениям компании, справилась хотя бы с одной задачей, которую не смогла решить ни одна из команд людей. Это указывает на то, что новые архитектуры начинают находить нестандартные ходы, которые выходят за пределы привычного человеческого опыта.
Если данные подтвердятся, ICPC 2025 войдёт в историю как момент, когда модели искусственного интеллекта впервые официально обошли лучшие команды программистов-людей в соревновании мирового уровня. Это событие может стать переломным: теперь ИИ рассматривается не просто как ассистент, а как полноценный участник и даже лидер в задачах, требующих абстрактного мышления, алгоритмического анализа и математической строгости.
Такие достижения поднимают новые вопросы: стоит ли ИИ допускать к соревнованиям наравне с людьми, как использовать его для обучения программистов и где пройдёт граница между «человеческой» и «машинной» интеллектуальной работой. Одно ясно — в мире алгоритмов начинается новая эра, и ICPC стал её яркой отправной точкой.
✔️ IBM выпустила Granite-Docling-258M — «швейцарский нож» для работы с документами
IBM представила granite-docling-258M — компактную модель, которая совмещает несколько функций: это не только конвертер документов, но и система для вопросно-ответных задач по содержимому файлов. Модель поддерживает несколько языков и распространяется под лицензией Apache 2.0.
HF
@ai_machinelearning_big_data
#news #ai #ml
Оживи робота своим алгоритмом и поборись за призовой фонд в 10 250 000 рублей на True Tech Champ 2025.
True Tech Champ 2025 — это третий всероссийский чемпионат по программированию от МТС с онлайн-этапами отбора и грандиозным шоу-финалом в Москве.
Тебя ждут два трека — выбирай:
I. Алгоритмический [призовой фонд 2 750 000 рублей].
Если классический олимпиадный формат — твоя стихия, этот трек для тебя. Блесни математическими навыками, покажи скилы в работе со структурами данных и написании алгоритмов — и окажись выше соперников в турнирной таблице.
II. Программирование роботов [призовой фонд 7 500 000 рублей].
Запрограммируй робота на скоростное прохождение лабиринта в симуляторе и пройди в финал. На финале участники встретятся офлайн и сразятся на четырех уровнях с полосой препятствий, вспышками света, лазерами и другими препятствиями.
Трек будет интересен начинающим и опытным разработчикам: С++, Go, Python, JS, Java, C# и не только.
Подробности на сайте. Регистрация открыта до 20 октября.
Топ навыков ML-инженера на примере реальной бизнес-задачи
Предсказать отток клиентов — одна из самых распространенных и актуальных задач для любого бизнеса. На примере этой задачи можно рассмотреть все этапы работы ML-инженера: данные, признаки, модель, метрики и выводы для бизнеса.
Чтобы увидеть полный цикл решения реальной задачи и понять, какие навыки нужны ML-инженеру в работе, приходите 16 сентября на практико-ориентированный вебинар от Кристины Желтовой — директора по разработке моделей в Газпромбанке.
В ходе вебинара мы на примере задачи предсказания оттока клиентов разберём:
🟠Актуальность предсказания оттока клиентов для бизнеса
🟠Как работать с «сырыми» данными и подготовить их для обучения модели
🟠Как выбрать, построить и обучить базовую модель в Google Colab
🟠Как проверить, качество работы модели: разбор метрик и ошибок
🟠Какие ключевые навыки складываются в профессию ML-инженера.