Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🔥 Gemini API теперь с Batch Mode — экономия 50%!
Google добавил режим пакетной обработки в Gemini API — теперь можно запускать крупные задания и получать результаты с 50% скидкой. Идеально для массовой генерации, ассистентов и анализа.
Что умеет новый режим:
✅ Обработка больших партий данных — дешевле в 2 раза
✅ Результаты приходят в течение 24 часов
✅ Поддержка встроенных инструментов, включая Google Search
✅ Принимает данные в строках или через JsonL-файлы до 2 ГБ
✅ Кэширование контекста для длинных заданий
✅ Простой API: создание, удаление, получение результатов
Полезен для:
- генерации больших объёмов текстов/ответов
- чат-ботов с очередями задач
- анализа данных с контекстом
- автоматизации LLM-инференса
📘 Документация: https://ai.google.dev/docs/gemini-api/batch
@data_analysis_ml
🎨🚀 Tencent представили Hunyuan3D-PolyGen — новый генеративный ИИ для 3D-моделей с высоким уровнем качества
С ходу выйдет из ИИ сразу готовые для пайплайна художников и игровых студий.
Что умеет:
✅ Собственная autoregressive-сеть генерирует чистую, плотную сетку без артефактов
✅ Сложная геометрия — способна выдавать более 10 000 полигонов с высокой детализацией и стабильной структурой
✅ Гибкий экспорт — поддержка tri- и quad-мешей под разные пайплайны
🔥 Подходит для:
— геймдева
— цифрового арта
— быстрых 3д прототипов
ИИ, который реально умеет 3D.
👉 Попробовать (включайте автопереводчик)
@data_analysis_ml
#3d #Tencent #Hunyuan #genai #ai
🧠 AI, который управляет твоим браузером — напрямую
💻 OpenDia — расширение, которое позволяет ChatGPT, Claude и локальным LLM напрямую кликать кнопки, заполнять формы и управлять твоим реальным браузером.
🔥 Работает в твоей сессии — использует уже залогиненные аккаунты и открытые вкладки. Не эмуляция, а настоящее взаимодействие.
✅ Поддержка ChatGPT, Claude и LLM с локального хоста
✅ Навигация, ввод текста, нажатия, скролл — всё доступно
✅ Полностью open source (MIT)
✅ Расширение и API на Node.js + Playwright
🛠 Идеально для:
- Автоматизации рутинных задач
- Тестирования сайтов
- Создания AI-агентов с реальным доступом к вебу
🔗 Репозиторий: https://github.com/aaronjmars/opendia
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Мл собес t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
МЛ: t.me/machinelearning_ru
Devops: t.me/DevOPSitsec
Data Science: t.me/datascienceiot
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/java_library
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: /channel/gamedev
Физика: t.me/fizmat
SQL: t.me/databases_tg
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: /channel/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: /channel/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot
📕Ит-книги: /channel/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.me/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
🌐 DeepBI — инновационная платформа для анализа данных с помощью ИИ, которая превращает сложные запросы в простые диалоги. Этот инструмент позволяет исследовать данные из MySQL, PostgreSQL, CSV и других источников, используя естественный язык вместо SQL.
Инструмент умеет генерировать персистентные визуализации и дашборды через чат-интерфейс. Платформа поддерживает мультиязычность (английский/китайский) и работает на Windows, Linux и macOS. Для тестирования доступны Docker-образы и EXE-установщик.
🤖 GitHub
@data_analysis_ml
Kontext Relight! 💡✨
LoRA-адаптер FLUX Kontext Relight обученный для изменения освещения фото.
Выглядит очень годно, потестить можно здесь.
https://huggingface.co/kontext-community/relighting-kontext-dev-lora-v3
@data_analysis_ml
🌳 Tree of Thoughts — новый подход к решению задач с LLM. Этот проект из Princeton NLP предлагает альтернативу стандартной цепочке мыслей (CoT)— метод дерева мыслей, где языковая модель исследует несколько путей решения параллельно. Вместо линейного рассуждения, алгоритм строит дерево гипотез и выбирает оптимальную ветку через поиск в ширину.
В репозитории приведены разнообразные примеры работы метода: от математических головоломок вроде игры "24" до творческих задач. Там же есть все промпты и логи экспериментов из оригинальной статьи, где ToT показал преимущество перед классическим CoT.
🤖 GitHub
@data_analysis_ml
✔️ Google открыла глобальный доступ к Veo 3 Fast.
Veo 3 Fast - это ускоренная версия модели для создания видео из текста. Она обрабатывает запросы более чем в два раза быстрее Veo 3, но с ограничением по качеству: максимум 720p.
Сервис доступен в 159 странах, включая все страны Европы. Пользователи Gemini Pro получают три генерации в день, а подписчики Ultra — до 125 видео в месяц. Дополнительно, снизили частоту отклонения пользовательских промптов.
Google уже готовит добавление функции Image-to-video, она находится «на финальной стадии».
Josh Woodward (VP Google) в сети X
✔️ Модель Centaur предсказывает поведение человека.
Ученые из Helmholtz Munich создали модель Centaur, способную предсказывать решения людей в любых психологических задачах, от выбора риска до обучения. Команда адаптировала Llama 3.1, обучив ее на данных из 10 млн. решений. По тестам Centaur превзошел специализированные алгоритмы, которые разрабатывали годами. Модель угадывает поведение даже в новых сценариях при изменении контекста задачи или добавления новых опций.
Внутренние процессы Centaur начали напоминать активность человеческого мозга без прямого обучения на нейронных данных. Цифровой «мозг» даже открыл новую стратегию принятия решений.
Исследователи открыли доступ к модели и датасету Psych-101, обещая прорыв в психологии, образовании и дизайне продуктов.
nature.com
✔️ Компания Марка Цукерберга тестирует чат-ботов, которые начнут писать первыми.
Компания разрабатывает функцию для чат-ботов в своем AI Studio: они смогут инициировать диалог с пользователями, если те ранее активно общались с ботом (не менее 5 сообщений за 2 недели). После первого ответного сообщения от пользователя боты продолжат общение, но только в течение 14 дней, и прекратят попытки, если ответа не последует.
Цель функции - удерживать аудиторию, увеличивая вовлеченность, это напрямую связано со стратегией монетизации ИИ-продуктов (прогнозируемый доход $2–3 млрд. в 2025 году). Пилотный тест уже запущен, но детали реализации остаются расплывчатыми.
businessinsider.com
✔️ Крупный бизнес просит ЕС отложить закон о регулировании ИИ.
Более 45 технологических и промышленных гигантов призвали Еврокомиссию перенести сроки вступления в силу закона об искусственном интеллекте на два года. Они утверждают, что текущие требования к мощным ИИ-моделям слишком расплывчаты и угрожают развитию инноваций.
Регулирование должно начаться в августе, инициативу отрытого обращения к ЕК запустили General Catalyst, SAP и Spotify, хотя последние двое не подписали письмо.
bloomberg.com
✔️ CoreWeave запускает первый в отрасли сервер с GPU Nvidia Blackwell Ultra.
Облачный провайдер CoreWeave первым установил серверы Nvidia GB300 NVL72 с новыми GPU Blackwell Ultra. Платформа, собранная Dell, объединяет 72 видеокарты и 36 процессоров Grace, обеспечивает 50-кратный роста производительности при инференсе и 5-кратную энергоэффективность по сравнению с архитектурой Hopper. Инсталляция ориентирована на тяжелые нейросетевые задачи и агентные вычисления.
Система уже доступна клиентам, раннее внедрение может стать козырем провайдера в конкуренции за внимание технической аудитории.
cnbc.com
@ai_machinelearning_big_data
#news #ai #ml
🚀 OpenAI заказала у Oracle колоссальные мощности для ИИ — 4.5 гигаватта
Это крупнейший в истории контракт на вычисления для искусственного интеллекта. Проект Stargate и теперь это самый масштабный заказ на AI-инфраструктуру в мире.
💰 Контракт включён в большое соглашение Oracle на $30 миллиардов в год, которое начнёт действовать со следующего фискального года.
🔧 Чтобы всё это обеспечить, Oracle:
- Расширит дата-центр в Техасе (Абилин) с 1.2 до 2 гигаватт
- Построит новые кампусы в Техасе, Мичигане, Висконсине и Вайоминге
Источник: bloomberg.com
@data_analysis_ml
Microsoft уволит 9 000 сотрудников — это примерно 4% от общего числа работников компании.
Очевидно, что ИИ действительно делает людей ненужными. И это уже не просто громкие заявления.
@data_analysis_ml
Интелион Облако запускает розыгрыш 🎉
Главный приз – 3 сервера с А10 или А5000. Также разыгрываются приятные скидки.
Запусти нейросеть, рендер, LLM или сложные вычисления на топовом GPU за 1 рубль!
Как принять участие:
1. Зарегистрироваться на Intelion.cloud
2. Заполнить форму розыгрыша
3. Подписаться на ТГ канал
Итоги подведем 5 июля в прямом эфире в канале Artificial Intelion.
Не забудь поделиться с другом!
🧠 Хочешь понять, на чём основана модель Gemma 3n от Google?
Вот ключевые научные работы, стоящие за её архитектурой и обучением:
🔹 AltUp — улучшение аппроксимации внимания
https://arxiv.org/abs/2301.13310
🔹 LAuReL — расширение языковых моделей за счёт многоязычного претрейнинга
https://arxiv.org/abs/2411.07501
🔹 MatFormer — матричная факторизация для масштабируемых LLM
https://arxiv.org/abs/2310.07707
🔹 Activation Sparsity — обучение моделей с разреженной активацией
https://arxiv.org/abs/2506.06644
🔹 Universal Speech Model — единая модель для понимания и генерации речи
https://arxiv.org/abs/2303.01037
📘 Блог Google с обзором архитектуры и практическим гайдом по Gemma 3n:
https://developers.googleblog.com/en/introducing-gemma-3n-developer-guide/
miniDiffusion — упрощённая реализация Stable Diffusion 3.5 на PyTorch
🔹 Этот репозиторий — минималистичный, но рабочий аналог Stable Diffusion:
всего ~2800 строк кода, без лишних зависимостей.
📦 Что внутри:
• Архитектура DiT (Diffusion Transformer)
• Кодировщики: T5 (текст) и CLIP
• VAE для генерации изображений
• Attention, Noise Scheduler и FID-оценка качества
🧪 Зачем это нужно:
• Понять, как работает диффузионная генерация
• Экспериментировать с архитектурой
• Обучать и тестировать свои модели
▶️ Быстрый старт:
git clone https://github.com/yousef-rafat/miniDiffusion
pip install -r requirements.txt
python3 encoders/get_checkpoints.py
Apple выложила Sage Mixtral 8x7B fine-tune с лицензией Apache
💡 Это не просто ещё одна доработка LLM — модель использует State-Action Chains (SAC), чтобы встроить в диалоговую генерацию латентные переменные для эмоций и стратегий общения.
Что это даёт:
- SAC vs обычный fine-tune: модель получает грубое управление через state/action токены → диалоги становятся эмоционально насыщеннее, без потери на метриках
- Итеративная доработка: self-play + tree search позволяют оптимизировать диалоги по цепочкам действий, превзойдя базовые модели по оценкам LLM-судей
🔗 https://huggingface.co/apple/sage-ft-mixtral-8x7b
#apple #opensource
✔️ Alibaba Group представила обновленный Qwen-TTS для английского и китайского языков.
Qwen обновила свой синтезатор речи Qwen-TTS, его обучали на миллионах часов аудиозаписей. Новая версия адаптирует интонацию, ритм и эмоции под контекст текста и приближает звучание к человеческому. Добавили 3 китайских диалекта и поддержку 7 двуязычных голосов (Cherry, Ethan, Jada и др.).
Тесты в SeedTTS-Eval показали высокую точность (WER 1.209) и естественность (SIM 1.967). Модель доступна только через API. В будущем обещают новые языки и стили речи.
qwenlm.github.io
✔️ Исследование: как ИИ-поисковики меняют правила видимости веб-контента.
Совместное исследование ERGO Innovation Lab и ECODYNAMICS показало, что ИИ-системы не просто выдают популярные ссылки, они анализируют структуру, читаемость и ясность контента. Это ставит под сомнение традиционные методы SEO в для традиционных сайтов.
Аналитики изучили 33 тыс. запросов и 600 сайтов из области услуг страхования. Результат: LLM оценивают не только ключевые слова, но и логичность подачи информации, удобство навигации и глубину раскрытия темы.
Специалисты советуют пересмотреть стратегии: упростить тексты, структурировать данные и адаптировать контент под агентные системы. Чем раньше компании пересмотрят свои SEO-стратегии, тем выше вероятность оставаться на виду, когда алгоритмы станут сложнее. Полную версию отчета можно почитать по ссылке.
ergo.com
✔️ OpenAI и компания Марка Цукерберга борются за кадры.
Конкуренция за лучших специалистов в сфере ИИ достигла критической точки. После того как компания Цукерберга переманила 4 ключевых сотрудников OpenAI для работы над «суперинтеллектом», глава исследований Марк Чэн призвал команду Сэма Альтмана оставаться верной компании, пообещав пересмотреть зарплаты и улучшить условия.
По данным источников, Цукерберг предлагает бонусы до $100 млн и лично контактирует с потенциальными кандидатами. Внутри OpenAI сотрудники жалуются на перегрузки, многие работают по 80 часов в неделю. В ответ на агрессивный хэдхантинг, Open AI объявила о «перезагрузке» на неделю, при этом напомнив, что из главная цель - развитие ИИ, а не соревнование с конкурентами.
wired.com
✔️ Microsoft создала ИИ-систему для диагностики, превосходящую врачей.
Microsoft разработала ИИ-инструмент MAI-DxO, который в 4 раза эффективнее опытных врачей в решении сложных диагностических задач. Система использует «оркестратор», создавая сеть из 5 ИИ-агентов, выполняющих роли от генератора гипотез до выбора тестов, которые взаимодействуют и «спорят» для принятия решений.
Тестирование на 304 сложных клинических случаях из NEJM показало точность 85,5% при использовании OpenAI o3 — против 20% у людей без доступа к справочникам или коллегам. Технология может быть интегрирована в Copilot и Bing, которые суммарно обрабатывают около 50 млн. медицинских запросов ежедневно.
ft.com
✔️ Роботы-гуманоиды впервые сыграли в футбол без участия людей.
В минувшую субботу, в Пекине прошел первый в Китае турнир по футболу полностью автономных роботов-гуманоидов. Команда университета Циньхуа победила в финале, обыграв соперников из сельскохозяйственного университета со счетом 5:3. Обе команды использовали одинаковое оборудование от Booster Robotics, но разрабатывали собственные алгоритмы для управления зрением, балансом и движениями.
Матч стал испытанием для технологий: роботы падали, теряли равновесие, а иногда их приходилось уносить на носилках - все это помогает тестировать системы управления и безопасности перед массовым внедрением. Организаторы назвали матч "трейлером" предстоящих Всемирных игр роботов в августе, где будут представлены 11 видов спорта.
bloomberg.com
@ai_machinelearning_big_data
#news #ai #ml
🚀 AirLLM — перспективный подход к запуску LLM на слабом железе.
Этот проект позволяет запускать 70B-параметрические модели на видеокартах с 4GB памяти без квантования — это стало возможным благодаря оптимизированной послойной загрузке весов.
Инструмент работает благодаря блочному 4/8-битное сжатие, ускоряющее inference в 3 раза с минимальной потерей качества. Решение работает даже на MacOS с чипами Apple Silicon , поддерживаются Llama3, Qwen2.5, Mixtral и другие топовые LLM.
🤖 GitHub
@data_analysis_ml
✏️ Школы возвращаются к письменным экзаменам — из-за ИИ списывают почти все
По данным Fox News, 89% студентов используют ChatGPT и другие ИИ для выполнения заданий.
Учителя признаются: отличить текст, написанный ИИ, от человеческого — почти невозможно.
📉 В результате:
- Texas A&M, Университет Флориды и UC Berkeley массово возвращают обычные бумажные тетради и письменные экзамены (ранее перешли на цифровые варианты)
🤖 Почему так?
- ChatGPT умеет имитировать стиль ученика.
- Детекторы ИИ работают слабо — в слепых тестах учителя не смогли отличить ИИ-ответ от настоящего.
- В условиях онлайн-обучения и дистанта — списывать стало слишком просто.
🧠 Что дальше?
- Некоторые школы вводят устные эксзамены, письменные эссе в классе, наблюдение за процессом.
- Другие — обучают этике и грамотному использованию ИИ, как когда-то учили пользоваться калькулятором.
📌 Вывод: Ручка против ИИ — временное решение. Главный вопрос — как переосмыслить само образование в эпоху ChatGPT.
Источник
@data_analysis_ml
🕸️ Chat4Data — расширение, которое превращает веб-скрапинг в диалог
Вместо кода и настроек — просто говоришь, что хочешь, и AI собирает структурированные данные с сайта.
Что умеет Chat4Data:
🔹 Собирает данные “на слух”
Опиши нужную таблицу или список — AI сам найдёт, распарсит и вставит в таблицу. Не нравится результат? Переспроси. Без кода, без боли.
🔹 Обходит все страницы сам
Автоматически кликает “Следующая”, грузит подгружаемые списки и собирает всё — без твоего участия.
🔹 Запускается за 3 клика
AI сам определяет, какие данные ценные, предлагает их — тебе остаётся только подтвердить. Быстро, как в Telegram-боте.
🔹 Не тратит токены на скрапинг
Анализ страницы — на AI, но сами данные забираются без токенов. В бета-версии дают 1 миллион токенов на другие задачи.
🔹 Скоро: скрапинг подстраниц, интерактив, интеграции...
📎 https://chat4data.ai
#ai #scraping #automation #nocode #tools
📺 ИИ захватывает YouTube
На прошлой неделе 3-е место по просмотрам набрало видео, созданное ИИ:
👉 130 миллионов просмотров за несколько дней.
Без продакшн-команды, без студии, без актёров. Всё сделано нейросетями.
📈 Алгоритмы YouTube не делают различий — они просто пушат то, что цепляет зрителя.
@data_analysis_ml
🔟 Open‑source Deep Research Assistants 🤖
Глубокие исследовательские агенты — не просто чат‑боты, а полноценные ИИ‑ассистенты, способные искать информацию, взаимодействовать с инструментами, планировать и писать отчёты. Ниже — 10 мощных open‑source проектов, которые уже можно протестировать:
1. DeerFlow — модульная система от Bytedance: DeerFlow — open‑source фреймворк от Bytedance для создания модульных LLM-агентов.
Поддерживает:
- планирование действий,
- анализ кода,
- генерацию отчётов (включая Text-to-Speech),
- адаптивную интеграцию инструментов.
Создан для исследований, автоматизации и построения сложных агентных пайплайнов.
https://github.com/bytedance/deer-flow
2. Alita — самообучающийся агент с поддержкой Model Context Protocols (MCP), всё в одном модуле. Alita — агент, который сам придумывает, как ему расширить себя, не полагаясь на заранее написанные сценарии, и уже демонстрирует топовые результаты на сложных тестах.
https://github.com/CharlesQ9/Alita
3. WebThinker — автономный веб‑поиск с логикой "думай‑ищи‑пиши", RL‑обучением и глубокой навигацией
https://github.com/RUC-NLPIR/WebThinker
4. SimpleDeepSearcher — это лёгкий, но эффективный open‑source фреймворк от RUCAIBox, предназначенный для автономного веб-поиска через импровизированные многотуровые сессии:
- Использует Supervised Fine‑Tuning (SFT) вместо сложного RL, что значительно упрощает обучение и снижает вычислительные затраты
- Генерирует реалистичные траектории поиска и рассуждений, симулируя поведение пользователя в живом поисковом окружении .
- Критически отбирает данные по нескольким критериям качества: разнообразие запросов, сложность, структура ответов
5. AgenticSeek — приватный on‑device ассистент с выбором эксперта под задачу и голосовым управлением
https://github.com/Fosowl/agenticSeek
6. Suna — универсальный ассистент: браузер, CLI, работа с файлами, API, деплой
https://github.com/kortix-ai/suna
7. DeepResearcher — это комплексный open-source фреймворк от GAIR‑NLP, предназначенный для обучения LLM‑агентов, способных проводить глубокие исследования в автономном режиме, взаимодействуя с вебом. Использует несколько агентов‑браузеров, которые совместно исследуют веб и обрабатывают информацию
https://github.com/GAIR-NLP/DeepResearcher
8. Search‑R1 — агент на PPO/GRPO с поддержкой LLaMA3, Qwen2.5 и кастомных поисковиков. Агент учится эффективному циклу «думай — ищи — думай — отвечай» через RL, достигая важных улучшений в точности ответов и эффективности поиска.
https://github.com/PeterGriffinJin/Search-R1
9. ReCall — это фреймворк на основе RL, который учит LLM "должным образом" вызывать и комбинировать инструменты, используя сгенерированные задачи, без необходимости вручную собирать примеры вызовов — и всё это в открытом доступе.
https://github.com/Agent-RL/ReCall
10. OWL — мультиагентная система на CAMEL‑AI для динамического взаимодействия между агентами
https://github.com/camel-ai/owl
Агенты умеют планировать, взаимодействовать с браузером, запускать скрипты, интегрироваться с API и работать автономно.
Всё проекты — с открытым кодом. Можно изучить, собрать и доработать под свои задачи.
@ai_machinelearning_big_data
#ml #rl #aiagents #ai #agents
💡 WebSailor: опенсорс агент от Alibaba который ищет информацию в вебе
* Суть работы
Авторы предлагают методику пост-обучения, чтобы LLM могла шаг за шагом уточнять запросы и находить нужные данные на сложных страницах.
* Главные приёмы
* *Structured Sampling* — генерация задач с высокой неопределённостью.
* *Information Obfuscation* — часть подсказок скрывается, что заставляет модель планировать глубже.
* *DUPO* — облегчённый RL-алгоритм для обучения агентнов.
* Результаты
На датасете BrowseComp открытая версия агента выходит на уровень закрытых систем и в отдельных случаях работает быстрее человека. :contentReference[oaicite:2]{index=2}
* Код и веса
📌Ссылка: https://huggingface.co/papers/2507.02592
🚀 Вышла новая модель DeepSeek-TNG R1T2 Chimera 671B
Особенности:
- примерно на 20% быстрее обычного R1 и более чем в 2 раза быстрее R1-0528
- значительно умнее стандартного R1 по бенчмаркам GPQA и AIME-24
- намного умнее и обеспечивает согласованность think-token по сравнению с первым R1T Chimera 0426
R1T2 получает веса из R1-0528, R1 и V3-0324 с помощью Assembly-of-Experts. Слияние сохраняет способность рассуждать R1-0528 и использует лёгкие общие слои V3-0324, так что ответы остаются точными и ёмкими.
Модель распространяется под лицензией MIT на huggingface
https://huggingface.co/tngtech/DeepSeek-TNG-R1T2-Chimera
@data_analysis_ml
🧭 PyCuVSLAM — быстрый и точный SLAM от NVIDIA с Python‑интерфейсом
Что такое SLAM:
SLAM (Simultaneous Localization and Mapping) — это технология, которая позволяет устройству одновременно строить карту окружающей среды и определять своё местоположение внутри неё.
Применяется в роботах, дронах, AR/VR и автономных транспортных средствах.
Что такое PyCuVSLAM:
PyCuVSLAM — это Python-обёртка над cuVSLAM, высокопроизводительным SLAM-движком от NVIDIA. Он использует CUDA-ускорение и позволяет системам в реальном времени отслеживать движение и строить карту окружающего мира.
🔧 Основные возможности:
• Аппаратное ускорение на NVIDIA GPU (включая Jetson)
• Поддержка от 1 до 32 камер + опциональный IMU
• Можно подключать обычные RGB-камеры, камеры глубины и сенсоры движения
• Работает в конфигурациях от простой однокамерной до мультисенсорных систем
• Удобный Python API — быстро подключается и настраивается
💻 Установка:
• Поддерживает Ubuntu 22.04+, Python 3.10, CUDA 12.6
• Устанавливается через pip, Docker или запускается на Jetson
• Есть готовые примеры для быстрой работы
🧠 Для кого:
• Разработчики роботов, дронов, AR/VR
• Те, кому нужен точный и быстрый SLAM без глубокой настройки
📌 GitHub
🧠 Теперь можно вычислять LLM, которые «накрутили» баллы на бенчмарказ по математике, но не умеют больше ничего.
В свежем исследовании *“Does Math Reasoning Improve General LLM Capabilities?”* показано, что модели, обученные на математике с помощью SFT, часто не улучшаются вне математики — а иногда даже деградируют.
📊 Что выяснили:
• SFT на математике → ухудшение на нематематических задачах
• RL на математике → перенос улучшений в другие домены
• SFT вызывает сильное смещение представлений и токен-дистрибуций
• RL наоборот — сохраняет топологию модели и двигает только логические оси
🧪 Авторами разработан новый инструмент — Transferability Index:
Это простое соотношение между улучшением на математике и изменением на сбалансированном наборе задач. Помогает понять:
✔️ где модель реально умнее
❌ а где — просто бенчмарк‑максинг
📌 Вывод: RL-постобучение лучше предотвращает «забвение» и делает LLM более универсальными.
SFT — может казаться эффективным, но часто ухудшает общие способности модели.
📌 Подробнее
🧠 II-Medical-8B-1706 — open-source LLM для медицинских задач!
▪️ Превзошла MedGemma 27B от Google при 70% меньшем количестве параметров
▪️ Квантизированные веса GGUF — модель запускается даже на <8 ГБ ОЗУ
Model card: https://huggingface.co/Intelligent-Internet/II-Medical-8B-1706
GGUF quantization: https://huggingface.co/Intelligent-Internet/II-Medical-8B-1706-GGUF
🧠 WM-Abench — бенчмарк для оценки памяти у мультимодальных LLM
Новый open-source бенчмарк от Maitrix Research оценивает, как мультимодальные модели (текст + изображение) запоминают и используют визуальную информацию.
📌 Что проверяется:
– Могут ли LLM “удерживать в голове” объекты, числа и расположение
– Насколько глубоко модель понимает визуальный контекст
– Способна ли она логически оперировать на основе того, что “видела”
📈 Поддерживаются: GPT‑4o, Gemini, Claude, LLaVA и другие
🔍 Задания: от простых “где лежит мяч?” до сложных визуальных рассуждений
Исследователи из Maitrix оценили 15 SOTA мультимодальных моделей (включая o3 и Gemini 2.5 Pro) по 23 когнитивным измерениям: от базового восприятия до предсказания будущих состояний.
Ключевые выводы:
🔹 Модели хорошо справляются с распознаванием, но проваливаются в 3D-пространственном мышлении, динамике движения и причинно-следственной симуляции.
🔹 VLM склонны “путать” физику: даже изменение цвета объекта сбивает модель на задачах восприятия.
🔹 В сложных задачах предсказания следующего состояния — даже лучшие модели отстают от человека на 34.3%.
🔹 Точность восприятия ≠ понимание: даже “увидев” всё правильно, модели не умеют достроить последствия и взаимодействия объектов.
Отличный инструмент, чтобы понять на что реально способна ваша мультимодальная модель, а не только на красивые демо.
🔗 https://wm-abench.maitrix.org
#LLM #AI #multimodal #benchmark
📡 Как студенты российских IT-вузов занимаются разработкой баз данных.
На Хабре вышла статья про YDB — распределённую СУБД с открытым исходным кодом. Она применяется для построения высоконагруженных систем и может исполнять федеративные запросы к внешним источникам данных.
Что внутри:
🧩 как реализовать SQL-запрос к внешней NoSQL-базе
📦 как упаковать Redis и MongoDB в реляционную модель
⚙️ проектируем абстракцию, которая может спрятать *любой* внешний источник данных
Новые функции YDB пилят студенты Яндекс Образования, а ревью прходоят у разработчиков бигтеха. Результат: федеративные запросы в YDB теперь могут быть адресованы к PostgreSQL, ClickHouse, MongoDB, Redis и многим другим источникам – польза для всего open-source сообщества.
📌 Статья полезна для тех, кто интересуется:
— Разработкой СУБД
— Консолидацией гетерогенных данных
🧠 Как успевать следить за всеми новостями искусственного интеллекта? И чтобы не тратить на это кучу времени?!
Мы нашли ребят, которые делают это за вас.
📌 Рекомендуем подписаться на канал @svodka_ai — Искусственный интеллект.
Каждый день их AI-журналисты мониторят десятки каналов про ИИ, а затем выдают утренний компактный дайджест:
📰 5–8 главных новостей без оффтопа и инфошума
🔗 Линк на источник под каждым пунктом — сразу в закладки или "прочитать позже"
⏱️ Формат "прочёл за три минуты — знаешь всё основное"
🧩 Все релизы, новости ИИ-компаний, секреты о тулах – в одном месте
💡 Экономия: ~90 % времени против ручного серфинга по каналам.
Если ИИ — ваш хлеб (или хотя бы джем к утреннему кофе), подпишитесь на @svodka_ai и начинайте день, уже зная главное.
Профит прост: меньше скролла — больше инсайтов без инфошума.
👉 Подписывайтесь и пусть ИИ готовит для вас сводки самого главного
erid: 2W5zFHoXe24
🍏 Apple рассматривает замену Siri на Claude или ChatGPT
Apple активно изучает возможность использования моделей Claude 3 Opus от Anthropic и GPT-4 Turbo от OpenAI для новой версии Siri, отказавшись от собственных LLM. Компания провела тестирование обеих моделей на закрытой облачной инфраструктуре, чтобы сравнить качество генерации, безопасность и способность к сложным диалогам.
Причины перехода:
— Собственная разработка LLM для Siri задерживается до 2026 года из-за проблем с качеством
— Необходимость ускорить вывод на рынок более интеллектуального голосового ассистента
— Усиленная конкуренция с Google Assistant и Microsoft Copilot
Что уже сделано:
— Тестирование Claude 3 Opus и GPT-4 Turbo на Private Cloud Compute Apple
— Смена руководства AI-подразделения: Майк Рокуэлл занял место Джона Джаннандреа
— Отмена запуска “LLM Siri” на WWDC 2025 из-за неготовности модели
📌 Подробнее
@data_analysis_ml
📘 Machine Learning Q and AI — новая книга от мастодонта ML Себастьяна Рашки теперь в открытом доступе!
👨🔬 Автор — core‑разработчик Scikit‑learn, преподаватель, автор культовых пособий по машинному обучению.
Что внутри:
• 30 глав по нейросетям, компьютерному зрению, LLM, оценке и деплою моделей
• Чёткая структура: теория → примеры → упражнения
• Много практики, схем, визуализаций и Python‑кода
Это не просто справочник, а полный курс по Deep Learning, от основ до продвинутых тем.
📖 Читать онлайн
@data_analysis_ml