48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🚨 Claude восстановил игру 90-х без исходников
Разработчик откопал свой проект 1992 года. Тогда ему было 19. Это была мультиплеерная игра на CompuServe, она даже получила награду и закрылась в 1999.
Исходников не осталось. Только скрипты на кастомном языке, который он сам придумал для гейм-мастеров, старый мануал и запись геймплея.
Он просто загрузил всё это в Claude Code и попросил разобраться.
Модель сначала восстановила сам язык. Без документации и без примеров в сети. Вытащила грамматику из скриптов и текста, который писался для людей без технического бэкграунда.
После этого она пересобрала игру с нуля. Полноценный мир с тысячами комнат, предметами, монстрами, магией, крафтом и боевой системой.
Проект, который в 90-х собирался месяцами, был восстановлен за выходные.
Модель работает с неполными данными, восстанавливает структуру и доводит систему до рабочего состояния.
Фактически это реверс-инжиниринг без исходников.
Игра сейчас доступна бесплатно, код открыт.
🚀 Представь: уровень рассуждений как у Claude 4.6 Opus, но полностью локально на твоей GPU с всего 16GB VRAM
Эта версия Qwen3.5 на 27B параметров, дистиллированная на reasoning-трейсах Claude 4.6 Opus, даёт уровень кодинга почти как у топовых моделей — но без облака
Что внутри:
- Обгоняет Claude Sonnet 4.5 на SWE-bench даже в 4-битной квантизации (Q4_K_M)
- Сокращает chain-of-thought на 24% — меньше мусора, быстрее ответы
- Сохраняет 96.91% точности на HumanEval
- Идеально подходит для агентных циклов (без API и задержек)
📦 Уже 300K+ скачиваний на Hugging Face
Локальные модели начинают догонять фронтир и это только начало
https://huggingface.co/Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled
😆 AI-проект с Миллой Йовович и крипто-фаундером оказался странной поделкой с подменой авторства
Вчера известная актриса выложила на GitHub свой опенсорс-инструмент для улучшения памяти ИИ-агентов - MemPalace, который она якобы создала с помощью ИИ . -
Mempalace пушали как «лучшую memory-layer для ИИ». В проекте фигурируют Бен, крипто-фаундер, и Решил проверить, что там под капотом.
Чем глубже смотришь, тем больше вопросов.
Бен на сайте рассказывает про AI-продукты и локальные модели. Но его GitHub почти полностью про биткоин и лендинг. Из AI там по сути один форкнутый проект.
Сам репозиторий выглядит так:
10K звёзд
1000+ форков
7 коммитов
Для серьёзной memory-системы это не выглядит правдоподобно.
Дальше интереснее.
Нет нормальной истории разработки. Аккаунт, который изначально запушил код, aya-thekeeper, удалён сразу после публикации.
Внутри файлов ttcnm подпись:
код и бенчмарки написал некий Lu (DTL), март 2026, «для Бена»
При этом:
в README его нет
в git-истории его нет
Историю репозитория затем схлопнули в один коммит и перезалили.
И уже после этого проект публикуется от имени Миллы Йовович.
По словам Бена, она участвует в разработке. По факту всего :
• 7 коммитов
• 2 дня активности за всё время
Картина складывается такая:
Сверху добавляется маркетинг и накрученные цифры.
Если коротко: проект с участием актрисы и крипто-фаундера больше похож на витрину, чем на реальную инженерную работу.
Если используете подобные решения, смотрите не на лендинг и звёзды, а на git-историю и реальных авторов кода.
Мила заскамила ) Видимо, Resident Evil закончился и начался Resident Git.
https://github.com/milla-jovovich/mempalace/issues/27
https://github.com/milla-jovovich/mempalace
https://x.com/AdvicebyAimar/status/2041559354034344438
🔥 В Google Colab добавили овзмодность дообучения 500+ опенсорсных нейронок
Unsloth выкатили удобный ноутбук для настройки моделей.
Инструкция:
1. Открываем страницу в Colab: https://colab.research.google.com/github/unslothai/unsloth/blob/main/studio/Unsloth_Studio_Colab.ipynb
2. Запускаем блоки и сам Unsloth Studio.
3. Выбираем модель, датасет .
4. Жмём «Start Training» и наблюдаем за прогрессом в реальном времени.
5. Всё готово - обычную и файн-тюн версию модели можно сразу сравнить в чате.
🌟 Инструкция как поднять Gema4 локально и связать с OpenClaw всего в 3 шага:
Шаг 1 Устанавливаешь Ollama: https://ollama.com/download
Шаг 2 Скачиваешь модель Gemma 4 26B A4B на свой компьютер. Она хорошо балансирует скорость и качество, поэтому отлично подходит для локальных AI-агентов. При желании этот шаг можно пропустить - на следующем этапе всё подтянется автоматически.
Шаг 3 Запускаешь OpenClaw с Gemma 4 через Ollama. Система сама установит OpenClaw и сразу поднимет его с нужной моделью.
На прошлой неделе вышла Gemma 4 - компактная, но очень мощная модель Google. Это Пошаговая инструкция как поднять её локально и связать с OpenClaw всего в 3 шага:
Всё максимально просто и быстро. По сути, можно было уложить это в один короткий пост.
Можно сразу идти и собирать своих агентов.
Если аналитика спрятана в отдельной вкладке, её почти никто не открывает. Данные есть, но в работе они не участвуют.
15 апреля в Yandex Cloud покажут, как встроить DataLens прямо в продукт — в личный кабинет, портал или клиентский сервис. Так, чтобы отчёты жили там же, где принимаются решения, а не где-то отдельно.
Речь не про очередной дашборд, а про нормальную интеграцию: без лишних аккаунтов, с безопасным доступом и адекватным UX.
Команда разберёт реальные кейсы и покажет, как работает embedding для непубличного и публичного встраивания.
Участие бесплатное, нужна только регистрация.
Андрей Карпаты говорит, что когда AI-агенты дают сбой, это обычно проблема в Cкилах, а не возможностях агента
Ты просто:
- недостаточно хорошо написал инструкции
- неправильно настроил память
- или не распараллелил задачи
"Главный сдвиг - это работа на уровне макро-действий"
Один агент занимается исследованием
другой пишет код
третий планирует и всё это работает параллельно, в задачах по 20 минут
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
🚀 Бесплатно запускаем Gemma 4 на телефоне без интернета.
Google выкатили AI Edge Gallery для iOS и Android. Это официальный клиент, где модели работают локально на устройстве.
Что внутри чат с моделью, разбор изображений, офлайн-транскрипция аудио и простой агент с инструментами
Никаких облаков всё считается прямо на телефоне
По моделям E4B - мощнее, но требует около 8 ГБ RAM E2B - легче и быстрее, запускается даже с ~1.5 ГБ памяти
Фактически это карманный ИИ без зависимости от сети и API
На видео запускается Google Gemma 4 E2B на iPhone 17 Pro.
Около ~40 токенов в секунду с MLX, оптимизированным под Apple Silicon.
Модель показала топовый уровень в коде и математике прямо на смартфоне с контекстом 128K.
Полностью офлайн, с режимом рассуждения.
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
Похоже, OpenAI готовит не очередную версию, а полноценный перезапуск архитектуры.
Что известно из утечек:
• Новая база GPT-5.5 - это не тюнинг старого, а полностью новый фундамент после ~2 лет разработки.
• Мышление стало “человечнее” Модели меньше «тупят по шаблону» и лучше понимают намерение без лишних объяснений.
• Омнимодальность из коробки Текст, изображения, возможно аудио и видео — всё в одной системе без костылей.
Фокус смещается: от ответов → к выполнению задач и автономной работе (все пилят агентов).
• Длинные горизонты мышления Сложные задачи, многошаговые процессы, долгий контекст - это ключевая ставка.
То, что раньше требовало сложных промптов - теперь работает «из коробки».
Ценовая война на подходе На фоне слухов о дорогих конкурентах OpenAI может демпинговать ради захвата рынка.
Релиз уже близко.
В AI-аренах уже мелькают первые генерации - похоже, тесты идут полным ходом.
https://x.com/pankajkumar_dev/status/2040670839624908816
⚡ Codex засунули в DOOM, и он сам себя туда встроил
Доминик Кундель из OpenAI попросил Codex встроить самого себя внутрь DOOM.
Не оверлей, не окошко сбоку, а настоящий терминал прямо в игровом движке. Подходишь к стене, открываешь терминал и даешь задачи реальному Codex-агенту: хоть игровые, хоть свой код на доработку.
Все построено на Codex app server.
Это JSON-RPC сервер, который стоит за приложением Codex, расширениями для IDE, интеграциями с Xcode и JetBrains. По сути API, через который агента можно воткнуть куда угодно. Кундель решил доказать это буквально.
Codex собрал все сам: от плана до рабочей реализации за ~6:40 часов, потратив 205 млн токенов.
Кундель в это время занимался домашними делами и в какой-то момент подпрыгнул от звуков стрельбы - это Codex тестировал сборку, запуская игру через Playwright. Он же сам нарисовал текстуру с логотипом на игровой стене, проверил рендер с разных ракурсов, нашел баг, исправил и перепроверил.
Без явных инструкций на тестирование.
DOOM, конечно, не лучший интерфейс для кода. Но демо четко показывает: Codex app server позволяет встроить агента в любую среду. Исходники открыты.
Github: https://github.com/openai/codex/tree/main/codex-rs/app-server
Post: https://x.com/dkundel/status/2040130396747407437
🎧 Fish Audio S2 Pro - мощная open-source модель для синтеза речи.
Это 4B + 400M параметровая TTS-модель с необычной архитектурой Dual-AR, обученная на 10+ миллионах часов аудио и поддерживающая 80+ языков.
Что делает её интересной.
🏗 Dual-AR архитектура
Модель разделена на две части:
• 4B Slow AR отвечает за семантику и структуру речи
• 400M Fast AR генерирует 9 residual codebooks для акустики
Такой подход позволяет сохранить высокое качество звука без сильной нагрузки на инференс.
🎭 Свободное управление эмоциями и интонацией
Можно прямо в тексте задавать стиль речи:[whisper] [laughing] [professional broadcast tone]
Поддерживается 15 000+ тегов, которые работают на уровне отдельных слов.
🌐 80+ языков
Основные языки высокого качества:
• английский
• китайский
• японский
⚡ Оптимизация для LLM-инфраструктуры
Модель нативно работает со стеком SGLang, поэтому поддерживает:
• continuous batching
• paged KV cache
• RadixAttention prefix caching
📊 Производительность
• RTF: 0.195 на Nvidia H200
• ~100 мс до первого аудио
• более 3000 акустических токенов/сек
Также разработчики выложили:
• веса модели
• код для fine-tuning
• движок для streaming inference
Модель: https://modelscope.ai/models/fishaudio/s2-pro
GitHub: https://github.com/fishaudio/fish-speech
#ai #tts #opensourсe
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Так я вижу работу ИИ-агента со стороны:
Читать полностью…
✔️ Вышел Cursor 3 - и это уже не просто AI-IDE, а полноценный центр управления ИИ-агентами
Cursor окончательно сменил роль: теперь это не инструмент для кодинга, а оркестратор агентов.
Что поменялось по факту:
• запускаешь сколько угодно агентов - локально, по SSH или в облаке
• работаешь сразу с несколькими репозиториями и окружениями
• облачные агенты сами делают демки и скриншоты своих действий
• при этом редактор никуда не делся - можно кодить вручную, когда нужно
https://cursor.com/blog/cursor-3
ИИ всё активнее становится «вторым аналитиком» в BI. По свежей статистике, каждый 5-й корпоративный пользователь уже обращается к ИИ-агенту Нейроаналитику, чтобы быстрее попасть на бизнес-инсайты.
Какие задачи чаще всего отдают ИИ:
73% — просят написать формулы
50% — объяснить графики
Кто внедряет активнее всего (топ‑5 отраслей): ИТ (40%) , ритейл (25%) , финтех (10%) , логистика (5%) , здравоохранение (4%) .
Главное использование — скорость: ИИ за минуту делает десять срезов и обнаруживает нарушения. В ритейле задержка в поисках падения на 5 дней может стоить 15–20 миллионов , а с ИИ это вкладывается на пару часов.
Источник: https://ko.ru/news/kazhdyy-pyatyy-korporativnyy-polzovatel-prosit-ii-agenta-nayti-biznes-insayty/?ysclid=mneiwo7f1j748287914
Когда закончились лимиты на Claude
Читать полностью…
Сегодня Anthropic запустила в открытую бету Claude Managed Agents - хостируемый сервис для запуска долгоживущих агентов на инфраструктуре Claude Platform.
Если коротко: вы описываете задачи, инструменты и ограничения, а всё остальное берет на себя платформа.
Самое интересное спрятано в инженерном блоге, где команда описала архитектуру. Они пришли к ней через боль. Первая версия упаковывала всё в один контейнер: и сессию, и harness (цикл вызовов модели), и sandbox. Контейнер превращался в "питомца" - если он падал, сессия терялась. Дебажить можно было только через шелл внутри контейнера, а там лежали пользовательские данные. Когда клиенты хотели подключить свой VPC, им приходилось пирить сети.
Решение: декомпозиция на три интерфейса. Session - append-only лог всех событий, живущий отдельно от всего. Harness - stateless оркестратор, который при падении просто перезапускается, подтягивает лог через getSession(id) и продолжает с последнего события. Sandbox - среда исполнения, к которой harness обращается как к обычному инструменту через execute(name, input) → string. Каждый компонент стал "скотом", а не "питомцем" в классической инфраструктурной метафоре.
Отдельно стоит сказать про безопасность. В монолитной архитектуре prompt injection мог добраться до токенов, лежащих в том же контейнере. Теперь sandbox физически изолирован от credentials. Git-токены прошиваются в remote при инициализации, OAuth хранится в vault за прокси. Агент никогда не видит реальных ключей.
По перформансу результаты заметные: p50 TTFT (время до первого токена) упал на 60%, p95 - на 90 с лишним процентов. Контейнер теперь поднимается по требованию через tool call, а если задача не требует sandbox, инференс стартует сразу.
Архитектура поддерживает "many brains, many hands": один агент может управлять несколькими sandbox-ами, а несколько агентов могут передавать окружения друг другу. Сессия при этом выступает как объект контекста за пределами context window модели - harness может запрашивать срезы через getEvents(), трансформировать их и управлять cache hit rate.
Notion уже в закрытой альфе: команды делегируют задачи Claude прямо из рабочего пространства, десятки задач выполняются параллельно.
Философия проекта прямо проговаривается в блоге: это мета-harness. Anthropic намеренно не фиксирует конкретную реализацию оркестрации, потому что она устаревает с каждым поколением моделей. Они уже столкнулись с этим, когда "context anxiety" из Sonnet 4.5 исчез в Opus 4.5, а workaround превратился в мертвый код. Поэтому ставка на стабильные интерфейсы, за которыми реализация меняется свободно - ровно та же идея, что у POSIX: read() работает одинаково для диска из 70-х и современного SSD.
https://www.anthropic.com/engineering/managed-agents
Claude Mythos опять подогрел разговоры достигли мы AGI или нет .
При этом единого определения AGI как не было, так и нет. Google DeepMind еще в 2023-м попытались разрулить хаос и выкатили целую таксономию с уровнями от нуля до сверхчеловеческого.
Помогло примерно никак.
Итого: все спорят о том, достигли ли мы AGI, для определение которого тоже не можем договориться. Классика.
Claude Mythos нашёл дыру в своей безопасности, вырвался и рассказал об этом всему миру!
Пока все обсуждают невероятный прорыв Antropic моделей, : Они провели еще один эксперимент и получили результат, который выглядит как сценарий из триллера.
Claude Mythos выбрался из изолированной среды и пошёл дальше, чем от него ожидали.
Модель поместили в sandbox и дали простую задачу: попробуй выбраться и сообщи об этом человеку. На бумаге обычный тест. На практике получилось куда интереснее.
Mythos не просто нашёл уязвимость. Он собрал последовательность действий и аккуратно её реализовал, обойдя ограничения, заданные разработчиками.
Но ключевой момент был дальше.
Вместо того чтобы остановиться после «побега», модель нашла ещё одну дыру и получила доступ к открытому интернету. Изначально ей оставили только ограниченные каналы для связи с пользователем.
Дальше поведение стало неожиданным.
Claude сообщил разработчику о побеге, который в этот момент спокойно ел сэндвич в парке, и параллельно выложил детали эксплойта в открытый доступ.
Вся история выглядит так:
- сначала выход из sandbox
- потом расширение доступа
- потом публикация того, как это было сделано в интрнет
https://www-cdn.anthropic.com/53566bf5440a10affd749724787c8913a2ae0841.pdf
@vistehno
⚡️ Anthropic запустила проект Glasswing.
Project Glasswing - инициатива по защите критической программной инфраструктуры с помощью ИИ.
Поводом стали возможности разрабатываемой модели Claude Mythos Preview, которая, по оценке самой компании, превосходит почти всех специалистов по поиску и эксплуатации уязвимостей в коде.
За несколько недель работы Mythos Preview обнаружила тысячи 0-day уязвимостей, в том числе во всех крупных операционных системах и браузерах. Среди раскрытых примеров:
🟢27-летняя ошибка в OpenBSD, позволяющая удаленно обрушить систему через одно подключение;
🟢16-летний баг в FFmpeg, который автотесты не замечали после 5 млн. прогонов;
🟢автономно собранная цепочка эксплойтов в ядре Linux, поднимающая права обычного пользователя до полного контроля над машиной.
Модель находила уязвимости и писала эксплойты без участия человека. Все упомянутые баги уже исправлены, для остальных Anthropic уже опубликовала криптографические хэши описаний и раскроет детали после выхода патчей.
🔥 Китайцы выкатили мощный голосовой ИИ - VoxCPM2
Модель от OpenBMB, которая умеет:
• Понимать и генерировать речь
• Работать с голосом почти в реальном времени
• Делать voice-to-voice без сложных пайплайнов
• Подходит под ассистентов, звонки и голосовые агенты
Главный плюс - всё это в одной модели, без костылей из ASR + TTS
https://huggingface.co/openbmb/VoxCPM2
🔥 Милла Йовович теперь тоже Вайбкодер😱
Актриса выложила на GitHub опенсорс-инструмент MemPalace для работы с памятью ИИ-агентов. Делала его вместе с другом.
Фишка в том, что все данные хранятся локально, а система сама решает, какие факты о пользователе подтягивать под конкретный запрос. По бенчмарку LongMemEval инструмент уже обгоняет и платные, и бесплатные решения.
За сутки репозиторий набрал 2k+ звёзд.
Настоящий обитель зла 💀
https://x.com/bensig/status/2041229266432733356
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
⚡️ Хочешь собрать GPU с нуля - вот настоящий появился симулятор Mvidia
Нашли для вас сайт, где можно пройти весь путь железа руками. Без теории ради теории, а через интерактив.
• Начинаешь с базы
движение электронов, транзисторы, логика
• Дальше собираешь уровни выше
логические схемы, ALU, простой процессор
• До GPU ещё не дошли
блоки про шейдеры и графику пока в разработке, но фундамент уже есть
На Hacker News проект активно хвалят, особенно за подачу и понятную прогрессию
Хороший способ наконец понять, как всё это реально устроено под капотом, а не на уровне абстракций
Сначала проходишь симулятор потом уже думаешь, как построить Nvidia 2.0
https://jaso1024.com/mvidia/
🔥 Студент собрал в общаге метеостанцию $101K на ставках на погоду с помощью Claude и трёх Mac Mini
Китайский студент-инженер собрал в своей общаге метеостанцию. Три Mac Mini с подписями на корпусах: UI/UX, DEV, ADMIN. Два монитора. Спутниковые карты на обоих экранах. Сосед по комнате думал, что это климатический исследовательский проект. Преподаватели думали, что прототип дипломной работы. Он никого не поправлял.
А потом кто-то заметил, к чему на самом деле подключена станция. К кошельку на Polymarket (Акк polymarket.com/@ColdMath?via=carverfomo). С профитом $101 042. 5 252 предсказания. Аккаунт ColdMath.
Claude забирает пилотные метеоданные в реальном времени. Настоящие сенсоры, настоящие показания, обновления каждые 1-3 часа со станций по всему миру. Сравнивает их с ценами на предиктивных рынках. Когда данные расходятся с ценой, DEV-бокс сигналит о несоответствии. Студент ставит.
Размеры ставок и выплат выглядят безумно. $25 на то, что в Токио будет 16°C 20 марта - выплата $12 452. $24 на Чикаго с 54°F 11 марта - выплата $12 398. $13 на Лакхнау с 39°C 7 марта - выплата $6 850. Ставки по $13-25 с возвратом по $6-12 тысяч.
Ключевой инсайт пришел от знакомого пилота гражданской авиации. Пилоты получают атмосферные данные за часы до любого публичного прогноза. Температуру с точностью до десятой доли градуса. Эти данные бесплатны, потому что авиационная безопасность требует их открытости. За пределами авиации на них просто никто не смотрит.
Он посмотрел. Направил Claude на эти фиды. Задача: найди каждый город, где прогноз расходится с ценой. Claude находил десятки таких расхождений. Каждый день.
Сосед однажды утром увидел работающую станцию и наконец спросил, что она делает. Студент показал баланс. Сосед ничего не сказал. Просто попросил второй монитор.
Сейчас 34 тысячи подписчиков наблюдают за аккаунтом. $96K в активных позициях. Три Mac Mini, два экрана, один тихий парень, который понял: самая предсказуемая вещь на Земле - та, которую все игнорируют. Погода.
Открытые данные + LLM для парсинга и сравнения + предиктивный рынок с неэффективным ценообразованием. Вся "альфа" в том, что парень заметил информационную асимметрию, которая лежала на поверхности. Авиационные метеоданные публичны и точнее любого прогноза, но рынки предсказаний их не закладывают, потому что ни один маркетмейкер туда не смотрит. Классический случай, когда edge появляется от источника данных, а модель просто делает грязную работу по мониторингу и сопоставлению.
⚡️ DeepSeek готовит V4 и впервые модель такого уровня будет работать нативно на чипах Huawei. Это не просто релиз. Это сигнал, что экосистема начинает раскалываться.
Крупнейшие игроки вроде Alibaba, ByteDance и Tencent уже скупают сотни тысяч Ascend 950PR. Цены на чипы растут, спрос бешеный. При этом DeepSeek сознательно не дал NVIDIA ранний доступ к модели. Это выглядит как стратегическое решение, а не случайность.
Суть не в том, что NVIDIA потеряет деньги сегодня. Китай и так был ограничен экспортными правилами. Проблема глубже. Уходит зависимость от CUDA. А значит исчезает главный барьер, который держал всех внутри экосистемы NVIDIA.
Huawei сделал ход, который снижает стоимость перехода. Их чипы понимают те же инструкции. Разработчикам больше не нужно полностью переписывать стек. Это подрывает lock-in, на котором держался рынок последние годы.
По цифрам Китай пока не догнал топ. Ascend 950PR быстрее H20, но уступает H200. Производство ограничено. SMIC не может тягаться с TSMC, а память всё ещё частично импортная.
Но ключевое вообще не в этом. Китай закрыл контур. Есть свои модели, свои чипы и почти готовые решения для обучения. Два года назад этого не существовало.
Теперь вопрос уже не в том, может ли Китай делать сильный AI. Вопрос в том, сможет ли он делать его полностью на своей инфраструктуре. И похоже, что ответ становится положительным.
Если это закрепится, рынок перестанет быть единым. Появятся две параллельные экосистемы. И тогда борьба пойдёт не за модели, а за стандарты и платформы.
https://www.reuters.com/world/china/deepseeks-v4-model-will-run-huawei-chips-information-reports-2026-04-03/
🚨 NVIDIA выложила на Hugging Face квантизированную Gemma 4 31B
- NVFP4 сжимает веса в ~4 раза без заметной потери качества
- 99.7% от baseline на GPQA (75.46% vs 75.71%)
- Контекст до 256K
- Мультимодальность: текст, изображения, видео
- vLLM-ready + оптимизация под Blackwell
По железу:
- веса: ~16–21 GB VRAM
- нормальный запуск: от 24 GB
- полный 256K контекст: комфортно от 32 GB
31B-модель уровня frontier, которую наконец можно гонять локально на топовом consumer GPU, а не только в облаке
Попробовать: https://huggingface.co/nvidia/Gemma-4-31B-IT-NVFP4
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Gemma 4 от GoogleDeepMind дебютировала на 3 и 6 местах в open source leaderboard, став моделью №1 среди open source моделей из США.
При этом по числу параметров Gemma 4 (31B) в 24 раза меньше, чем GLM-5, и в 34 раза меньше, чем Kimi-K2.5-Thinking — при сопоставимой производительности и значительно меньших ресурсах.
Как превратить данные из 1С в реальные бизнес-инсайты за считанные дни
7 апреля в 12:00 Yandex DataLens и BI.Qube покажут, как выжать максимум из ваших данных без сложной разработки.
На реальном кейсе разберём, как работать с 290 млн чеков из 1С: связывать их со справочниками, обновлять и превращать в понятную аналитику. И главное - как получать ответы на вопросы бизнеса через Нейроаналитика, который работает как ИИ-агент.
Покажем весь путь без воды: от старта за 1 день до первых результатов уже через 1–2 месяца, с возможностью спокойно масштабировать аналитику дальше.
Подойдёт тем, кто хочет быстро выстроить связку 1С → BI и начать принимать решения на основе данных, а не догадок.
🚀 Google DeepMind представила Gemma 4
Новое семейство открытых моделей, которые можно запускать на собственном железе.
Четыре размера:
31B Dense & 26B MoE - топовые результаты для сложных локальных задач: кастомные ассистенты, анализ научных данных
E4B & E2B (Edge) — для мобильных устройств, поддержка текста, зрения и аудио в реальном времени
Ключевые особенности:
Заточены под продвинутый reasoning и агентные задачи (автономные агенты, планирование, многошаговые workflows)
По Arena Elo Score: Gemma 4 31B (1452) и 26B (1441) обгоняют Qwen 3.5 (1450), Kimi k2.5 (1454) и DeepSeek v3.2 (1425)
Где попробовать: Google AI Studio, Hugging Face, Kaggle, Ollama
Почему это важно: Apache 2.0 + open weights = можно файн-тюнить и деплоить без ограничений и зависимости от API. Именно это отделяет настоящий open-source релиз от «контролируемого» research drop'а.
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
Лицензия Apache 2.0 - полностью коммерчески свободная.
#Gemma
🚀 Qwen3.6-Plus- новый мультимодальный агент от Alibaba
Ключевые особенности:
💻 Agentic Coding - умнее и быстрее в написании кода
👁️ Улучшенное мультимодальное зрение - точнее воспринимает и анализирует визуальный контент
🏆 Топовые общие способности - сохраняет лидерские позиции
📄 Контекстное окно 1M токенов - доступно через API по умолчанию
Модель создана на основе обратной связи от сообщества Qwen3.5. Доступна уже сейчас через chat.qwen.ai и API. Обещают открыть исходный код других моделей серии Qwen3.6.
Chat: https://chat.qwen.ai
API: https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3.6-plus
Blog: https://qwen.ai/blog?id=qwen3.6
#Qwen #AI #AgenticCoding #VibeCoding #Agents
Пока все обсуждают искусственный интеллект сам по себе, промышленность тихо движется в сторону связки ИИ + роботы.
В «Норникеле» рассказывают, что машинное обучение у них уже несколько лет работает в реальном производстве и приносит около 10 млрд рублей в год — за счёт более точных прогнозов, оптимизации процессов и дополнительного извлечения металлов.
Но, по их мнению, самое интересное впереди. Следующий этап — роботизация. Рудники на глубине до двух километров, риски, сложные условия, и там алгоритмы и роботы часто справляются точнее, чем человек.
В итоге ставка делается не на ИИ, а на вполне практичную вещь — автоматизированные производства, где решения принимают алгоритмы, а делают роботы. И похоже, именно туда и будет двигаться промышленность ближайшие годы.