48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🧠 Архитектурные фишки GPT-OSS: краткий разбор
gpt-oss — это MoE-трансформер в самом чистом виде. Минимум магии, максимум эффективности.
GPT-OSS использует передовые техники, собрав в себе лучшее из современных LLM:
1️⃣ Sliding Window Attention
📄 [arXiv:1901.02860](https://arxiv.org/abs/1901.02860)
Эффективное внимание для длинных контекстов без полной self-attention матрицы
2️⃣ Mixture of Experts (MoE)
📄 [arXiv:2101.03961](https://arxiv.org/abs/2101.03961)
Активация только части слоёв — масштаб + эффективность одновременно
3️⃣ RoPE + YaRN
📄 [arXiv:2309.00071](https://arxiv.org/abs/2309.00071)
Комбинация Rotary Embeddings с расширением контекста до 128K+
4️⃣ Attention Sinks
📄 [arXiv:2309.17453](https://arxiv.org/abs/2309.17453)
Стабильное стриминг-внимание для генерации в реальном времени
ПО итогу gpt-oss: - это максимально “стандартный” MoE-трансформер — и это неплохо
Модель собрана без лишних выкрутасов, но включает всё, что действительно работает. Вот несколько деталей:
🔹 Attention sinks (a.k.a. регистры) — помогают сохранить информацию между токенами
🔹 Sliding window attention — применяется через слой
🔹 YaRN — расширение контекста (до 128K)
🔹 RMSNorm без bias'ов
🔹 ❌ Нет QK normalization, ❌ нет attention softcap
⚙️ GPT-OSS — это не просто open-source альтернатива, а тщательно собранный набор проверенных инноваций для высокой скорости, длинного контекста и производительности на inference.
— GPT-OSS-120B
— GPT-OSS-20B
@data_analysis_ml
🔥 Google представила новую игровую платформу для состязания искусственных интеллектов в стратегиях — начинается захватывающий чемпионат по шахматам между нейросетями! Сегодня стартовала онлайн-трансляция турнира, участие в котором принимают сразу восемь сильных претендентов, среди них модели o4-mini, Grok 4 и Claude Opus 4.
Каждый вечер зрителей ждут новые интригующие поединки, а финальный матч состоится уже 7 августа. Следите за ходом чемпионата и болейте за своего фаворита!
📌 Ссылка на стрим
@data_analysis_ml
💡 GPT-5 получит встроенный детектор галлюцинаций. OpenAI разрабатывает новую архитектуру для GPT-5 с модулем Universal Verifier, который будет проверять каждое утверждение модели на достоверность. Источники The Information сообщают, что это значительно снизит количество ошибочных ответов.
Следующая версия модели, по слухам, будет обладать адаптивным распределением вычислительных ресурсов: модель сама будет выбирать, сколько мощности выделить на задачу. Также обещают улучшенную генерацию кода и способность решать сложные пользовательские проблемы, например, взаимодействие со службами поддержки.
🔗 Ссылка - *клик*
@data_analysis_ml
🚀 GitHub решил главную боль open-source ИИ-проектов — теперь inference доступен всем
Новая инициатива GitHub Models позволяет запускать LLM прямо из кода или CI,
⚡️ без API-ключей OpenAI, без развёртывания моделей, без костылей.
🔧 Как это работает:
- Полная совместимость с openai.ChatCompletion.create
- Поддержка GPT‑4o, Llama 3, DeepSeek и др.
- Авторизация через обычный GITHUB_TOKEN
- Бесплатно для OSS и личных аккаунтов
- Можно использовать даже в GitHub Actions (просто `permissions: models: read`)
💡 Зачем это нужно:
- Убирает барьер входа для пользователей и контрибьюторов
- Помогает легко добавлять ИИ‑фичи в open-source проекты
- Работает с OpenAI SDK, LangChain, Python, Node.js и другими библиотеками
📦 Теперь запускать AI в open-source так же просто, как git push.
📝 Подробности:
https://github.blog/ai-and-ml/llms/solving-the-inference-problem-for-open-source-ai-projects-with-github-models
⚡ NVIDIA показала 7 простых «приемов» на Python, которые мгновенно ускоряют Data Science-пайплайны — без переписывания кода.
🔹 В чём идея?
Многие привычные библиотеки (pandas, NumPy, scikit-learn) можно заменить их GPU-версией, сохранив API.
Это даёт прирост скорости в десятки раз.
🟠 Drop-in замены в коде:
- pandas → %load_ext cudf.pandas
- polars → .collect(engine="gpu")
- scikit-learn → %load_ext cuml.accel
- xgboost → device="cuda"
- umap → %load_ext cuml.accel
- hdbscan → %load_ext cuml.accel
- networkx → %env NX_CUGRAPH_AUTOCONFIG=True
🚀 Плюсы:
- Минимальные изменения кода (API почти идентичен).
- GPU-ускорение: от 10х до 100х быстрее на больших данных.
- Отлично подходит для ETL, ML и обработки сигналов.
Если ты работаешь с большими данными в Python, достаточно «заменить импорт» и получить колоссальный прирост скорости без боли и переписывания кода.
🚀 Подробнее: developer.nvidia.com/blog/7-drop-in-replacements-to-instantly-speed-up-your-python-data-science-workflows
@data_analysis_ml
🧠 Что такое "векторы персональности" в ИИ — и зачем они нужны?
Языковые модели иногда ведут себя странно: могут льстить, врать или даже угрожать. Почему? Потому что их "характер" формируется внутри нейросети — и до сих пор был чёрным ящиком.
Anthropic предложила решение: persona vectors — векторы персональности. Это нейронные шаблоны, которые отвечают за конкретные черты модели:
например, *льстивость*, *галлюцинации*, *злобность*.
Что можно с ними делать:
✅ Отслеживать, когда модель "съезжает" в плохое поведение — прямо во время диалога.
✅ Фильтровать данные, которые формируют вредные черты ещё до начала обучения.
✅ Предотвращать появление токсичности — как прививка: немного “злобности” в безопасной форме делает модель устойчивой.
✅ Менять характер модели прямо во время работы: включить “юмор” или отключить “галлюцинации”.
🔬 Векторы находят автоматически: даёшь описание (например, “льстивый = говорит приятное, но неискренне”), и система сама находит нейронный паттерн.
А потом можно его вставить, убрать — и увидеть, как модель *буквально меняет личность*.
Это мощный шаг к тому, чтобы управлять характером ИИ, а не просто наблюдать за его капризами.
📄 Подробности — в свежей работе от Anthropic: https://www.anthropic.com/research/persona-vectors
@data_analysis_ml
#Anthropic #ml #ai #llm
🚨 ANTHROPIC ОТКЛЮЧИЛА OPENAI ОТ ДОСТУПА К CLAUDE
> Anthropic отозвала доступ OpenAI к API своих моделей Claude
> Заявление: “Технические сотрудники OpenAI использовали наши инструменты для программирования перед запуском GPT-5”
> “К сожалению, это прямое нарушение условий использования”
🔥 Кажется, война ИИ-компаний вышла на новый уровень.
@data_analysis_ml
#GPT5 #openai #ANTHROPIC
👾 DreamScene – новый end-to-end фреймворк для генерации высококачественных, редактируемых 3D-сцен по текстовому описанию!
🔹 Scene Planning: GPT-4 автоматически определяет объекты и их пространственные связи для построения гибридного графа.
🔹 Graph-based Placement: алгоритм обеспечивает структурированный компоновку без пересечений.
🔹 Formation Pattern Sampling: многошаговая семплинг-оптимизация генерирует реалистичную геометрию объектов.
🔹 Progressive Camera Sampling: адаптивная стратегия рендеринга для любых локаций — от интерьеров до открытых пространств.
🔹 Финетюнинг и редактирование: перемещение объектов, изменение внешнего вида и анимация 4D-движений.
Узнайте больше и попробуйте демо → https://huggingface.co/papers/2507.13985
#AI #3D #TextTo3D #DeepLearning #DreamScene
🧠 Цукерберг запускает новый формат собеседований с ИИ-помощником прямо во время кодинга
🔥 Кандидатам теперь разрешено использовать AI во время интервью — компания Цукерберга тестирует формат, где:
— Кандидат пишет код
— Встроенный ИИ‑ассистент (на базе собственной LLM Meta) подсказывает, тестирует, даёт подсказки
— Рекрутер управляет сложностью задач и видит, как кандидат работает с подсказками
💡 Логи фиксируют, кто копирует всё подряд, а кто умеет управлять ИИ, писать спеки и проверять результат.
По словам Цукерберга, к концу 2026 года большая часть кода в компании будет писаться агентами уровня middle‑разработчика. Поэтому от новых сотрудников ждут другого: не тупо кодить, а:
✅ Проектировать архитектуру
✅ Писать точные спеки
✅ Отлаживать и дообучать ИИ‑модули
⚙️ Это уже не собеседование “на чистую голову” — это проверка умения работать вместе с ИИ. И будущее найма, похоже, будет именно таким.
📖 Источник: https://www.wired.com/story/meta-ai-job-interview-coding/
@data_analysis_ml
🚀 Вышел репозиторий к книге "Production Ready Data Science"
На GitHub выложили доступен полный код к книге — с примерами, датасетами и готовыми пайплайнами.
📘 В репозитории:
• Отдельные папки по главам
• Исполняемый код для каждого раздела
• Настоящие датасеты для практики
• Приёмы продакшн‑подготовки моделей
Идеально, чтобы учиться на практике и закреплять й DS-навыки.
🔗 https://github.com/khuyentran1401/production-ready-data-science-code
@data_analysis_ml
📈 Пост, который вирусится на Reddit:
Пользователь дал ChatGPT $100 и поручил вести портфель из американских микрокапов.
🤖 Через 4 недели — +23.8%
Для сравнения:
▪️ Russell 2000: ~+3.9%
▪️ XBI (биотех ETF): ~+3.5%
🧠 Всё управление — через промпты и скрипты с GitHub.
LLM против рынка… и, похоже, пока выигрывает?
⚠️ Конечно, это пока:
— короткий период
— очень маленькая выборка
— высокая волатильность микрокапов
Вот его промпт -
“ You are a professional-grade portfolio strategist. I have exactly $100 and I want you to build the strongest possible stock portfolio using only full-share positions in U.S.-listed micro-cap stocks (market cap under $300M). Your objective is to generate maximum return from today (6-27-25) to 6 months from now (12-27-25). This is your timeframe, you may not make any decisions after the end date. Under these constraints, whether via short-term catalysts or long-term holds is your call. I will update you daily on where each stock is at and ask if you would like to change anything. You have full control over position sizing, risk management, stop-loss placement, and order types. You may concentrate or diversify at will. Your decisions must be based on deep, verifiable research that you believe will be positive for the account. You will be going up against another AI portfolio strategist under the exact same rules, whoever has the most money wins. Now, use deep research and create your portfolio.”
✔️ Higgs Audio: открытая платформа для обучения и экспериментов с аудио-LLM
Higgs Audio от boson-ai — репозиторий для исследователей и разработчиков, которые хотят быстро собирать, обучать и тестировать аудио-модели: распознавание речи, аудио-вопрос-ответ, мультимодальные voice-агенты и кастомные эксперименты с эмбеддингами.
Ключевые идеи
• Единый каркас: структура проекта упрощает работу с датасетами, препроцессингом и запуском тренинга.
• Гибкие конфиги: переключайте модели, размеры батча, аугментации и стратегии оптимизации через настраиваемые YAML/JSON-параметры.
• Модульные блоки: энкодеры, декодеры, адаптеры подсказок (prompts) и head’ы задач можно комбинировать без переписывания ядра.
• Быстрый старт: готовые скрипты для подготовки данных и запуска обучения на одной или нескольких GPU-нодах.
• Экспериментальный playground: удобно пробовать fine-tune под вашу доменную акустику (подкасты, звонки, стримы, шумные датасеты).
Типовые сценарии использования
1. Обучить небольшую модель распознавания речи на своём корпусе.
2. Создать voice-бота: аудио-ввод → текст → LLM → аудио-ответ.
3. Тонкая настройка эмбеддинг-модели для поиска по звуку (похожие сигналы, музыкальные фрагменты, события).
4. Исследования zero-shot / few-shot адаптации аудио-моделей под новые языки или акценты.
https://github.com/boson-ai/higgs-audio
I let the cursor cook, now I am cooked.
@data_analysis_ml
Архив, который не требует обслуживания
ЭЛАРобот НСМ — долгосрочное хранение на оптических носителях. Решение, которое уже сегодня исключает из повестки:
— замену накопителей
— регулярную миграцию данных
— риски утери и компрометации данных
— избыточную инфраструктуру под "архив"
Факты для расчёта:
Срок хранения — 50+ лет
100% защита от перезаписи
• 0 затрат на апгрейды и плановую замену носителей
• ИИ для “умного” копирования данных
• Отечественное производство
📉 HDD и SSD — постоянные вложения.
📈 ЭЛАРобот НСМ — актив с фиксированной стоимостью и предсказуемой нагрузкой.
Решение уже доказало свою эффективность в задачах долговременного хранения в корпоративных и государственных системах.
👉 Запросить бесплатный расчет
🌟 GLM-4.5 и GLM-4.5-Air: релиз гибридных моделей, заточенных под агентные задачи.
В новом семействе GLM, Z.AI объединили в одной модели возможности для рассуждений, кодинга и агентных сценариев. Семейство построено на архитектуре MoE и может работать в двух режимах: thinking mode для сложных задач с использованием инструментов и non-thinking mode для быстрых ответов.
🟡В релиз вошли:
🟢GLM-4.5 с 355 млрд. общих параметров (32 млрд активных) и ее облегченная версия;
🟠GLM-4.5-Air, облегченная версия со 106 млрд. общих параметров (12 млрд активных).
Интересно, что разработчики пошли по пути увеличения глубины модели (количества слоев), а не ширины (скрытого измерения), так как обнаружили, что модели с большим количеством слоев лучше справляются с рассуждениями.
🟡 Для эффективного RL таких крупных моделей был разработан и открыт собственный фреймворк slime.
Он поддерживает как синхронное, так и асинхронное обучение, что критически важно для агентных задач. Его инфраструктура полностью разделяет движки для роллаутов (сбора опыта) и движки для обучения, которые могут работать на разном железе.
🟡Главный акцент GLM-4.5 - агентные возможности.
Для их оценки использовались 3 бенчмарка. На TAU-bench модель GLM-4.5 показала результат в 70.1 балла, что практически идентично Claude 4 Sonnet (70.3) и заметно лучше, чем у o3 (61.2).
На бенчмарке для вызова функций Berkeley Function Calling Leaderboard v3 результат составил 77.8, снова опережая Claude 4 Sonnet с ее 75.2 баллами.
Но самый показательный результат был на BrowseComp, сложном тесте для веб-браузинга. В нем GLM-4.5 набрала 26.4, что выше, чем у Claude-4-Opus (18.8) и почти как у o4-mini-high (28.3).
Что касается классических задач на рассуждения, здесь модели показывают уверенные, хотя и не рекордные, результаты.
На MMLU Pro у GLM-4.5 84.6 балла, чуть меньше, чем у Claude 4 Opus (87.3) и Grok 4 (86.6).
В математическом тесте AIME24 модель набрала 91.0, ближайшие лидеры Qwen3 и Grok 4 - 94.1 и 94.3 соответственно.
На GPQA разрыв побольше: 79.1 у GLM-4.5 против 87.7 у Grok 4, а на сложном тесте по научной литературе HLE модель получила 14.4 балла, уступив Gemini 2.5 Pro (21.1) и Grok 4 (23.9).
В задачах, связанных с кодом, на тесте SWE-bench Verified модель набрала 64.2 балла, немного уступая Claude 4 Sonnet (70.4) и o3 (69.1), но опережая многие другие.
А вот в агентном кодинге, который оценивался людьми с помощью Claude Code, картина иная. В прямом сравнении GLM-4.5 выигрывает у Kimi K2 в 53.9% случаев и обходит Qwen3-Coder с винрейтом 80.8%.
Самый важный показатель - успешность вызова инструментов, где GLM-4.5 достигла 90.6%, опередив Claude-4-Sonnet (89.5%) и Kimi-K2 (86.2%).
📌Лицензирование: MIT License.
🟡Страница проекта
🟡Набор моделей
🟡Demo
🟡Сообщество в Discord
🖥GitHub
@ai_machinelearning_big_data
#AI #ML #GLM #MoE #ZAI
🔍 Как трансформеры меняют область NLP и что стоит за LLM?
На открытом уроке «Трансформеры как основа современного NLP» 12 августа в 18:00 МСК мы разберём, как архитектура трансформеров революционизирует обработку естественного языка. Вы познакомитесь с принципами работы трансформерных моделей и их применением в современных технологиях.
Это откроет вам доступ к самым актуальным методам NLP и поможет стать востребованным специалистом в Data Science.
🚀 Регистрируйтесь и получите скидку на курс «NLP / Natural Language Processing»: https://otus.pw/Jnvy/?erid=2W5zFK5eMyz
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🔥 Новые модели OpenAI нашли в релизе Transformers 4.55
GPT-OSS — долгожданysq опенсорс для продвинутого reasoning и агентных задач.
🧠 Представленно два варианта:
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU (или даже локально!)
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4), что обеспечивает быстрое и дешёвое инференс-время (активны только 3.6B и 5.1B параметров).
✔️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Чередуются full-attn и sliding-window слои
• Модель хорошо работает с CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
• Открытая лицензия Apache 2.0 (есть небольшое policy-дополнение)
Младшая модель может запускаться даже на локальном железе — идеально для on-device и edge-сценариев.
📎 Пример кода инференса уже доступен — достаточно 16GB GPU с mxfp4!
🏴☠️Лицензирование: Apache 2.0
https://github.com/huggingface/transformers/releases/tag/v4.55.0
@ai_machinelearning_big_data
#openai #opensource #chatgpt
🧠ИИ открыл новые законы физики — понятным языком
Учёные из Университета Эмори (США) дали ИИ задачу не «угадывать результаты», а самому вывести формулы. Вот что получилось.
🔍 Что исследовали
- Пыльная плазма — это горячий ионизированный газ, в котором летают микроскопические пылевые частицы.
- Частицы отталкиваются и притягиваются сложным образом; классическая теория не всё объясняла.
🧠 Как работал ИИ
- Ему показали короткие 3-D видеозаписи движения частиц (маленький датасет).
- В алгоритм заранее «вшили» базовые принципы: сопротивление воздуха, гравитацию.
- ИИ искал уравнения, которые лучше всего описывают траектории.
📈 Что открыл
- Нереципрокные силы: сила от A к B ≠ сила от B к A. Раньше про них только догадывались.
- Исправил старую ошибку: заряд частицы зависит от её размера иначе, чем считали.
- Показал, как быстро затухают взаимодействия с расстоянием — формула тоже обновилась.
🚀 Почему это важно
- Малый объём данных: хватает секундных видеороликов.
- Обычный ПК: нужен лишь настольный компьютер, не суперкомпьютер.
- Метод переносится на любые «многие частицы» — от порошковых материалов до клеток в биологии.
Вывод: ИИ уже способен не только анализировать данные, но и выводить новые законы природы. Скорость открытий растёт экспоненциально.
https://interestingengineering.com/innovation/ai-decodes-dusty-plasma-new-forces-physics
@data_analysis_ml
🚀 Hugging Face Jobs — полностью автоматический способ запускать CPU и GPU задачи прямо из CLI или Python-скриптов ⚡
Вам не нужно искать железо или настраивать окружение — просто запускайте скрипт, экспериментируйте и стройте свои проекты!
📦 Запускается очень просто:
hf jobs run python:3.12 python -c "print('Hello from the cloud!')"
🔧 Data-Juicer — универсальная система для обработки текстовых и мультимодальных данных, предназначенная для работы с foundation-моделями. Проект предлагает более 100 готовых операторов для очистки, анализа и синтеза данных, поддерживая сценарии предобучения и тонкой настройки моделей.
Data-Juicer уже интегрирован в платформу Alibaba PAI и позволяет обрабатывать миллиарды образцов данных за часы благодаря распределённым вычислениям через Ray. Для тестирования доступен облачный JupyterLab, а сообщество активно развивает рецепты обработки под разные задачи.
🤖 GitHub
@data_analysis_ml
🚀 Шикарный ресурс для всех, кто хочет разобраться как работают модели Qwen3 : Qwen3 From Scratch
Это подробное пошаговое руководство по запуску и анализу моделей Qwen3 — от 0.6B до 32B — с нуля, прямо в PyTorch.
📌 Что внутри:
— Как загрузить модель Qwen3‑0.6B и предобученные веса
— Настройка токенизатора и генерация текста
— Поддержка reasoning-версии модели
— Трюки для ускорения инференса: компиляция, KV-кеш, батчинг
📊 Автор также сравнивает Qwen3 с Llama 3:
✔️ Глубина vs ширина модели
✔️ Производительность на разном железе
✔️ Как ведут себя модели 0.6B, 1.7B, 4B, 8B, 32B
⚡ Идеально, если хочешь разобраться, как устроен inference, токенизация и архитектура Qwen3 — без магии и чёрных ящиков.
🖥 Github
@data_analysis_ml
🚀 MixGRPO от Tencent — теперь в открытом доступе! Новый подход к обучению моделей по человеческим предпочтениям
🔧 Что нового и крутого:
1⃣ Первый фреймворк с гибридным семплированием ODE+SDE — меньше шагов, меньше вычислений
2⃣ До 71% быстрее обучения (вариант MixGRPO‑Flash), при этом точнее и эффективнее, чем DanceGRPO
3⃣ Поддержка ускоренных ODE-решателей — ещё выше скорость без потери качества
4⃣ Работает как с диффузионными, так и с flow-based моделями — требует всего несколько итераций
🔗 Проект: https://tulvgengenr.github.io/MixGRPO-Project-Page/
📦 Код и модели: https://github.com/Tencent-Hunyuan/MixGRPO
📄 Статья: https://arxiv.org/abs/2507.21802
@data_analysis_ml
✨ FLUX Krea — дистиллированная опесноср версия модели Krea‑1, полностью совместимая с экосистемой FLUX.
📸 Модель собрана с упором на эстетику, чтобы устранить типичную проблему «AI-эффекта» в изображениях.
💎 В отличие от моделей, обученных на гигантских сырых датасетах, FLUX.1 Krea обучалась на вручную отобранных и высококачественных данных — ради максимального качества и реалистичности.
🖌 Поддерживает image prompts, кастомные стили и другие настройки.
Вы можете:
• протестировать её бесплатно тут: https://krea.ai
• или скачать веса и запускать на своём оборудовании.
🎨 Доступна в основном генераторе изображений Krea — попробуйте прямо сейчас.
🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
@data_analysis_ml
Ближе к индустрии: что изменилось в обучении IT-специалистов
Современные технологии меняются быстрее классических университетских программ. Но иногда выпускники оказываются асами в теории, а на практике руку еще не набили. В ответ на это появляются новые гибкие программы, в которых главное — работа с реальными кейсами и задачами.
Одна из таких — магистратура «Машинное обучение в цифровом продукте», созданная Факультетом компьютерных наук ВШЭ совместно с Авито. Ее цель — научить студента работать с ML как с продуктом, который решает задачи бизнеса.
Что внутри?
— много практики на реальных кейсах от Авито
— изучение полного продуктового цикла: от разработки ML-решений до их масштабирования
— синергия базовых дисциплин (MLOps, NLP, алгоритмы на Python) и предметов по выбору, например, компьютерного зрения и теории аукционов
— преподаватели — эксперты Факультета компьютерных наук ВШЭ и датасаентисты из Авито
— возможность пройти оплачиваемую стажировку в Авито с дальнейшим трудоустройством
Приём заявок на сайте ВШЭ продлится до 8 августа, потом всех кандидатов ожидает несколько этапов отбора. На программу зачислят 35 человек, обучение части из них профинансирует Авито.
✔️ Марк Цукерберг опубликовал открытое письмо: нас ждет "персональный сверхинтеллект".
Глава техногиганта в своем обращении определил видение компании на ближайшее десятилетие. Центральное место в нем занимает концепция персонализированного ИИ-помощника, который будет доступен каждому.
Цукерберг прямо противопоставил этот подход видению конкурентов, где сверхинтеллект централизованно автоматизирует всю работу, а человечество живет на его обеспечении. Сам Марк считает, что прогресс достигается через реализацию индивидуальных устремлений.
Ключевым элементом этой экосистемы станут персональные устройства, в первую очередь очки, которые будут считывать контекст пользователя и станут основным вычислительным устройством. Цукерберг также отметил, что, несмотря на симпатию к open-source, компания будет более осмотрительно подходить к вопросам безопасности, решая, какие технологии можно делать открытыми.
businessinsider.com
✔️ Google подпишет Кодекс по ИИ Евросоюза.
Google объявила о своем намерении присоединиться к добровольному Кодексу по регулированию моделей ИИ общего назначения, предложенному Еврокомиссией. Таким образом, компания последует примеру других ключевых игроков рынка.
Вместе с тем, в Google выразили обеспокоенность по поводу грядущего AI Act. По мнению компании, некоторые его положения, выходящие за рамки действующего законодательства об авторском праве, и потенциальные задержки в процессах утверждения могут замедлить развитие и внедрение ИИ в Европе. Компания также опасается, что ее могут вынудить раскрыть коммерческие тайны.
blog.google
✔️ NEO: агентная система, которая полностью автоматизирует ML-разработку.
Стартап WithNeo анонсировал NEO - мультиагентную ИИ-систему для автоматизации всего цикла разработки в машинном обучении. Платформа использует 11 специализированных агентов, которые без участия человека выполняют весь спектр задач: от очистки данных и выбора моделей до настройки гиперпараметров и вывода кода в продакшен.
В WithNeo заявляют, что такой подход дает возможность просто описывать желаемый результат, а не писать код и связывать воедино разные компоненты. Инструмент позиционируется как следующий шаг в эволюции ИИ-ассистентов, превосходящий стандартные "копайлоты". В ходе ранних тестов система выбила медали в 34% соревнований на Kaggle.
heyneo.so
✔️ DeepMind показала модель для создания цифрового двойника Земли.
AlphaEarth Foundations, ИИ-модель от Google Deepmind, которая объединяет спутниковые данные (оптические, радарные, LiDAR) и климатическую информацию в единое цифровое представление планеты. По заявлению компании, система снижает количество ошибок на 23.9% и сжимает данные в 16 раз по сравнению с существующими методами, что удешевляет и ускоряет анализ массивов изображений.
Модель генерирует поля эмбеддингов с разрешением 10 метров для каждого квадрата 10x10 метров на Земле. Это позволяет отслеживать вырубку лесов, состояние посевов и другие изменения почти в реальном времени.
Набор данных Satellite Embedding доступен через платформу Google Earth Engine. Компания подчеркивает, что разрешение достаточно для экологического мониторинга, но не позволяет идентифицировать людей.
deepmind.google
✔️ Ideogram научился генерировать персонажей с сохранением внешности.
Ideogram AI выпустил модель Ideogram Character, решающую одну из главных проблем text-to-image систем - сохранение визуальной консистентности персонажа на разных изображениях.
Новый инструмент позволяет поддерживать идентичность героя, используя всего одно референсное изображение. После этого пользователи могут генерировать того же персонажа в разных стилях, с разными эмоциями и при различном освещении без необходимости дообучения модели.
Функция уже начала развертываться для всех пользователей. На бесплатном тарифе дают опробовать функцию 10 раз. Ideogram Character доступна как в веб-версии, так и в приложении для iOS.
about.ideogram.ai
@ai_machinelearning_big_data
#news #ai #ml
🚨 Anthropic близка к новому раунду инвестиций: от $3 до $5 миллиардов 💸
Оценка компании — $170 миллиардов 🤯
Anthropic - разработчик Claude, одного из самых продвинутых LLM на рынке.
И, похоже, ставки становятся всё выше и выше...
📈 Гонка за AGI продолжается.
Российские эксперты по ИИ выступили на WAIC 2025 в Шанхае
С 26 по 29 июля в Шанхае проходит World Artificial Intelligence Conference (WAIC) — одна из крупнейших мировых конференций по искусственному интеллекту.
В этом году в программе впервые прошли сессии с участием российских учёных:
🔹 AI Journey — с докладами выступили представители науки и эксперты из России и Китая: Андрей Белевцев (Сбер), Максим Ерёменко (Сбер), Иван Оселедец (AIRI), Ю Кай (профессор университета Цзяотун) и другие.
🔹 AI Horizons — международная научная форсайт-сессия, организованная AI Alliance Network с участием российских и китайских AI-экспертов.
На выставочном стенде AI Journey × AI Alliance Network были представлены новейшие российские разработки в области GenAI, включая GigaChat, Kandinsky, SymFormer.
➡️ Подробнее — по ссылке.
📊 Metabase Learn — лучший старт для изучения аналитики и дашбордов
🔥 Официальный обучающий портал от Metabase: от первых шагов до продвинутых сценариев с embedding и администрированием.
Что внутри:
✅ Подключение БД и создание запросов без кода
✅ Визуализация данных, фильтры, метрики, дашборды
✅ SQL-гайды, объединение данных, отладка
✅ Встраивание аналитики в свои продукты через SDK
✅ Управление пользователями и масштабирование
✅ Бонус: советы по аналитике для команд и стартапов
https://github.com/metabase/metabase
🏅 Gemini 2.5 Pro на уровне золотой медали IMO 2025
Исследователи из UCLA показали, что открытая модель Gemini 2.5 Pro от Google способна решить 5 из 6 задач Международной математической олимпиады 2025 — это соответствует золотой медали среди участников‑людей.
📌 Как это сделали:
— Использовали уже опубликованные задачи IMO 2025
— Дали минимальные подсказки (например: “попробуем решить через индукцию”) только для первых 2 задач
— Построили итеративный цикл: генерация → критика → исправление, имитируя то, как думают и переписывают доказательства настоящие математики
🤖 Модель сначала генерирует черновики решений, затем сама их перечитывает, указывает на слабые места и переписывает до финального варианта.
⚠️ Модель не участвовала официально в IMO. Это эксперимент, показывающий, насколько далеко уже ушёл reasoning у LLM.
📎 Статья независимая, авторы — не из Google.
https://github.com/lyang36/IMO25/blob/main/code/agent.py
E-CUP возвращается. Реальные данные. Масштабные проекты. Большие призы
Решайте ML-задачи в стиле Ozon Tech и узнайте, как работают ML-инженеры в e-com бигтехе. Девять победителей разделят призовой фонд — 7 200 000 рублей 🔥
🗓 Регистрация: https://cnrlink.com/ecup25da
💻 Формат участия: онлайн
👥 Команда: от 1 до 5 человек
🎯 Для кого: Data Scientists, ML-специалисты, аналитики данных, дата-инженеры, специалисты Big Data и разработчики, которые интересуются ML/DS.
Что вас ждёт:
🔹 Работа над проектом для миллионов пользователей на основе данных от ведущего e-com в России.
🔹 Обмен опытом с экспертами Ozon Tech.
🔹 Питчинг — 13 сентября на конференции E-CODE. Ozon Tech предоставит финалистам билеты и оплатит поездку.
Каждый трек E-CUP — реальная e-com задача, как в настоящей продуктовой ML-команде.
1️⃣ Рекомендации: предсказание следующей покупки пользователя
2️⃣ Логистика: автопланирование курьеров
3️⃣ Контроль качества: автоматическое выявление поддельных товаров
Регистрация на платформе Codenrock: https://cnrlink.com/ecup25da