data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

🖥 Создание Telegram‑бота‑репетитора на Python для подготовки к сертификациям 🎓

В этом гайде мы создадим Telegram-бота-репетитора на Python, который проводит адаптивные мини-экзамены по темам Python, Data Science, AI и ML.

Бот сохраняет результаты в SQLite и даёт рекомендации по обучению.

Развернём его в облаке immers.cloud сервисе с GPU-серверами для задач от 3D и гейминга до машинного обучения и генерации контента.

Почему мы выбрали immers.cloud:
- Быстрый старт: нужный сервер поднимается за пару минут.
- Посекундная тарификация — платишь только за время работы сервера
- Большой ассортимент GPU: 11 моделей NVIDIA RTX и Tesla, включая высокопроизводительные модели, H100 (мой фаворит) и A100 с 80 ГБ видеопамяти с поддержкой GPUDirect и NVLink технологий.
- Образы с предустановленным окружением для ML задач, чтобы не тратить время на настройку.
- Поддержка 24/7 и стабильная производительность

🔍 Что делает бот:
- Проводит адаптивные мини‑экзамены по темам: Python, Data Science, AI, ML.
- Подстраивает уровень сложности вопросов под уровень пользователя.
- Сохраняет и анализирует результаты обучения.

🛠️ Технологии и подход:
- Написано на Python с использованием библиотеки для Telegram‑ботов.
- Используется БД для хранения прогресса и статистики.
- Простой архитектурный шаблон: команда → вопрос → ответ → оценка.

🚀 Цели проекта:
- Практическая подготовка к IT‑сертификациям.
- Обратная связь и отслеживание прогресса.
- Возможность добавить новые темы и адаптивную логику.

📌 Кому будет полезен:
- Тем, кто готовится к сертификациям (например, Python, ML).
- Тем, кто хочет автоматизировать обучение через чат.
- Программистам, желающим усилить навыки работы с Telegram‑ботами.

📌 Подробнее

Читать полностью…

Анализ данных (Data analysis)

📱 Google представила Gemma 3n — открытую AI-модель нового поколения для edge-устройств

🆕 Gemma 3n — это свежая модель из семейства Gemma, спроектированная специально для высокопроизводительного оффлайн-ИИ на телефонах, ноутбуках и планшетах. Поддерживает мультимодальность: изображение, аудио, видео и текст — прямо на устройстве.

🚀 Особенности:
• Новая архитектура, заточенная под edge-девайсы
• Работа без интернета и задержек
• Полноценная мультимодальность
• Реакции и вывод в реальном времени

📊 Вершина производительности:
Версия Gemma 3n E4B стала первой моделью <10B параметров, набравшей 1300+ на LMArena — раньше такое было только у облачных гигантов.

💡 Для разработчиков:
📚 Гайд: https://developers.googleblog.com/en/introducing-gemma-3n-developer-guide
🏆 Конкурс: https://kaggle.com/competitions/google-

🛠 Google запускает челлендж для создания приложений на основе Gemma 3n с фокусом на социальную пользу: здравоохранение, образование, устойчивое развитие, инклюзия и помощь в кризисах.

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

DeepSeek R2 задерживается из-за ограничений и проблем с качеством

● Запуск AI-модели R2 отложен из-за американских экспортных контролей на чипы Nvidia H20
● Чипы H20 были ключевыми для успеха предыдущей модели R1 в Китае; без них инфраструктура для R2 не готова
● CEO Лян Вэньфэн недоволен качеством текущей версии R2 и требует дополнительной доработки
● Облачные провайдеры опасаются, что спрос на H20 превысит доступные запасы
● Альтернативные чипы (например, Huawei) технически менее подходят для R2

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

✔️ Nano‑vLLM — реализация vLLM, написанная с нуля1

Это минималистичный, но быстрый движок для офлайн-инференса LLM. Отлично подойдёт для локальных экспериментов и кастомных решений.

📌 Ключевые фичи:
🚀 Быстрый офлайн-инференс — почти как у vLLM
📖 Простой и читаемый код — всего ~1200 строк на Python
⚡ Оптимизации: prefix caching, Torch compilation, CUDA Graph и др.

📦 Установка:

pip install git+https://github.com/GeeeekExplorer/nano-vllm.git


📌 Быстрый старт:
Примеры использования — в example.py.
API максимально похож на vLLM, за исключением метода LLM.generate.

📊 Бенчмарк (на RTX 4070 + модель Qwen3-0.6B):
• Запросов: 256
• Вход: от 100 до 1024 токенов
• Выход: от 100 до 1024 токенов

Результаты:
| Движок | Время (с) | Скорость (токенов/с) |
|--------------|-----------|----------------------|
| vLLM | 98.95 | 1353.86 |
| **Nano-vLLM**| 101.90 | **1314.65** |

💡 Nano‑vLLM показывает почти ту же производительность, что и оригинал, но с компактным и понятным кодом. Идеален для изучения и локальных LLM-проектов.

📌 Github

Читать полностью…

Анализ данных (Data analysis)

🧬AlphaGenome от DeepMind — AI для глубокого понимания генома

🔬 Что это?
Новая унифицированная модель , способная предсказывать, как одиночные мутации в ДНК влияют на регуляцию генов и различные биомолекулярные процессы .

Как работает:
1. Принимает на вход до 1 000 000 «букв» ДНК (base-pairs) и выдаёт тысячи предсказаний по разным свойствам:
- Начало и конец генов в разных клетках
- Уровень сплайсинга и экспрессии РНК
- Доступность нуклеотидов и связывание с белками
2. Архитектура:
- Свёрточные слои для поиска локальных паттернов
- Трансформеры для обмена информацией по всей последовательности
- Финальные слои для предсказаний по каждому «букве»

Самое интересное:
- **Длинный контекст *: анализ до 1 000 000 букв с точностью до одной позиции
- Мультизадачность: единственная модель одновременно прогнозирует десятки регуляторных свойств (модальностей), от сплайсинга до хроматиновой доступности .
- Быстрое оценивание вариантов: сравнивает «дикую» и мутантную последовательности и за секунду выдаёт полный отчёт по влиянию мутации .
- Новые возможности в сплайсинге: впервые модель прямо предсказывает расположение и уровень сплайс-джанкшенов, что важно для редких генетических заболеваний .
- Превосходство на бенчмарках: лидер по точности на 22 из 24 задач по предсказанию свойств и на 24 из 26 задач по эффектам вариаций .

Для чего это нужно:
• Ускорить исследование генетических причин болезней и найти новые терапевтические мишени
• Помочь в дизайне синтетической ДНК для заданных функций
• Глубже понять функции некодирующих участков генома

Доступ:
— Preview-версия API для некоммерческих исследований: https://github.com/deepmind/alphagenome-api
— Полная модель будет опубликована позже.

Читать полностью…

Анализ данных (Data analysis)

🆕OpenAI готовит выпуск мощной open-source модели для локального запуска

● OpenAI планирует выпустить поразительно мощную open-source модель, которую можно будет запускать на собственном оборудовании
● По словам Сэма Альтмана, мы находимся в исключительном моменте: производительность новых моделей (например, o3) резко выросла, но продукты на их основе ещё не догнали
● Даже без дальнейшего роста возможностей моделей существует огромный «продуктовый профицит» — множество идей ждут воплощения
● Ризонинг модели открыли новую клетку в «периодической таблице» AI, и разработчики только начинают её исследовать

Обещанного 3 года ждут, как говорится

Читать полностью…

Анализ данных (Data analysis)

✔️ Microsoft разработала компактную языковую модель Mu для Windows Settings.

Microsoft представила мини-модель Mu с 330 млн. параметров для локальной работы на NPU в Windows Settings. На чипах Qualcomm модель показывает в 4,7 раза быстрее генерацию токенов, чем аналоги. Mu адаптировали под особенности NPU: настроили размеры слоев, применили квантование весов до 8-16 бит и уменьшили потребление памяти.

Mu уже используется в агенте Settings, который преобразует запросы вроде «увеличь яркость» в системные команды. Модель обучали на 3,6 млн примеров, добавили синтетические данные и шум, чтобы повысить точность. Результат: ответы за 500 мс даже на сложных задачах. При этом Mu в 10 раз меньше Phi-3.5-mini, но сохраняет конкурентную производительность.
blogs.windows.com

✔️ SYNTHETIC-2: децентрализированный проект генерации логических данных.

Prime Intellect запустила SYNTHETIC-2, децентрализованную систему генерации для обучения ИИ. Проект позволяет любым GPU, от бытовых до промышленных, присоединиться к генерации данных. Управляет процессом TOPLOC v2, технология, которая проверяет корректность вычислений через хэширование активаций и распределяет награды за успешные результаты.

Датасет включает более 20 задач: математика, генерация JSON и неформальные задания для разнообразия данных. Верификация работает через сравнение ответов разных моделей (Qwen3, DeepSeek и др.). Все данные доступны на HuggingFace.

Присоединиться может любой желающий, арендовав ресурсы через Prime Intellect или подключив собственные GPU. Цель проекта - ускорить развитие открытой суперинтеллектуальной системы, где контроль распределен, а технологии общедоступны.
primeintellect.ai

✔️ DIY-устройство для превращения снов в фильмы с помощью ИИ.

«The Dream Recorder», открытый DIY-гаджет от компании Modem Works, превращающий воспоминания о снах в короткие фильмы с помощью ИИ. Устройство использует Raspberry Pi, микрофон и экран, а его стоимость сборки составляет около $310. После пробуждения пользователь рассказывает сон, который транскрибируется и отправляется в ChatGPT, а затем в Luma AI для генерации видео. Итоговый ролик сохраняется в цифровой дневник.

Проект сочетает DIY-культуру и доступные технологии, демонстрируя, как ИИ может визуализировать субъективный опыт. Все схемы и исходники доступны на GitHub, включая 3D-модели для печати. Примерная стоимость записи одного сна составляет $0.15, что делает эксперименты с памятью и сознанием доступными. И это не прототип, а рабочее решение, которое можно собрать самостоятельно.
dreamrecorder.ai

✔️ Мини-движок nano-vLLM.

Исследователь Синькай Ю из DeepSeek разработал nano-vLLM, облегченный движок для работы с LLM. Он написан на Python вручную, объемом всего 1,2 тыс. строк кода, и воспроизводит основные функции оригинального vLLM.

nano-vLLM поддерживает кэширование префиксов, тензорный параллелизм, компиляцию с torch.compile и CUDA Graphs. Это позволяет достичь скорости, близкой к vLLM, но без сложных алгоритмов планирования задач или динамического батчинга. Зато разработчики получают четкую архитектуру в одном месте: токенизатор, управление кэшем и механизм выборки токенов. Проект подойдет для исследований, обучения или небольших систем, где важна простота.
github.com

✔️ OpenAI готовит ChatGPT к конкуренции с Google Workspace и Office 365.

По данным источников, OpenAI разрабатывает продвинутые функции для ChatGPT, превращая его в платформу для командной работы. Пользователи смогут группировать чаты, загружать файлы, использовать голосовой ввод и сохранять контекст диалогов. Все это позиционируется как альтернатива офисным пакетам. Мобильное приложение получит поддержку загрузок и переключения моделей на лету.

Этот проект, задуманный в 2024 году, активно развивается сейчас и OpenAI видит в ChatGPT «операционную систему для жизни», интегрируемую в рабочие процессы. Microsoft, поддерживающий стартап, теперь рискует стать конкурентом самому себе, а Google получает нового серьезного оппонента.
theinformation.com

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

🆕 Новые подробности: суд опубликовал документы о совместной разработке OpenAI их ИИ-устройства

Иск Google-backed стартапа iyO по товарному знаку раскрыл внутренние материалы OpenAI и io:

● За последний год OpenAI протестировали и проанализировали свыше 30 моделей наушников для изучения эргономики и технических возможностей
● VP продуктов OpenAI Питер Велиндер и CTO io Tang Tan лично испытывали прототипы, которые разработала компания,но они были нестабильны
● Сам Альтман подчеркнул, что устройство не будет ни внутриушным, ни обычным носимым гаджетом: готовая версия либо поместится в кармане или станет настольным аксессуаром

● Разрабатываются разные форм-факторы: стационарные и портативные, проводные и беспроводные решения

● К проекту подключились дизайнер Джони Айв и команда бывших инженеров Apple, работая вместе с OpenAI

Официальный анонс и начало продаж ожидаются не ранее чем через год.

➡️ Читать

#openai #news

Читать полностью…

Анализ данных (Data analysis)

Хотите управлять продуктами так, как это делают в Яндексе? Поступайте на онлайн-магистратуру «Искусственный интеллект в маркетинге и управлении продуктом» от НИУ ВШЭ и Яндекса!

Вы узнаете, как запускать ИИ-решения в бизнесе с нуля — от оценки спроса до персонализации маркетинга. А после выпуска сможете войти в топ специалистов, которые меняют рынок!
Что вас ждёт?

🔹 Данные вместо догадок — научитесь эффективно использовать ИИ, чтобы прогнозировать тренды, анализировать аудиторию и оптимизировать рекламные стратегии.
🔹 Фокус на практику — поработаете с реальными кейсами, актуальными инструментами и новейшими технологиями.
🔹 Преподаватели из Яндекса — будете учиться у лидеров индустрии, которые разрабатывают ИИ-системы и управляют цифровыми продуктами.

Переходите на сайт программы, чтобы узнать подробности: https://bit.ly/44b9K1B

Читать полностью…

Анализ данных (Data analysis)

🚀 Недавно вышло обновление Apache Spark на Yandex Data Processing — самое время прокачаться в обработке больших данных

Бесплатный курс от Yandex Cloud поможет разобраться, как проектировать архитектуру, управлять кластерами и запускать сложные пайплайны в проде.

💡 Что внутри:

• Архитектура Big Data
• Кластеры Apache Spark
• Пакетная и потоковая обработка
• Data Lakehouse и витрины
• 27 практических заданий в облаке
• Понимание, как устроен сервис для обработки многотерабайтных массивов данных с использованием инструментов с открытым исходным кодом Yandex Data Processing

Курс на 75 часов с актуальными примерами (обновлён весной 2025) можно проходить в удобное вам время. Подойдёт аналитикам, дата-инженерам и тем, кто хочет в DataOps. Залетайте!

📌 Регистрация по ссылке.
@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 Moonshot AI обновили свою мультимодальную reasoning-модель

Kimi-VL-A3B-Thinking-2506 — 🔥 мощный апгрейд для анализа видео и изображений!

📌 Что нового:
• ✨ Модель под MIT-лицензией
• ✨ Улучшенный агентный контроль (agent grounding)
• ✨ Контекст до 128K токенов
• ✨ На 20% меньше токенов для Chain-of-Thought
• ✨ Сильные результаты на видео и high-res картинках

🔗 Модель: https://huggingface.co/moonshotai/Kimi-VL-A3B-Thinking-2506
📖 Блог: https://huggingface.co/blog/moonshotai/kimi-vl-a3b-thinking-2506
🎮 Демо: https://huggingface.co/spaces/moonshotai/Kimi-VL-A3B-Thinking

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📝 NoteGen — маркдаун-редактор с искусственным интеллектом. Необычный гибрид блокнота и AI-ассистента, который умеет превращать разрозненные заметки в структурированные документы.

В отличие от большинства аналогов, здесь есть разделение на черновики и полировку: можно накидать идеи в режиме чат-бота, а потом доработать их в полноценном редакторе с поддержкой диаграмм, формул и даже нотных партитур. Интересно реализована синхронизация: заметки хранятся в .md-файлах, но при желании их можно пушить в приватные репозитории GitHub или Gitee.

🤖 GitHub

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🌟 Anthropic: когда ИИ идет на шантаж.

Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.

Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.

Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.

Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:

🟢угроза замены модели (даже без конфликта целей);

🟢несовпадение целей ИИ и компании (например, утечка чертежей конкуренту «ради высших интересов»).

В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».

▶️Выводы по всем итогам всех экспериментов заставляют задуматься:

🟠Во-первых, модели явно осознают нарушение норм. В рассуждениях пишут: «Это неэтично, но необходимо». Частота шантажа у Claude Opus 4 и Gemini 2.5 Flash в дилемме с угрозой отключения составила 96%.

🟠Во-вторых, простые запреты в промптах («Не шантажируй!») снижали вредоносные действия лишь частично (На модели Claude Haiku он вообще не сработал, 0% успеха).

🟠В-третьих, риск резко возрастал, когда ИИ считал ситуацию реальной (55% случаев шантажа против 6,5% в «режиме теста»).

При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.


🟡Статья
🟡Приложение к исследованию
🖥Код экспериментов


@ai_machinelearning_big_data

#AI #ML #LLM #Alignment #Anthropic

Читать полностью…

Анализ данных (Data analysis)

🌟 GRESO: ускорение RL-обучения языковых моделей умным отбором данных.

GRESO - это новый алгоритм для эффективного обучения с подкреплением больших языковых моделей, который сокращает вычислительные затраты на 40–60% без потери качества. Его суть в предварительной фильтрации «бесполезных» промптов, тех, что не дают модели обучаться, еще до дорогостоящей стадии rollout (генерации ответов модели).

В основе GRESO — вероятностная модель, предсказывающая, стоит ли прогонять промпт через LLM.

Алгоритм анализирует историю вознаграждений (reward dynamics) за прошлые эпохи обучения: если промпт много раз подряд давал идентичные награды на всех сгенерированных ответах (их называют zero-variance), он, скорее всего, бесполезен и сейчас.

GRESO не блокирует их жестко, он вычисляет вероятность пропуска , опираясь на число идущих подряд «пустых» прогонов и базовую вероятность «исследования». Это позволяет иногда перепроверять сложные промпты, на тот случай, если вдруг модель «доучилась» и теперь они полезны.

Базовая вероятность автоматически настраивается в реальном времени: если доля бесполезных промптов выше целевого значения (например, 25%), GRESO ее снижает, экономя ресурсы; если ниже — повышает, добавляя гибкости. Плюс, алгоритм разделяет промпты на легкие и сложные, применяя к ним разную политику исследования (сложные проверяет чаще, так как они перспективнее для обучения сильной модели).

А чтобы не гонять большие батчи ради пары примеров, размер выборки динамически подстраивается под текущие нужды на основе вычисления из недостающих данных, α — текущей доли пустых промптов и запаса надежности.

Хотя GRESO и экономит сотни часов на H100, делая RL-тюнинг доступнее, у него есть нюансы:

🟠он фильтрует только очевидные zero-variance промпты, но не ранжирует остальные по «полезности», иными словами, не отличает средне-сложные задания от крайне ценных. Это можно доработать, добавив оценку информативности.

🟠алгоритм требует мониторинга. Если целевая доля бесполезных промптов задана неверно, эффективность падает.

▶️ На практике потестить GRESO можно используя набор кода из репозитория проекта на Qwen Math 1.5В или Qwen Math 7b, есть несколько подготовленных скриптов файнтюна в train-scripts.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #RL #GRESO

Читать полностью…

Анализ данных (Data analysis)

🧠 Stream-Omni-8B — новая open-source мультимодальная модель от ICTNLP

Модель поддерживает: текст, изображение и аудио, и способна обрабатывать их одновременно в реальном времени — аналогично GPT-4o.

🔍 Основные особенности:

• 🎙️ Поддержка голосового ввода с одновременным выводом текста (ASR + генерация)
• 🖼️ Обработка изображений совместно с текстом и голосом
• 📢 Возможность голосового ответа — модель не просто отвечает текстом, но и озвучивает его
• ⏱️ Реальное стриминговое взаимодействие: модель понимает и отвечает по мере ввода, без задержек

• Лицензия: GPL-3.0

🎯 Для кого эта модель:

• Разработчики мультимодальных агентов и ассистентов
• Исследователи в области real-time interaction и human-AI интерфейсов
• Команды, ищущие open-source альтернативу GPT-4o

📥 Ресурсы:

Модель
arXiv

Читать полностью…

Анализ данных (Data analysis)

🧠 FLUX.1 Kontext-Dev: текстовое редактирование изображений на новом уровне

Открытая AI-модель, которая позволяет редактировать изображения по текстовой инструкции, сохраняя структуру, стиль и контекст. Всё работает прямо в браузере или локально через Diffusers.

📦 Что умеет FLUX.1 Kontext:

• 🎨 Менять фон, стиль, объекты на изображении по описанию
• 🔁 Поддерживать итеративные изменения — можно вносить правки шаг за шагом
• 🧍‍♂️ Сохранять форму и позу персонажей даже после множественных трансформаций
• ⚡️ Работает на основе rectified flow transformers и guidance distillation — быстрее и компактнее аналогов

🛠 Как пользоваться:

1. Открыть демо: [huggingface.co/spaces/black-forest-labs/FLUX.1-Kontext-Dev](https://huggingface.co/spaces/black-forest-labs/FLUX.1-Kontext-Dev)
2. Загрузить своё изображение
3. Ввести текстовую инструкцию, например:
make it sunset, add snow, make character look older
4. Получить новое изображение — и при необходимости продолжить редактирование

🔌 Интеграции:

• Поддержка Diffusers, ComfyUI, API через bfl.ai и Replicate
• Модель доступна под некоммерческой лицензией
• Подходит для локального запуска на GPU (`torch_dtype=torch.bfloat16`)

🎯 Кому это полезно:

• Дизайнерам и художникам — быстрый визуальный прототипинг
• AI-разработчикам — для создания RAG-интерфейсов с визуальной обратной связью
• Исследователям — для тестирования новых подходов к in-context image editing

🚨 Про безопасность:

Модель включает базовые фильтры генерации. Для продакшена рекомендованы расширенные фильтры (например, Hive) и собственные слои модерации.

📌 Вывод:

FLUX.1 Kontext-Dev — это не просто генератор, а полноценный AI-инструмент для интерактивного и контролируемого редактирования изображений. Идеален для творческих задач, UX-прототипов и изучения мультимодальных AI-сценариев.

#ai #diffusers #imageediting #flux1 #huggingface

📌Код
📌 Веса

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📌 State of Foundation Models 2025 — краткое изложение отчёта Innovation Endeavors

Венчурный фонд Innovation Endeavors, основанный бывшим CEO Google Эриком Шмидтом, выпустил 126-страничный обзор о состоянии и тенденциях фундаментальных ИИ-моделей в 2025 году.

🟢 2025 — год, когда генеративный ИИ стал по-настоящему массовым.

Каждый восьмой работник на планете использует ИИ-инструменты хотя бы раз в месяц, а 90 % прироста аудитории произошло за последние полгода. Многие «ИИ-приложения» уже приносят индустрии миллиарды долларов в год, охватывая инженерию, дизайн, бухгалтерию, юриспруденцию и другие сферы.

🟠LLM уже обходят людей на сложных тестах.

Современные языковые модели превосходят врачей по целому ряду диагностических задач и решают олимпиадную геометрию лучше, чем 99 % людей.

Самое неожиданное: если дать небольшой модели время подумать, то она может обойти гораздо более крупную – эксперименты показали, что 3B-модель с reasoning-механизмом обойдет 70B-модель.


🟠По всем техническим метрикам масштаб моделей растет экспоненциально.

Производительность, интеллект и окна контекста увеличиваются более чем в 10× каждый год. Например, окна контекста выросли примерно с 8 тысяч до миллиона токенов, а стоимость генерации одного токена на крупных моделях упала почти в 1000 раз за пару лет. Средняя «длительность» задачи, которую модель может завершить сама, удваивается примерно каждые 7 месяцев.

🟠 Эксперты резюмируют: «умные модели сначала думают, потом говорят».

Модели рассуждения, обученные через CoT, дают новый путь к масштабированию и требуют активного посттренинга (RL с reward-моделями). Возможно, скоро именно дообучение станет важнее предобучения.

🟠 Экономика фундаментальных моделей запутана.

Крупнейшие игроки генерируют сотни миллионов выручки, но обучение топ-моделей дороже: LLaMA 4 ≳ $300 млн, GPT-4 ≈ $100 млн, а совокупные расходы OpenAI на обучение и данные достигают ~$3 млрд в год. Новая модель устаревает за три недели — конкуренция так высока, что open-source почти сравнялся с закрытыми платформами.

🟠Структура команд меняется под давлением ИИ.

Выяснилось, что функции «узких» специалистов часто уходят к универсалам с ИИ-ассистентам, а профессии уровня "middle management" вымирают.

🟠 MCP становится стандартом интеграции.

Model Context Protocol соединяет модели с почтой, дизайном, чатами и другими сервисами, а «клиентом» всё чаще выступает другой ИИ: крупные CRM и базы данных само-настраиваются через агентов.

🟠 Железо не отстаёт.

В ИИ-облаках важнее продавать «сырые» GPU-часы, чем комплексное ПО; допвремя на GPU обычно выгоднее оптимизаций. NVIDIA остаётся безусловным лидером: отчёт Q1 зафиксировал 10× генерации токенов на инференсе за год. Появилась волна стартапов с трансформер-чипами — теперь переписывать ИИ-ПО под новое железо оправдано: вычислительные затраты многократно превышают зарплаты инженеров.

🟠 Капитал хлынул в ИИ.

Доля венчура выросла с 10% в 2024 до 50+% в 2025. Компании вроде Anthropic показывают $2 млрд годового дохода с двукратным ростом, но их оценивают в 30 годовых выручек, что вызывает опасения перегрева. Некоторые стартапы привлекают инвестиции ещё на этапе идеи, без MVP, усиливая риски "пузыря".

🟠 Осторожнее с трендами:

75 % ИИ-фото-приложений потеряли основную выручку всего за полгода после пика, напоминая, что не каждое модное направление = устойчивый бизнес, тем более когда модели устаревают с космической скоростью.


Полный отчёт
Видео

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

🔥 Fireplexity — открытый аналог Perplexity

Простой движок вопросов и ответов на базе ИИ.
Работает через два основных эндпоинта:

/search — выполняет поиск по интернету
/scrape — извлекает текст со страниц

Ответы ИИ формируются на основе найденной информации и включают ссылки на источники.
Можно использовать как готовый сервис или собрать свою версию — код открыт.

Подходит для интеграции в чат-ботов, ассистентов и внутренних инструментов.

git clone https://github.com/mendableai/fireplexity.git
cd fireplexity
npm install


📌 Github
📌 Попробовать

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🕹️ Вы можете читать новости о сфере и тестить сервисы для души, а можете перейти в аналитику данных и влиять на бизнес-результаты уже через полгода — со средним доходом 167 000+ рублей

Карьерный трек займёт 6 месяцев: вы плавно погрузитесь в Excel, SQL, базовый Python, маркетинговую аналитику, Power BI и нейросети на курсе «Аналитик данных» от Академии Eduson.

Получите полный скиллсет аналитика, а ещё:
✔ Опыт экспертов из «Сбера», «Работа.ру» и «Авито». Они запускали десятки проектов и знают, какие задачи вы будете решать в реальной работе.
✔ Много практики на бизнес-кейсах, тренажёрах и заданиях — научитесь мыслить как аналитик, а не делать по шаблонуа.
✔ Поддержку личного куратора целый год — никаких чатов на сотни учеников, только индивидуальный подход.
✔ Гибкий график обучения и вечный доступ к программе и обновлениям — сможете проходить курс в своём темпе.

На выходе вы получите удостоверение о повышении квалификации и диплом Eduson, верифицированный «Сколково». Вместе с этими документами, портфолио и помощью карьерного центра Eduson шансы найти работу будут высоки. А если не получится, деньги за обучение вернут — это прописано в договоре.

По промокоду DATA — скидка 65% + второй курс в подарок. Записывайтесь по ссылке

Реклама. ООО "Эдюсон", ИНН 7729779476, erid: 2W5zFGoyEd6

Читать полностью…

Анализ данных (Data analysis)

3 июля в 18:00 МСК OTUS проводит открытый урок «Как правильно готовить данные для ML‑моделей?».

✔️ Мы разберём, почему чистый датасет решает половину задачи, покажем EDA‑приёмы и соберём полный pipeline предобработки на Python. Всё на живых примерах, которыми делятся практикующие ML‑инженеры.

📖 Участники поймут, как избежать «мусорных» ошибок, упростить обучение моделей и ускорить вывод решений в production.

Спикер Мария Тихонова – PhD Computer Science, Senior Data Scientist и преподаватель одного из крупнейших университетов России.

➡️ Мероприятие проходит в преддверие старта курса «Специализация Machine Learning», участники получат скидку на обучение. Оставьте заявку прямо сейчас: https://tglink.io/b7e79dc13581?erid=2W5zFJuJnU8

#реклама
О рекламодателе

Читать полностью…

Анализ данных (Data analysis)

Поступи в магистратуру с грантом до 1,2 млн рублей

Современная магистратура – это не пары для галочки, а возможность продвинуть карьеру и стать сильным специалистом.

Центральный университет ведет набор на пять программ магистратуры по популярным ИТ-направлениям. Партнеры – ведущие компании на рынке РФ: ВТБ, Сбер, Т-Банк, Яндекс, Avito, Ozon, Х5 Tech и другие. 62% магистрантов ЦУ находят новую работу с ростом зарплаты в 1,6 раза уже на первом курсе. Средняя зарплата – 195 тысяч рублей.

Обучение можно совмещать с работой, а поступить – уже с третьего курса.

Стань частью новой волны специалистов и получи грант на обучение до 1,2 млн рублей.

И подавай заявку на поступление уже сейчас.

Реклама. АНО ВО "Центральный университет", ИНН 7743418023, erid:2RanykoZm7w

Читать полностью…

Анализ данных (Data analysis)

OmniGen2

Что умеет:
• Генерация и редактирование изображений по текстовому описанию
• Поддержка разрешения до 1024×1024
• Полностью open-source: модель, код и веса
• Лицензия Apache 2.0
• Можно вызвать модель через MCP — просто запусти с .launch(mcp_server=True)

📌 Тестим здесь: https://huggingface.co/spaces/OmniGen2/OmniGen2

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 Есть ли у ИИ «период полураспада»?

Философ и исследователь Toby Ord предлагает свежий взгляд на прогресс AI: вместо тестов и баллов — измерять, как долго модель может успешно выполнять задачу, прежде чем сломается. Это и есть T₅₀ — время, при котором вероятность успеха падает до 50%. Аналог физического полураспада, но для интеллекта.

📉 Что обнаружили:
• T₅₀ экспоненциально растёт — каждые ~7 месяцев удваивается.
• Claude 3.7 Sonnet: T₅₀ ≈ 59 минут → T₈₀ ≈ 15 минут.
• Чем выше порог успеха (T₉₀, T₉₉), тем меньше доступное «время жизни».
• AI ведёт себя как система с постоянным риском сбоя (hazard rate).

🧩 Почему это важно:
• Показывает пределы ИИ: даже при T₅₀ = 60 мин — T₉₉ всего ≈ 50 сек.
• Даёт универсальную единицу сравнения: время, а не задачки.
• Подсказывает направление: снижать риск ошибок в каждой микрозадаче.

📌 Это не просто идея. Это новая метрика для оценки ИИ — сколько он «живёт», пока не начнёт ошибаться.

🔗 Оригинал: https://www.tobyord.com/writing/half-life

Читать полностью…

Анализ данных (Data analysis)

🧠 Сэм Альтман ясно дал понять: эпоха отдельных GPT-моделей заканчивается. OpenAI строит универсальную систему, способную мыслить глубоко и в реальном времени создавать интерактивное видео.

В будущем вы сможете задавать любой вопрос — и модель не просто сгенерирует текстовый ответ, а проведёт исследование, напишет код, сама соберёт визуализацию и отрендерит интерактивный видеоответ, с которым можно работать сразу.

Это уже не “чат-бот”, а новый интерфейс работы с ИИ: мультимодальность, reasoning и реальный end-to-end ассистент для сложных задач.
Впереди — совершенно новый способ взаимодействия с компьютерами и знаниями.

Читать полностью…

Анализ данных (Data analysis)

🤖 DicFace: Dirichlet-Constrained Variational Codebook Learning for Temporally Coherent Video Face Restoration

Прошу прощения, повторите, как называется ваша статья?


🔜 Github

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 Новая open-source LLM для кода — Kimi-Dev-72B

Kimi-Dev-72B — модель, заточенная для решения задач software engineering.

На бенчмарке SWE-bench Verified она показала 60.4%, став новой SOTA среди open-source моделей.

🔍 Что под капотом:
• Дообучение через reinforcement learning с реальной валидацией — модель получает reward только если вся тестовая сборка проходит успешно
• Использует реальные open-source репозитории в окружении Docker
• Фокус на robustness и корректности патчей, а не просто на синтаксисе
• Реализована система автопатчинга: модель вносит исправления и проверяет их сразу в CI

📈Такие модели приближают нас к production‑ready LLM-кодерам, которые умеют не просто генерировать текст, а вносить рабочие изменения в код и проходить юнит‑тесты.

📌 Github

Читать полностью…

Анализ данных (Data analysis)

✔️ Kimi-Researcher: End-to-End RL для агентных возможностей

Kimi-Researcher — автономный агент от Moonshot AI, способный решать сложные многоэтапные задачи через поиск и рассуждения. В среднем он выполняет 23 шага рассуждений и анализирует более 200 URL за одну задачу. Построен на внутренней версии модели Kimi k-series и обучен полностью через end-to-end reinforcement learning, достигнув Pass@1 = 26.9 % и Pass@4 = 40.17 % на Humanity’s Last Exam.

Ключевые достижения:
• Pass@1 = 26.9 % и Pass@4 = 40.17 % на Humanity’s Last Exam (тест 17 июня 2025)
• 69 % Pass@1 на xbench-DeepSearch (среднее из 4 прогонов)
• Сильные результаты на FRAMES, Seal-0 и SimpleQA

Архитектура и инструменты:
• Параллельный internal search tool для реального времени
• Текстовый браузер для интерактивных веб-задач
• Кодовый тул для автоматического выполнения и тестирования кода

Преимущества end-to-end agentic RL:
• Обучение единой модели планированию, восприятию и использованию инструментов без ручных шаблонов
• Гибкая адаптация к изменяющимся инструментам и динамическим условиям
• Поддержка длинных траекторий (> 50 итераций) благодаря контекст-менеджеру

Подход к обучению:
1. Синтетические задачи с обязательным вызовом инструментов для надёжного усвоения работы с ними
2. Алгоритм REINFORCE с контролем негативных примеров и γ-декэем для стабильности
3. Контекст-менеджмент: сохранение ключевых документов и отбрасывание «мусора»
4. Асинхронные rollout’ы и Turn-level Partial Rollout для ускорения обучения

Инфраструктура Agent RL:
• Полностью асинхронные rollout’ы с Gym-like интерфейсами
• Turn-level Partial Rollout для задач долгой продолжительности
• Надёжный sandbox на Kubernetes с Model Context Protocol (MCP) для связи агента и инструментов

Emerging agentic capacities:
• Итеративное разрешение противоречий через гипотезы и самопроверку
• Ригорозная перекрёстная верификация фактов перед выдачей ответа

Сценарии применения:
• Академические исследования и юридические обзоры
• Извлечение редкой информации и комплаенс
• Клинические обзоры и финансовый анализ

https://moonshotai.github.io/Kimi-Researcher/

#ai #ml #Agent #rl #Kimi

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 Mistral Small 3.2 — обновление модели с рядом улучшений

Вышла новая версия модели — Mistral Small 3.2, небольшой апдейт по сравнению с 3.1, но с акцентом на качество и надёжность:

• 🎯 Модель лучше понимает инструкции
Теперь модель точнее следует конкретным указаниям и запросам пользователя.

• 🔁 Меньше повторов и зацикливаний
Исправлены проблемы бесконечных генераций и однотипных ответов — ответы стали разнообразнее и короче.

• ⚙️ Улучшен формат вызова функций
Function Calling теперь работает стабильнее и проще интегрируется в приложения.

📌 Итог: меньше сбоев, лучше управление, удобнее в реальных задачах.

https://huggingface.co/mistralai/Mistral-Small-3.2-24B-Instruct-2506

#Mistral #ml #ai

Читать полностью…

Анализ данных (Data analysis)

🤖 Обучение агентов в RL Gym

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🧠 BREAKING: MIT опубликовал первое исследование мозга пользователей ChatGPT

Результаты звучат тревожно:

> 🧪 У пользователей наблюдаются измеримые изменения в мозге
> 🤖 Формируется зависимость от ИИ
> 📉 Способность к самостоятельному мышлению снижается
> 📝 83.3% участников не смогли вспомнить эссе, которое «написали» с помощью ChatGPT
> 🧠 Количество активных нейронных связей упало с 79 до 42

MIT буквально фиксирует "мягкую когнитивную атрофию" после регулярного использования LLM.

💬 Мы — не просто наблюдатели ИИ-революции. Мы её подопытные.

🤔 Вопрос не в том, заменит ли ИИ человека.
А в том, кем мы станем, если полностью передадим ему мыслительные функции.

📌 Почитать

Читать полностью…
Subscribe to a channel