data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

🙂 Tongyi Lab, похоже, вот-вот выпустит Qwen-Image-Edit-2512

Вчера, на просторах сети Х, Tongyi Lab запостила тизер "новогоднего подарка, который уже в пути".

Так как все очень сильно и давно ждут Z-Image Base и Edit и Omni, сверхразумы Redditа пошли разгадывать таинственный пост.

Розыскную бригаду собирать не пришлось - новинку спойлернул gemini-code-assist в репозитории Modelscope : это будет qwen-image-2512


#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

👨‍🎓 Harvard выложил в открытый доступ учебник по ML-системам и это редкий случай, когда материал действительно полезный.

В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.

Что в книге и почему она стоит внимания:

- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри

- разбираетесь в базах: батчи, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и настраивать модели

📚 То есть это не вводная книжка, а полноценный roadmap от теории к продакшну.


📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf

Читать полностью…

Анализ данных (Data analysis)

Хотите построить собственного торгового робота и запустить его в облаке?

Мы запускаем курс, где вместе с вами создадим полноценного торгового робота для онлайн-торговли на российской бирже.
Вы пройдете весь путь от идеи до работающего сервиса.

💪 Что будет реализовано на курсе «ML для финансового анализа»:
- работа с реальными биржевыми данными
- реализация торговой стратегии (алгоритмы / ML)
- тестирование её на исторических данных
- настройка риск-менеджмента и мониторинга
- развернём робота в облачной среде


Результат: не абстрактный ноутбук, а живой финтех-проект.

Кому подойдёт:
- студентам IT и технических направлений
- начинающим ML / Data / Backend-инженерам
- всем, кто хочет понять, как реально работают торговые системы

☝🏻Опыт в трейдинге НЕ обязателен - мы дадим все основы.

Если хотите не просто учиться, а делать реальные системы - это к нам.
Постройте торгового робота. Запустите его в облаке. Сделайте шаг в финтех.

🔥 Успейте оставить заявку, старт 14 января: https://otus.pw/6dCB/

🎄Учитесь в новом году по старым ценам!
Максимальная скидка 30% 🎁 на обучение до 31.12.2025:
1 курс — тающая скидка 10% до 29.12 и 5% до 31.12
2 курса −25%, 3 курса −30%
Учиться системно — выгоднее!

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963

Читать полностью…

Анализ данных (Data analysis)

Статья Step-DeepResearch где показано, что даже 32B-модель может делать по-настоящему глубокие исследования при очень низкой стоимости инференса.

📊 На бенчмарке ResearchRubrics модель получает 61.42, а полный отчет стоит меньше 0,50 RMB.

Идея проста: большинство агентов ведут себя как поисковики. Они собирают факты, но не превращают их в проверенный, связный отчет.

Здесь исследование понимается как длинный цикл: понять реальную задачу - составить план - искать источники - сравнивать и проверять - исправлять ошибки - писать отчет.

🧩 Цикл разбили на 4 базовых навыка:
• планирование
• поиск информации
• рефлексия и проверка
• написание отчета

Данные собирали из реальных отчетов, восстанавливая исходные вопросы и планы, а также из вопросов, связанных с базами знаний и документами.

⚙️ Обучение шло в 3 этапа:
1) сначала обучают базовым навыкам
2) затем учат полным цепочкам с инструментами
3) далее добавляют обучение через попытки и проверку, где чек-лист оценивает отчет и награда дается только за полностью пройденный результат

📌 Авторы также представили ADR-Bench, где эксперты сравнивают два отчета бок о бок, а рейтинг строится по системе Elo.

https://arxiv.org/pdf/2512.20491

Читать полностью…

Анализ данных (Data analysis)

💰 ИИ-лабы начали платить начинающим исследователям на уровне опытных инженеров - фактически «закрепляя» таланты ещё на старте.

Сегодня стажировки и junior-позиции в топ-лабораториях - это уже не подработк, а прямой вход в исследование: со стипендией и собственным бюджетом на эксперименты.

Примеры программ
- Anthropic - AI Safety Fellows
~ $3 850 в неделю + примерно $15 000 в месяц на вычисления.
По сути — стипендия плюс мини-грант на исследования.
Business Insider отмечает: 80% участников публикуют статьи — программа даёт результат.

- OpenAI Residency
~ $18 300 в месяц в течение 6 месяцев
формат как оплаченное обучение внутри фронтир-организации.


Если дать новичкам деньги + доступ к мощностям,
они начинают приносить ощутимый вклад почти сразу.

ИИ-карьера всё больше выглядит как полноценная научная работа с зарплатой и ресурсами - с самого старта.

businessinsider .com/top-paying-ai-internships-fellowships-residencies-openai-anthropic-meta-google-2025-12

Читать полностью…

Анализ данных (Data analysis)

🚀 MiniMax M2.1 - теперь open-source и один из лучших ИИ для разработчиков

— топ-результаты на кодинговых бенчмарках (SWE, VIBE, Multi-SWE)
— в ряде тестов обгоняет Gemini 3 Pro и Claude Sonnet 4.5
— MoE-архитектура: активны 10B параметров (230B всего)

И это не только цифры модель очень быста в инференсе и просто в деплоится, её можно запустить даже локально.

https://huggingface.co/MiniMaxAI/MiniMax-M2.1


@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 FineTuningLLMs - понятный и честный разбор fine-tuning LLM

FineTuningLLMs - гайд который объясняет тонкую настройку языковых моделей без лишней теории.

Здесь показывают, как fine-tuning работает на самом деле, где он действительно нужен, а где его использование излишне.

Автор последовательно разбирает весь путь - от подготовки данных до оценки результата. Особое внимание уделено тому, как формат данных и инструкция влияют на поведение модели после обучения. Хорошо видно, почему плохой датасет нельзя «исправить» даже «хорошим» обучением.

Ее каждую задачу стоит решать дообучением, иногда промптинг или RAG дают тот же эффект быстрее и дешевле, а fine-tuning оправдан только там, где нужно устойчивое поведение модели.

Минимум магии, максимум практического смысла и здравого инженерного подхода.

https://github.com/dvgodoy/FineTuningLLMs/

Читать полностью…

Анализ данных (Data analysis)

🖥 NVIDIA открыла исходный код CUDA Tile dialect и байткода.

Компания выложила в open source проект CUDA Tile, который расширяет экосистему MLIR и даёт разработчикам новые инструменты для генерации CUDA-кода на более низком и контролируемом уровне.

Что входит в релиз:
- CUDA Tile MLIR dialect
- Поддержка сериализации и десериализации байткода
- Python-биндинги для MLIR, позволяющие программно строить IR
- Набор conformance-тестов

Что это даёт разработчикам:
- Возможность напрямую интегрировать CUDA Tile в свои проекты
- Генерацию CUDA Tile dialect или байткода нативно через MLIR
- Более тонкий контроль над вычислениями и оптимизациями под GPU

CUDA Tile - это шаг к более модульной, компиляторно-ориентированной экосистеме CUDA, где управление вычислениями смещается с ручного CUDA-кода в сторону формальных IR и автоматических оптимизаций.

Проект стал результатом совместной работы нескольких команд внутри NVIDIA и подчёркивает стратегию компании по развитию MLIR как ключевого слоя для будущих GPU-вычислений.

• NVIDIA Developer: https://developer.nvidia.com/cuda/tile
• CUDA Tile Specification: https://docs.nvidia.com/cuda/tile-ir/13.1/index.html

Читать полностью…

Анализ данных (Data analysis)

⚡️ CodeCut: автогенерация описаний для изображений прямо из PDF

Теперь можно конвертировать документ, пройтись по всем картинкам - и получить текстовые аннотации, которые модель создаёт автоматически.

Это удобно для:
- анализа больших отчетов, презентаций, научных статей
- автоматического извлечения подписей и описаний графиков
- подготовки данных для RAG/LLM-пайплайнов
- улучшения доступности контента

На примере: CodeCut извлекает изображение графика и сразу генерирует его описание — с упоминанием распределений, метрик, масштабов и ключевых наблюдений.

Минимальный код выглядит так:


from docling.document_converter import DocumentConverter

converter = DocumentConverter(...)
doc = converter.convert("report.pdf").document

for pic in doc.pictures:
print(pic.annotations[0].text)

Читать полностью…

Анализ данных (Data analysis)

MiniMax M2.1 официальный релиз 🚀

MiniMax M2.1 - это модель, созданная под реальные задачи разработки и AI-native команды. Подходит как для vibe-билдов и быстрых прототипов, так и для серьезных продакшен-воркфлоу.

Что важно
- SOTA open-source coding и agent модель
- 10B активных параметров
- Оптимизирована под агентные сценарии, инструменты и сложные пайплайны

Результаты в бенчмарках
- 72.5% на SWE-multilingual
- 88.6% на VIBE-bench - новом open-source бенчмарке
- Обходит ведущие закрытые модели, включая Gemini 3 Pro и Claude 4.5 Sonnet

- Open-source модель реально конкурирует с топовыми закрытыми решениями
- Сделана не только для чата, а для агентных систем и автоматизации
- Хорошо подходит для production-кодинга и AI-инфраструктуры

https://www.minimax.io/news/minimax-m21

Читать полностью…

Анализ данных (Data analysis)

Привет всем, в особенности тем, кто работает с медиапланированием ТВ-рекламы

Вы наверняка знаете, что ролики должны идти в конкретное время и с правильной частотой, чтобы их увидела нужная целевая аудитория. Мы в Авито понимаем, что это сложно, потому что сами регулярно занимаемся таким планированием. Но недавно мы собрали новый подход и решили о нём рассказать, чтобы вы тоже могли им воспользоваться.

Сняли новый фильм из цикла «Диванная аналитика», в котором Андрей Корнеев, аналитик в медиамаркетинге, простыми словами объясняет:
— Как измерить эффект от ТВ-рекламы.
— Почему наши старые методы работали неидеально.
— Как построить систему, которая сама подскажет, как лучше разместить рекламу.

Посмотрите, чтобы прокачать свой аналитический mindset:
🔼 YouTube
🔼 Rutube
🔼 VK Видео

Больше лайфхаков, кейсов, методик и вакансий — в нашем телеграм-канале «Коммуналка аналитиков». Подписывайтесь — будет полезно!

Читать полностью…

Анализ данных (Data analysis)

⚡️ Китайские учёные представили сверхбыстрый аналоговый чип до 1000× быстрее топовых цифровых процессоров.

Чип решает сложные математические задачи для ИИ и научных вычислений и в тестах обходит даже GPU NVIDIA.

Ключевая идея не ускорять цифру, а уйти от неё:
аналоговые вычисления позволяют считать напрямую, без дискретных шагов, что даёт резкий прирост скорости и энергоэффективности.

Это может изменить правила игры:
- ускорение обучения и инференса ИИ
- прорыв в научном моделировании
- новые архитектуры, выходящие за пределы GPU/TPU

Гонка вычислительных мощностей входит в следующую фазу.

Читать полностью…

Анализ данных (Data analysis)

🔥 2025 - год, когда LLM действительно изменились. Коротко и по делу, по мотивам поста Андрея Карпты

2025 оказался неожиданно сильным годом для LLM. Не просто улучшения метрик, а реальные сдвиги в том, как модели обучаются, как ими пользуются и как вообще стоит думать об их «интеллекте».

Главное за 2025 по мнению Карпты:
1. RLVR — Reinforcement Learning from Verifiable Rewards
До 2025 стандартный стек выглядел так: pretraining → SFT → RLHF. В 2025 к этому стеку добавился новый, ключевой этап- RLVR.

Вместо субъективной человеческой оценки модель обучают на автоматически проверяемых наградах: задачи по математике, коду, логике. В результате LLM сама находит стратегии рассуждения - дробит задачи, проверяет гипотезы, возвращается назад.

Важно не «что мы показали модели», а то, что она сама нашла рабочие способы думать. Этот этап оказался невероятно эффективным по соотношению capability к стоимости, из-за чего значительная часть вычислений ушла не в pretraining, а в длинные RL-прогоны.

Побочный эффект — появился новый регулятор мощности: test-time compute. Больше «времени на размышление» — выше качество. o1 показал идею, o3 в начале 2025 сделал перелом — разницу стало чувствовать интуитивно.

2. «Призраки, а не животные» и рваный интеллект
В 2025 индустрия наконец осознала форму LLM-интеллекта. Мы не «растим животных». Мы «призываем призраков».

LLM оптимизированы не под выживание и социальные группы, а под имитацию текста, получение наград в формальных задачах и апвоты. Поэтому интеллект получается рваным:
- гениальны в одном
- наивны и уязвимы в другом

RLVR усиливает этот эффект - модели становятся сверхсильными в верифицируемых доменах и странно слабыми вне их. Отсюда и потеря доверия к бенчмаркам: они почти всегда верифицируемы, а значит легко «обрастают jagged-улучшениями». Обучение на тесте стало искусством.

Можно побить все бенчмарки и всё ещё быть далеко от AGI.

3. Cursor и новый слой LLM-приложений
Cursor показал, что появился новый класс LLM-продуктов - «Cursor для X».

Это не просто интерфейс к модели, а слой, который:
- делает context engineering
- оркестрирует множество LLM-вызовов в DAG
- балансирует стоимость и качество
- дает специализированный UI
- вводит «ползунок автономности»

Вероятный сценарий: LLM-лабы делают «универсального студента», а приложения превращают их в специалистов — добавляя данные, инструменты, сенсоры и обратную связь.

4. Claude Code - AI, который живет на твоем компьютере
Claude Code стал первым убедительным агентом, который работает локально, в твоем окружении, с твоими файлами и контекстом.

Это важный сдвиг. Не облачные контейнеры и абстрактные агенты, а «дух», который живет рядом с разработчиком. В мире рваных возможностей это оказалось гораздо полезнее, чем агентные своры в облаке.

Форм-фактор CLI сделал этот сдвиг особенно наглядным: AI - это уже не сайт, а постоянный спутник.

5. Vibe coding
2025 - год, когда стало возможно писать сложные программы, почти забыв, что код вообще существует.

Vibe coding демократизирует программирование:
- обычные люди могут создавать софт
- профессионалы пишут больше, быстрее и смелее
- код стал дешевым, одноразовым, экспериментальным

Можно написать программу ради одной проверки, одного бага, одной идеи - и выкинуть. Это изменит и софт, и профессии.

6. Nano banana и будущее интерфейсов
Чат - это терминал 80-х. Удобно для машины, плохо для человека.

Люди предпочитают визуальное мышление: схемы, изображения, анимации, интерфейсы. LLM должны общаться с нами в этих форматах. Gemini Nano banana - первый намек на настоящий LLM-GUI, где текст, изображения и знания слиты в одной модели.

Это не просто генерация картинок — это новый пользовательский слой для интеллекта.


2025 показал: LLM - это новый тип интеллекта. Он одновременно умнее и глупее, чем ожидали. Он невероятно полезен, но мы реализовали, возможно, даже не 10% его потенциала.

Прогресс будет быстрым. Работы впереди — море. Поле идей - открыто.

https://x.com/karpathy/status/2002118205729562949

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

✔️ GPT-5.2-Codex.

OpenAI представила GPT-5.2-Codex, которую называет самым продвинутым инструментом для реальной программной инженерии на сегодняшний день. Модель получила нативную поддержку сжатия контекста, улучшенную интеграцию с терминалом Windows и способность проводить глубокий рефакторинг крупных репозиториев без потери логической нити.

Ключевой апдейт коснулся сферы безопасности - Codex резко прибавил способностей в анализе защищенности кода. Модель уже доступна платным пользователям ChatGPT, а API будет открыт в ближайшие недели.
openai.com

✔️ xAI представила Grok Voice Agent API.

Компания Илона Маска открыла публичный доступ к Grok Voice Agent API — нативному интерфейсу speech-to-speech для создания голосовых ассистентов. Решение построено на полностью собственной архитектуре, что позволило достичь задержки ответа менее 1 секунды.

API поддерживает вызов внешних инструментов, веб-поиск, прямую интеграцию с телефонией через SIP и понимает более 100 языков. В бенчмарке Big Bench Audio модель заняла 1 место с точностью 92,3%, опередив Gemini 2.5 Flash и GPT Realtime.

Главной фишкой стала ценовая политика: единый тариф составляет $0.05 за минуту. Это значительно дешевле, чем у OpenAI и ElevenLabs.
x.ai

✔️ VS Code получил поддержку стандарта Agent Skills.

В VS Code Insiders появилась поддержка Agent Skills - открытого протокола, разработанного Anthropic. Технология позволяет упаковывать инструкции, скрипты и вспомогательные ресурсы в модули, которыми можно пользоваться в разных ИИ-инструментах.

Главное отличие Agent Skills от привычных кастомных инструкций в функциональности: это не текстовые гайдлайны по стилю кода, а полноценные наборы инструментов для автоматизации задач, которые подгружаются в контекст модели динамически и только при необходимости.

Стандарт дает кросс-платформенность: созданный один раз скилл будет работать одинаково как в интерфейсе редактора, так и в CLI-агентах.
code.visualstudio.com

✔️ Google выпустила T5Gemma 2.

T5Gemma 2 получила серьезные архитектурные изменения по сравнению с первой версией. Чтобы снизить потребление памяти, инженеры внедрили tied word embeddings для энкодера и декодера, а также объединили механизмы self-attention и cross-attention в единый слой. Модели доступны в компактных конфигурациях на 270M, 1B и 4B параметров.

Новинка поддерживает контекстное окно до 128 тыс. токенов и умеет обрабатывать не только текст на 140 языках, но и изображения. В бенчмарках T5Gemma 2 обошла базовую Gemma 3 в задачах на длинный контекст, кодинг и мультимодальное понимание. Модели доступны на Hugging Face и Kaggle для исследовательских целей.
blog.google

✔️ ИИ-подразделение Марка Цукерберга открыло аудио-визуальный энкодер PE-AV.

Perception Encoder Audiovisual (PE-AV) - техническое ядро, лежащее в основе SAM Audio. Это мультимодальная модель, которая объединяет аудио, видео и текст в единое пространство эмбеддингов.

PE-AV умеет извлекать векторы признаков из аудио или видеокадров и формировать совместные аудиовизуальные представления. Это повышает точность в задачах кросс-модального поиска, детекции звуков и глубокого понимания сцен, где важен синхронный контекст изображения и звука.

В открытом доступе - 6 чекпоинтов модели разного размера (от Small до Large) с вариациями по количеству обрабатываемых кадров. Код опубликован на GitHub, а веса - на Hugging Face.
huggingface.co


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

🎤 xAI запустила Grok Voice Agent API

xAI представила Grok Voice Agent API - интерфейс для создания голосовых AI-агентов с живым диалогом в реальном времени.

Ключевые возможности:
- Двусторонний голосовой диалог с минимальной задержкой
- Поддержка десятков языков и естественной интонации
- Вызов инструментов, поиск в интернете, выполнение задач во время разговора
- Интеграция с SIP-провайдерами и голосовыми платформами

Производительность:
- Время до первой реплики - менее 1 секунды
- Высокие результаты в аудио-бенчмарках
- Простая тарификация - оплата за минуты соединения

Где используется:
- Голосовой Grok в мобильных приложениях
- Интеграции в автомобилях Tesla
- Поддержка продакшен-агентов для бизнеса

https://x.ai/news/grok-voice-agent-api

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🇨🇳 Китайские техногиганты устраивают охоту за ИИ-талантами

Крупные компании резко поднимают бонусы и зарплаты, чтобы никто не уходил к конкурентам.

ByteDance увеличивает бонусы на 35% и закладывает на пересмотр зарплат +150%. Вилки доходов расширяют по всем уровням - рынок перегревается.

Tencent активно переманивает специалистов: по сообщениям, отдельные оферы доходят до 2x от текущих зарплат. Плюс в компании появился новый главный AI-учёныйБ бывший исследователь OpenAI Яо Шунью.

Инженеры, которые умеют строить и поддерживать системы обучения и инференса LLM, на вес золота. Маленькая команда может тормозить целые продуктовые направления.

Внутри Tencent усиливают AI-инфраструктуру: распределённое обучение, масштабное развёртывание моделей, большие данные и ML-пайплайны.

И цифры это подтверждают: индекс новых вакансий по ИИ на платформе Maimai вырос на 543% за 2025 год.

Китай делает ставку на ИИ.


scmp.com/tech/tech-trends/article/3338168/chinas-tech-giants-offer-lavish-year-end-bonuses-amid-ai-talent-war

Читать полностью…

Анализ данных (Data analysis)

Южная Корея обвинила 10 человек, включая экс-топов Samsung, в утечке секретов DRAM в Китай 🏭🇰🇷➡️🇨🇳

Прокуратура утверждает, что группа передала Китаю производственные секреты Samsung по 10-нм DRAM, которые попали к ChangXin Memory Technologies (CXMT).


10-нм DRAM (Dynamic Random Access Memory) - это динамическая память с произвольным доступом следующего поколения, где «10 нм» указывает на технологический процесс уменьшения размеров транзисторов и ячеек памяти, позволяющий упаковать больше памяти на кристалл, повышая плотность и энергоэффективность.


DRAM производится через сотни строго упорядоченных шагов.

Небольшое отклонение - и хорошая пластина становится браком.

По версии следствия:

- сотрудник компании переписывал процесс вручную, обходя цифровой контроль
- заметки использовали, чтобы восстановить и адаптировать процесс под оборудование CXMT
- дело также затрагивает попытки получить технологии SK hynix через подрядчика

Сообщается, что 5 фигурантов арестованы, остальные проходят без задержания (обвинения по закону о защите промышленных технологий).

Ущерб Samsung оценивается в $7–13 млрд.

На создание такой памяти обычно уходят годы и приходится множество неудачных запусков.

news.yahoo.co.jp/articles/f2f6b69b1ba1395c51a0538a1b24328f776254de

Читать полностью…

Анализ данных (Data analysis)

⚡️ Эрик Шмидт (ex-CEO Google): «Всё, чему я учился годами: теперь делает ИИ»

Эрик Шмидт рассказал, что его молодость прошла за кодом: в 20 лет он писал программы днём и ночью: в колледже и аспирантуре и именно это построило его карьеру.

Сегодня всё иначе:

«Каждый из вас носит в кармане суперкомпьютер и суперпрограммиста.»


По словам Шмидта, теперь ИИ способен выполнять всё то, чему он учился годами.
Это не про «конец программирования», а про то, что правила игры меняются.

Выигрывать будут те, кто не сопротивляется, а учится работать вместе с ИИ, как с инструментом, который усиливает человека.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Matrix Exponential Attention (MEA) - экспериментальный механизм внимания для трансформеров

MEA предлагает альтернативу классическому softmax-attention. Вместо нормализации через softmax используется матричная экспонента, что позволяет моделировать более сложные, высоко-порядковые взаимодействия между токенами.

Ключевая идея
Внимание формулируется как exp(QKᵀ), а вычисление экспоненты аппроксимируется через усечённый ряд. Это даёт возможность считать внимание линейно по длине последовательности, не создавая огромные n×n матрицы.

Что это даёт
- Более выразительное внимание по сравнению с softmax
- Higher-order взаимодействия между токенами
- Линейная сложность по памяти и времени
- Подходит для длинных контекстов и исследовательских архитектур

Проект находится на стыке Linear Attention и Higher-order Attention и носит исследовательский характер. Это не готовая замена стандартному attention, а попытка расширить его математическую форму.

Для ML-исследователей и инженеров, которые изучают новые формы внимания, альтернативы softmax и архитектуры для длинных последовательностей.

Экспериментально. Интересно. Не для продакшена - пока.

GitHub: github.com/yifanzhang-pro/MEA

Читать полностью…

Анализ данных (Data analysis)

Авито внедряет ИИ-помощников для покупателей и продавцов
На технологической платформе началось тестирование двух новых ИИ-ассистентов: Ави для покупателей и Ави Pro для продавцов. На текущем этапе они доступны только ограниченной группе пользователей.

Функционал помощников различается. Ави помогает покупателям: подбирает варианты по описанию, сравнивает товары, выделяет их сильные и слабые стороны, а также предлагает сопутствующие продукты, даже если запрос сформулирован нечетко. Ави Pro, в свою очередь, предназначен для продавцов и работает в их личных кабинетах. Этот ассистент анализирует статистику, отслеживает изменения и даёт рекомендации для повышения эффективности продаж.

Управляющий директор по искусственному интеллекту Авито Андрей Рыбинцев пояснил, что для компании диалоговый интерфейс представляет собой новый этап в развитии пользовательского опыта. По его словам, это решение сократит число действий для решения задач, повысит конверсию в успешные сделки и позволит платформе лучше понимать намерения клиентов.

Запуск ИИ-помощников является ответом компании на запросы рынка. Согласно внутренним исследованиям Авито, 59% пользователей заходят на платформу без четкой цели, при этом 43% уже готовы доверить выбор искусственному интеллекту. На дальнейшее развитие этих технологий в следующем году компания планирует направить около миллиарда рублей.

Читать полностью…

Анализ данных (Data analysis)

Маленькая модель - крутой результат: LFM2-2.6B-Exp набирает 42% на GPQA

Для модели всего 2,6 млрд параметров такой балл обычно недостижим его ждёшь от куда более крупных систем.

Фокус в том, что команда не меняла архитектуру.
Они просто добавили RL поверх того же чекпоинта: модель генерирует ответы, получает оценку по задаче и обучается чаще выдавать выигрышные варианты.

Почему это важно
GPQA - жёсткий набор по научным вопросам, где «угадывание по шаблону» не работает.

Что внутри LFM2-2.6B
• гибрид: 22 слоя + 8 слоёв внимания
• контекст — до 32 768 токенов
• веса в bfloat16

⚡ грамотный дизайн наград + RL способны сильно поднять качество даже у маленьких моделей — без усложнения архитектуры.

https://huggingface.co/LiquidAI/LFM2-2.6B-Exp

Читать полностью…

Анализ данных (Data analysis)

🎄 К Новому году Yandex Cloud и Forbes подготовили особый подарок для CDO, дата-инженеров и аналитиков! Что, если работа с данными превратится в увлекательную игру во вселенной, вдохновленной классикой — «Героями меча и магии»? ⚔️📊

Игра превращает привычные инструменты обработки данных (PostgreSQL, ClickHouse, Trino, DataLens и другие) в могущественные артефакты. Их можно получить у хранителей или создать самому в кибер-кузнице 🔧✨

В проекте можно найти пасхалки на любимую игру и примеры бизнес-сценариев из финтеха, ритейла и промышленности: помогите персонажам побороть дата-хаос и прокачать навыки работы с данными. Игра доступна на десктопе и телефоне 📱💻

На лендинге также собраны проекты компаний, которые уже используют возможности Yandex Cloud для решения бизнес-задач с данными.

Поиграй и вдохновись работой с данными в новом формате!
👉 Играй и узнай больше

Читать полностью…

Анализ данных (Data analysis)

Развернуть PostgreSQL в MWS Cloud Platform ⬜️ — быстрее, чем вспомнить пароль от pgAdmin. И точно быстрее, чем объяснить DevOps'у, зачем ещё одна база.

Всего несколько минут и у вас:

⏺️готовая база на сетевых или локальных дисках
⏺️постоянный primary endpoint
⏺️безопасное подключение через Private Link
⏺️автоматические бэкапы и обслуживания по твоему расписанию


🎄🎁 И грант до 10 000 ₽ на запуск — чтобы точно не пришлось вспоминать, как настраивать failover вручную.

➡️Развернуть кластер

Читать полностью…

Анализ данных (Data analysis)

🚀 28 готовых AI-проектов, которые можно реально использовать в проде или для портфолио.

Что внутри:

Проекты машинного обучения
→ Прогноз цен на жилье (Airbnb price prediction)
→ Калькулятор стоимости авиабилетов
→ Трекер успеваемости студентов

AI для здравоохранения
→ Обнаружение заболеваний грудной клетки
→ Прогноз сердечных заболеваний
→ Анализатор риска диабета

Генеративные AI-приложения
→ Живой чатбот на базе Gemini
→ Рабочий медицинский ассистент
→ Инструмент анализа документов

Проекты Computer Vision
→ Система отслеживания руки
→ Приложение для распознавания медикаментов
→ Реализации на OpenCV

Дашборды для анализа данных
→ E-commerce insights
→ Аналитика ресторанов
→ Трекер производительности игроков в крикете

И 10 продвинутых проектов, которые скоро появятся:
→ Детекция дипфейков
→ Классификация опухолей мозга
→ Система оповещения о сонливости водителя

Это не просто файлы с кодом.
Это end-to-end, рабочие приложения, которые можно запускать, тестировать и использовать.

💻 Репозиторий: https://github.com/KalyanM45/AI-Project-Gallery

Читать полностью…

Анализ данных (Data analysis)

✔️ Acontext- контекст как инфраструктура для AI-приложений

Acontext - это open-source проект, который решает одну из самых болезненных проблем AI-систем: управление контекстом, памятью и состоянием между запросами.

Проект создан командой MemoDB и нацелен на разработчиков, которые строят:
- LLM-приложения
- агентные системы
- RAG-пайплайны
- long-running AI-процессы

Что делает Acontext:

- Выносит контекст из prompt’ов в отдельный слой
- Даёт структурированную «память» вместо хаотичного текста
- Позволяет хранить, обновлять и переиспользовать контекст между вызовами модели
- Упрощает построение stateful AI-приложений
- Снижает токен-оверход и стоимость inference

Ключевая идея:
контекст — это не строка, а управляемый объект.

Почему это важно:
- prompt’ы перестают разрастаться
- поведение модели становится стабильнее
- проще отлаживать и масштабировать систему
- легче добавлять новые источники знаний

Acontext особенно полезен для:
- AI-агентов
- чатов с памятью
- multi-step reasoning
- инструментальных LLM-пайплайнов

Если ты строишь что-то сложнее одного запроса к модели — без слоя управления контекстом дальше будет только боль.

Репозиторий:
https://github.com/memodb-io/Acontext

Читать полностью…

Анализ данных (Data analysis)

⚡️ Итоги 2025 в Machine Learning: фиксация ключевых сдвигов индустрии

24 декабря в Telegram канале South HUB состоится онлайн-дискуссия, посвящённая анализу ключевых технологических, продуктовых и управленческих событий 2025 года в машинном обучении. Участники обсудят, какие решения и подходы действительно повлияли на практику ML и data-проектов, а также с какими выводами и ожиданиями индустрия заходит в 2026 год.

В дискуссии участвуют члены программного комитета Snow BASE:
Александр Толмачёв, Chief Data Officer, ex-Ozon — ML и измеримость бизнес-эффекта
Андрей Венжега, Head of Search & Recommendations, Avito — поиск и рекомендательные системы
Павел Пархоменко, руководитель ML, AI и логистических сервисов, Яндекс.Лавка — масштабирование ML в логистике
Андрей Кузнецов, Head of ML, Positive Technologies — устойчивость ML-систем в продакшене

🗓 24 декабря, 13:00–14:00 (МСК)
📍 Telegram канал South HUB

Читать полностью…

Анализ данных (Data analysis)

⚡️ Anthropic выпустили BLOOM - одно из самых важных исследований про безопасность ИИ за последнее время.

Если коротко:
BLOOM это попытка встроить безопасность и контроль в саму основу ИИ, а не латать проблемы постфактум.

Вот суть простыми словами.

1) Безопасность не фильтр, а часть архитектуры

Сегодня безопасность ИИ часто выглядит так:
- модель обучили
- потом добавили ограничения и фильтры

Anthropic говорит прямо:
так не работает в долгую.

В BLOOM безопасность должна:
- закладываться на этапе обучения
- быть частью внутренней структуры модели
- масштабироваться вместе с ростом возможностей ИИ

2) Надёжность важнее «умных ответов»

Модель должна:
- не только отвечать
- но и понимать, когда она не уверена
- уметь корректно отказывать
- не галлюцинировать в критических ситуациях

Проще говоря:
лучше честное «я не знаю», чем уверенная ошибка.

3) Контроль остаётся у людей

BLOOM подчёркивает:
- пользователи должны понимать, как ИИ принимает решения
- должно быть ясно, где проходят границы ответственности
- контроль и управление не опция, а обязательное требование

ИИ не должен быть «чёрным ящиком», который невозможно остановить или скорректировать.

4) Оценка рисков должна происходить системно, а не реактивно


Anthropic предлагает смотреть на риски ИИ:
- заранее
- на нескольких уровнях сразу
- техническом
- социальном
- экономическом

Не «исправлять, когда что-то сломалось»,
а предсказывать, где и почему может сломаться.

BLOOM - это не про очередную модель и не про рост бенчмарков. Это про смену подхода:
- от «быстрее и мощнее»
- к «надёжнее, предсказуемее и управляемее»

Главная мысль:
если ИИ становится мощнее человека, безопасность должна расти быстрее, чем его интеллект.

И именно этим Anthropic предлагает заниматься уже сейчас.

https://www.anthropic.com/research/bloom

Читать полностью…

Анализ данных (Data analysis)

⚡️ Shannon - полностью автономный AI-хакер для поиска реальных уязвимостей в веб-приложениях

Shannon - это автономная система для offensive security, которая сама ищет, воспроизводит и документирует реальные эксплойты в веб-приложениях без подсказок и ручного вмешательства.

Модель показала 96.15% успешности на XBOW Benchmark (hint-free, source-aware), что выводит ее на уровень практического pentest, а не просто статического анализа.

Что умеет Shannon
- Полностью автономная работа без ручного управления
- Поиск реальных эксплойтов, а не теоретических уязвимостей
- Генерация pentester-grade отчетов с воспроизводимыми шагами атаки
- Покрытие критических уязвимостей OWASP Top
- Code-aware динамическое тестирование с учетом исходного кода
- Использование набора интегрированных security-инструментов
- Параллельное выполнение атак для ускорения результатов

Почему это важно
Большинство сканеров находят потенциальные проблемы. Shannon ищет именно эксплуатируемые уязвимости и подтверждает их рабочими атаками, снижая false positives и экономя время команд безопасности.

Практическое применение
- Автоматизированный pentest в CI/CD
- Проверка безопасности перед релизом
- Red Team инструментарий
- Continuous security для веб-продуктов

Shannon - пример того, как автономные AI-агенты начинают реально менять рынок offensive security, переходя от подсказок к самостоятельному поиску и эксплуатации уязвимостей.

🖥 GitHub: https://github.com/KeygraphHQ/shannon

Читать полностью…

Анализ данных (Data analysis)

🚀 VoxCPM 1.5 - новый уровень реалистичной генерации речи! 🎧✨

Модель получила заметные улучшения, которые делают синтез голоса более естественным и технологически гибким.

Ключевые изменения:

🔊 Hi-Fi звук 44.1 kHz — качество приближено к студийному, вместо прежних 16 kHz
В 2 раза эффективнее — 1 секунда аудио теперь кодируется в 6.25 токена вместо 12.5
🛠 Расширенные возможности настройки — новые скрипты для LoRA и полного fine-tuning позволяют адаптировать модель под голосовые проекты
📈 Стабильность на длинных аудио — меньше артефактов и провалов при генерации

Ссылки для изучения и тестов:
HuggingFace: huggingface.co/openbmb/VoxCPM1.5
GitHub: github.com/OpenBMB/VoxCPM

#VoxCPM #TTS #AI #OpenSource

Читать полностью…

Анализ данных (Data analysis)

📌 Новое исследование показывает: AI-статьи, финансируемые Big Tech, получают больше цитирований, чаще цитируют “своих” и сильнее ориентируются на свежие результаты.

Ключевые факты:

🔹 Всего около 10% статей имеют финансирование Big Tech, но ~12% из них попадают в число наиболее цитируемых.

🔹 Анализировали ~50K работ из топ-конференций, классифицируя их по благодарностям: Big Tech, другое финансирование или без него.

🔹 За 20 лет доля Big Tech выросла с примерно 0 до ~10% всех топ-публикаций.

🔹 Чтобы оценить влияние, сравнили “сколько статьи публикуют” vs “сколько их цитируют”:
• статьи Big Tech цитируются больше, чем можно ожидать по их доле;
• нерефинансируемые - меньше.

🔹 Каждая группа чаще цитирует “своих”, но Big Tech особенно склонна ссылаться на другие Big Tech работы.

🔹 По возрасту ссылок — Big Tech публикует статьи, которые сильнее ориентированы на совсем свежие исследования, а значит такие деньги частично формируют, какие идеи и старые результаты AI-сообщество не забывает и к чему возвращается.

arxiv.org/abs/2512.05714

Читать полностью…
Subscribe to a channel