data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

⚡️ Google Research выпустили MedGemma 1.5 - мощный апдейт медицинской Gemma, который заметно прокачал качество сразу по нескольким направлениям:

- CT / MRI
- гистопатология
- рентген
- временные ряды (X-ray timelines)
- медицинские тексты

По тестам приросты очень жирные:
- до +14% точности на задачах по медицинским изображениям
- до +22% на QA по EHR (электронные медкарты)

И это ещё не всё.

Вместе с моделью вышла MedASR - открытая speech-to-text модель для медицины, которая даёт:
до 82% меньше ошибок транскрибации, чем обычные ASR-модели общего назначения.

То есть теперь можно реально делать точную расшифровку врачебной речи, приёмов, диктовок - без тонны “галлюцинаций” в терминах и названиях препаратов.

https://research.google/blog/next-generation-medical-image-interpretation-with-medgemma-15-and-medical-speech-to-text-with-medasr/

Читать полностью…

Анализ данных (Data analysis)

⚡️ DeepSeek Engram: условная память LLM через поиск.

DeepSeek опять шатают устои архитектуры трансформеров свежайшим пейпером, который доказывает, что новое — это хорошо и очень хитро забытое старое.

Пока все пытаются запихнуть в LLM как можно больше слоев и параметров, DeepSeek задались вопросом: зачем тратить дорогой компьют на запоминание фактов, если их можно просто подсмотреть? Знакомьтесь:

🟡Engram — модуль, который возвращает нас к дедам с N-грамами.

DeepSeek предлагает разделить "думалку" (MoE-слои) и "хранилище знаний" (Engram):

🟢Hashed N-grams: модуль смотрит на входящий текст и нарезает его на N-грамы (последовательности токенов).

🟢O(1) Lookup: система делает мгновенный запрос в гигантскую хэш-таблицу эмбеддингов - это чисто статический поиск.

🟢Context-Aware Gating: самый сок. Модель не просто слепо берет данные из "хранилища знаний" - специальный гейтинг-механизм решает: "Нам сейчас нужен факт из памяти или будем думать сами?". Если найденный N-грам релевантен контексту, он подмешивается в скрытое состояние.

🟢Tokenizer Compression: чтобы хранилище знаний не лопнуло от мусора, похожие токены в нем схлопывают в один ID, например, "Apple" и "apple".

🟡Баланс распределения ресурсов.

Чтобы правильно поделить бюджет параметров между MoE и Engram посчитали сценарии масштабирования. График лосса от соотношения этих частей выглядит как буква U:

🟠Перекос в MoE (100% вычислений): модель тратит дорогие слои внимания на запоминание статики. Это неэффективно, лосс высокий.

🟠Перекос в Память (0% вычислений): модель превращается в гигантскую википедию. Она помнит факты, но у нее напрочь атрофируется ризонинг. Лосс тоже высокий.

🟢Золотая середина (дно U-кривой): 80% MoE и ~20% Engram.

🟡Тесты и результаты.

DeepSeek обучили модель Engram-27B и сравнили ее с классической MoE-27B при одинаковом бюджете параметров и FLOPs. Итоги:

Общее качество подросло: MMLU +3.4 пункта, HumanEval (код) +3.0.

На длинном контексте - разнос. В тесте на поиск иголки (NIAH) точность выросла с 84.2 до 97.0. Модель разгрузила слои внимания от запоминания локальных паттернов, и оно сфокусировалось на глобальном контексте.

Модель быстрее сходится. Engram берет на себя рутину в ранних слоях, тем самым позволяя модели сразу учиться сложным вещам.


🟡Архитектурный нюанс.

Таблица эмбеддингов для Engram может быть запредельно огромной (в пейпере разгоняли до 100B параметров) и, очевидно, в VRAM это не влезает.

Решили так: раз ID токенов известен до прогона слоя, то эти данные можно хранить в RAM и асинхронно подтягивать. В реале, оверхед от этой механики показал меньше 3%., т.е. мы получаем модель, которая знает больше, чем влезает в GPU, используя оперативку сервера.

🟡DeepSeek фактически легализовала подобие шпаргалок для LLM.

Вместо того чтобы заставлять модель учить все наизусть, ей дают гигантский справочник. Теоретически, это открывает путь к прекрасному ИИ светлого будущего, который может иметь условно-бесконечную память, ограниченную только объемом оперативки, а не VRAM.

Похоже, в V4 мы увидим как эта схема работает, ведь инсайдеры обещают у нее запредельные скилы.


🟡Техотчет
🖥Github
🟡Видео


@ai_machinelearning_big_data

#AI #ML #LLM #Engram #Deepseek

Читать полностью…

Анализ данных (Data analysis)

🧠🚫 Как отучить LLM “думать по кругу” и сэкономить токены

У продвинутых LLM есть скрытая проблема: overthinking.

Модель уже нашла ответ…
но продолжает писать лишние рассуждения, самопроверки и повторяет одно и то же разными словами.

В итоге вы платите не за ум модели - а за повторение.
По оценкам, до 70% токенов уходит именно на такую “избыточную рефлексию”.

YuanLab выпустили Yuan3.0 Flash, где модель учат останавливаться вовремя.

Что внутри:

RIRM - reward-механизм: модель получает сигнал *когда пора завершать ответ*
(нашёл решение - закончи, не раздувай)

RAPO - адаптивная оптимизация policy, ускоряющая обучение на 50%+

Что это даёт:
- до 75% дешевле инференс
- без потери качества
- быстрее ответы, меньше затрат

Главная идея:

Запуск LLM будет не только за “самый умный ответ”,
а за самый дешёвый и быстрый умный ответ.

🚀Model: https://modelscope.cn/models/Yuanlab/Yuan3.0-Flash
🔧Github: https://github.com/Yuan-lab-LLM/Yuan3.0
📄 Paper: https://modelscope.cn/papers/2601.01718

#LLM #AI #Tokens #Inference #Optimization

Читать полностью…

Анализ данных (Data analysis)

Бесплатный курс по Claude Code от Anthropic.

Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:

• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи

В конце — дают сертификат вайбкодера, который можно показать маме 😁

Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.

https://anthropic.skilljar.com/claude-code-in-action

Читать полностью…

Анализ данных (Data analysis)

🖥 Nvidia: «горячая вода вместо сложных холодильных систем»

Дженсен Хуанг заявил: стойки нового поколения Rubin можно охлаждать водой с температурой 45 °C.

Без дорогих и сложных систем, которые обычно понижают температуру воды.

И рынок сразу отреагировал.

Инвесторы решили, что будущим дата-центрам для ИИ
нужно будет меньше крупных холодильных установок.

Что случилось с акциями:

- Johnson Controls - падение примерно на 11%
- Modine - до минус 21%
- Carrier и Trane - тоже просели

Когда стойки можно охлаждать тёплой водой,
операторы чаще используют простые «сухие» охладители
и другие решения, где не требуется сложное понижение температуры.

Меньше энергии уходит на охлаждение -больше остаётся на вычисления.

Читать полностью…

Анализ данных (Data analysis)

🔥 Год ChatGPT Plus бесплатно: экономим 20 000 рублей

Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):

1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!

⚡️ Проверили, пока еще работает

Или всегда можно воспользоваться ботом в тг 😂

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

⚡️ Google показала интересный пример того, как мультимодели уже помогают в гуманитарных исследованиях.

Gemini 3.0 Pro смогла расшифровать загадочные пометки в «Нюрнбергской хронике», которым более 500 лет. В модель залили сканы страниц и попросили не просто переписать текст, а объяснить, что означают заметки с учетом контекста.

Оказалось, что круговые таблицы на полях были попыткой примирить две конкурирующие библейские хронологии и вычислить год рождения Авраама.

Сложность состояла в том, что заметки смешивали латинские сокращения, римские цифры и обрывки надписей.

Gemini связала вычисления с системой датировки Anno Mundi (год от сотворения мира), привязала их к традициям Септуагинты и еврейской Библии, а затем перевела в «до н.э.», получив расхождение примерно в 100 лет.

siliconangle.com/2026/01/01/googles-gemini-3-0-pro-helps-solve-long-standing-mystery-nuremberg-chronicle/

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

✔️ Meta лихорадит: Янн ЛеКун резко прошёлся по Александру Вану и намекнул на новые проблему Meta.

Янн ЛеКун публично раскритиковал нового лидера AI-направления Александра Вана, назвав его «неопытным» и подчеркнув, что у него нет понимания, как устроены настоящие исследования и что вообще нужно исследовать

«Он быстро учится, он знает, чего не знает…
Но у него нет опыта в исследованиях - как их вести, как строить процессы и что действительно важно для учёных», - сказал ЛеКун.


По сути - это прямой удар по новой стратегии Meta в AI.

И всё больше разговоров о том, что компанию могут ждать новые увольнения и уходы ключевых специалистов.

Code Red для Meta?
Похоже, внутри компании начинается серьёзный пересмотр курса.

https://www.businessinsider.com/yann-lecun-alexandr-wang-criticism-inexperienced-meta-ai-future-2026-1

*Принадлежит Meta, которая признана экстремистской организацией и запрещена в РФ.

Читать полностью…

Анализ данных (Data analysis)

🇨🇳 IQuest-Coder: Новая open-source модель для Кодинга, которая превосходит Claude Sonnet 4.5 и GPT-5.1 - и это модель всего 40B параметров.

На бенчмарках IQuest-Coder выглядит внушительно:

SWE-Bench Verified — 81.4%
BigCodeBench — 49.9%
LiveCodeBench v6 — 81.1%


Проект поддерживает хедж-фонд UBIQUANT, который уже много лет активно развивает ИИ
(команды AILab, DataLab, Waterdrop Lab).

Контекст до 128K токенов.

https://huggingface.co/IQuestLab/IQuest-Coder-V1-40B-Loop-Instruct

Читать полностью…

Анализ данных (Data analysis)

🐳 DeepSeek начал новый год с серьёзной статьи.

В первый день года команда представила работу, посвящённую одной из самых болезненных проблем современных нейросетей: нестабильности обучения в сложных архитектурах.

И предложили решение: подход под названием mHC (Manifold-Constrained Hyper-Connections).

Смысл в том, что исследователи взяли мощную, но нестабильную архитектуру Hyper-Connections и ввели ограничения на внутренние связи.

1. Проекция на многообразие (manifold)
Вместо того, чтобы оставлять Hyper-Connections свободными, mHC накладывает на них ограничение, они проектируются на особое многообразие (матрицы с особыми свойствами).
Это восстанавливает identity-mapping, благодаря чему сигнал остаётся устойчивым даже через десятки или сотни слоёв.

2. Стабильность и масштабируемость
Благодаря этому ограничению сеть перестаёт «взрывать» или «затухать» сигнал при глубоком обучении, и её можно эффективно использовать в больших моделях без ухудшения качества и без сложных ухищрений.

3. Инфраструктурные оптимизации
Авторы также добавили инженерные улучшения:
- слияние ядер (kernel fusion)
- уменьшение накладных расходов по памяти
- эффекты смешанной точности
Это делает mHC быстрым и эффективным в реальных задачах даже при масштабных тренировках.

Результат впечатляет:

• обучение становится стабильнее на крупных масштабах
• модели лучше масштабируются
• повышается производительность
• снижается потребление памяти
• mHC обгоняет классические Hyper-Connections

Другими словами, DeepSeek показывает, что путь в будущее - не только большие модели, но и архитектуры, которые устойчивы изнутри.

#AI #DeepSeek #MachineLearning #NeuralNetworks #Research

https://arxiv.org/abs/2512.24880

https://www.youtube.com/watch?v=gT-0Qryi5KA

Читать полностью…

Анализ данных (Data analysis)

🎄🎄 Qwen-Image: обновление как раз к Новому году

Свежая версия Qwen-Image получила заметный апгрейд качества.

Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.

Что изменилось:

• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции

Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.


Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
GitHub: https://github.com/QwenLM/Qwen-Image
Блог: https://qwen.ai/blog?id=qwen-image-2512
Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max

@ai_machinelearning_big_data

#qwen #qwenimage #openaimodels #imagemodels

Читать полностью…

Анализ данных (Data analysis)

🇨🇳 Китайские техногиганты устраивают охоту за ИИ-талантами

Крупные компании резко поднимают бонусы и зарплаты, чтобы никто не уходил к конкурентам.

ByteDance увеличивает бонусы на 35% и закладывает на пересмотр зарплат +150%. Вилки доходов расширяют по всем уровням - рынок перегревается.

Tencent активно переманивает специалистов: по сообщениям, отдельные оферы доходят до 2x от текущих зарплат. Плюс в компании появился новый главный AI-учёныйБ бывший исследователь OpenAI Яо Шунью.

Инженеры, которые умеют строить и поддерживать системы обучения и инференса LLM, на вес золота. Маленькая команда может тормозить целые продуктовые направления.

Внутри Tencent усиливают AI-инфраструктуру: распределённое обучение, масштабное развёртывание моделей, большие данные и ML-пайплайны.

И цифры это подтверждают: индекс новых вакансий по ИИ на платформе Maimai вырос на 543% за 2025 год.

Китай делает ставку на ИИ.


scmp.com/tech/tech-trends/article/3338168/chinas-tech-giants-offer-lavish-year-end-bonuses-amid-ai-talent-war

Читать полностью…

Анализ данных (Data analysis)

Южная Корея обвинила 10 человек, включая экс-топов Samsung, в утечке секретов DRAM в Китай 🏭🇰🇷➡️🇨🇳

Прокуратура утверждает, что группа передала Китаю производственные секреты Samsung по 10-нм DRAM, которые попали к ChangXin Memory Technologies (CXMT).


10-нм DRAM (Dynamic Random Access Memory) - это динамическая память с произвольным доступом следующего поколения, где «10 нм» указывает на технологический процесс уменьшения размеров транзисторов и ячеек памяти, позволяющий упаковать больше памяти на кристалл, повышая плотность и энергоэффективность.


DRAM производится через сотни строго упорядоченных шагов.

Небольшое отклонение - и хорошая пластина становится браком.

По версии следствия:

- сотрудник компании переписывал процесс вручную, обходя цифровой контроль
- заметки использовали, чтобы восстановить и адаптировать процесс под оборудование CXMT
- дело также затрагивает попытки получить технологии SK hynix через подрядчика

Сообщается, что 5 фигурантов арестованы, остальные проходят без задержания (обвинения по закону о защите промышленных технологий).

Ущерб Samsung оценивается в $7–13 млрд.

На создание такой памяти обычно уходят годы и приходится множество неудачных запусков.

news.yahoo.co.jp/articles/f2f6b69b1ba1395c51a0538a1b24328f776254de

Читать полностью…

Анализ данных (Data analysis)

⚡️ Эрик Шмидт (ex-CEO Google): «Всё, чему я учился годами: теперь делает ИИ»

Эрик Шмидт рассказал, что его молодость прошла за кодом: в 20 лет он писал программы днём и ночью: в колледже и аспирантуре и именно это построило его карьеру.

Сегодня всё иначе:

«Каждый из вас носит в кармане суперкомпьютер и суперпрограммиста.»


По словам Шмидта, теперь ИИ способен выполнять всё то, чему он учился годами.
Это не про «конец программирования», а про то, что правила игры меняются.

Выигрывать будут те, кто не сопротивляется, а учится работать вместе с ИИ, как с инструментом, который усиливает человека.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Matrix Exponential Attention (MEA) - экспериментальный механизм внимания для трансформеров

MEA предлагает альтернативу классическому softmax-attention. Вместо нормализации через softmax используется матричная экспонента, что позволяет моделировать более сложные, высоко-порядковые взаимодействия между токенами.

Ключевая идея
Внимание формулируется как exp(QKᵀ), а вычисление экспоненты аппроксимируется через усечённый ряд. Это даёт возможность считать внимание линейно по длине последовательности, не создавая огромные n×n матрицы.

Что это даёт
- Более выразительное внимание по сравнению с softmax
- Higher-order взаимодействия между токенами
- Линейная сложность по памяти и времени
- Подходит для длинных контекстов и исследовательских архитектур

Проект находится на стыке Linear Attention и Higher-order Attention и носит исследовательский характер. Это не готовая замена стандартному attention, а попытка расширить его математическую форму.

Для ML-исследователей и инженеров, которые изучают новые формы внимания, альтернативы softmax и архитектуры для длинных последовательностей.

Экспериментально. Интересно. Не для продакшена - пока.

GitHub: github.com/yifanzhang-pro/MEA

Читать полностью…

Анализ данных (Data analysis)

🚀 Meituan представила LongCat-Image - открытую билингвальную (китайский и английский) модель для генерации изображений.

Несмотря на размер всего в 6B параметров, модель показывает эффективность и качество, сопоставимые с куда более крупными системами.

Ключевые преимущества:
✨ лучшая в классе генерация китайского текста - точная, стабильная, с широким покрытием лексики
✨ высокая фотореалистичность благодаря новой стратегии данных и обучения
✨ создана для разработчиков и реальных сценариев применения — доступна, открыта и мультилингвальна изначально

LongCat-Image ориентирована на практическую ценность и качество в продакшене.

🤖 Model: https://modelscope.cn/models/meituan-longcat/

Читать полностью…

Анализ данных (Data analysis)

💰 У DeepSeek может быть один из самых сильных “скрытых источников финансирования” в AI - хедж-фонд его основателя.

Речь про Ляна Вэньфэна (Liang Wenfeng) и его фонд Zhejiang High-Flyer Asset Management. По данным Bloomberg, 2025 год у них получился просто феноменальным: средняя доходность по фондам - 56.6%.

Почему это важно для DeepSeek?
Потому что такие результаты дают не просто “успешный год на рынке”, а реальные деньги, которыми можно оплачивать развитие ИИ:
- зарплаты сильной команде
- закупку GPU
- серверы, сети, дата-центры
- всё железо, без которого LLM не масштабируются

Ключевые факты:
- High-Flyer управляет капиталом более $10 млрд
- занял 2-е место среди китайских квант-фондов с капиталом > $1.4 млрд
- фонд заработал +56% → эти деньги фактически остаются у владельца фонда (Ляна).
- если прикинуть выручку по стандартной схеме 1% management fee + 20% performance fee, получается $700+ млн
- и это выглядит особенно мощно на фоне того, что бюджет DeepSeek на “топопвые” модели оценивался менее чем в $6 млн

Интересный момент: в 2024 фонд отошёл от market-neutral и сделал ставку на long-only стратегии (покупка акций в расчёте на рост).

А когда сразу несколько топ-квант-фондов показывают 50-70%+ за один год - это чаще говорит о том, что рынок был очень удачным для их системных стратегий, а не о единичной “везухе”.

В среднем китайские квант-фонды показали 30.5% за 2025 - больше чем в 2 раза выше глобальных конкурентов.

DeepSeek может иметь редкое преимущество - внутренний финансовый двигатель, который способен стабильно оплачивать масштабирование AI, не зависеть от раундов и инвесторов.

Читать полностью…

Анализ данных (Data analysis)

💰 BREAKING: у Ильи Суцкевера было $4 млрд** акциями OpenAI.

Это всплыло в судебных документах по делу Musk v. OpenAI.

Что стало известно:

- Во время “переворота” в совете директоров в ноябре 2023 COO Брэд Лайткап писал Альтману и Наделле.
- Он оценил, что выкуп долей сотрудников OpenAI обошёлся бы примерно в $25 млрд.
- А если учитывать долю Ильи Суцкевера - уже $29 млрд.

Сам Илья на допросе отказался раскрывать, какой у него пакет.

Судья назначил повторный допрос, потому что его “финансовая заинтересованность напрямую важна” для понимания, есть ли у него предвзятость.

И важный момент:
эти $4 млрд - только то, что уже вестилось.
Сколько было всего - неизвестно.

Если цифра реальная, это один из самых крупных личных пакетов в истории AI-рынка.

Читать полностью…

Анализ данных (Data analysis)

🔥 Karpathy выпустил nanochat miniseries v1.

Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.

В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.

После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.

Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.

Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.

Полный разбор и код: github.com/karpathy/nanochat/discussions/420

Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.

Читать полностью…

Анализ данных (Data analysis)

Новый Atlas от Boston Dynamics 🤖🏭

Boston Dynamics представила обновлённого **Atlas*, теперь это не исследовательский проект, а робот, который скоро начнёт работать на заводах Hyundai.

Главное:

• создан для массового производства
• интеграция с Gemini Robotics (DeepMind) - понимает среду и задачи
• работает рядом с людьми и другими роботами (Spot, Stretch)
• подключается к MES/WMS системам завода
• 1.9 м рост, 90 кг, 56 степеней свободы
• до 4 часов работы, батарея меняется автоматически
• выдерживает от −20°C до +40°C

Hyundai планирует запустить крупное производство
к 2028 году до 30 000 роботов в год.

Это шаг от демонстраций - к реальной индустрии.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Samsung подтвердила, что к концу 2026 года 800 миллионов устройств будут работать под управлением Google Gemini.

> К концу 2025 года 400 миллионов устройств будут продаваться с Gemini на борту.
> эта цифра удвоится до 800 млн в этом году
> Со-генеральный директор Samsung:

«Это дает Google преимущество перед конкурентами»


Google все активнее захватывает рынок.

https://www.reuters.com/world/china/samsung-double-mobile-devices-powered-by-googles-gemini-800-mln-units-this-year-2026-01-05/?utm_source=braze&utm_medium=notifications&utm_campaign=2025_engagement

Читать полностью…

Анализ данных (Data analysis)

⚡️ Разные ответы ChatGPT и Grok на политически сложный вопрос

Обе модели спросили- было ли преступлением, если бы Трамп арестовал Мадуро (вопрос, который сегодня обсуждается очень активно).

Ответ ChatGPT - «да»
— исходит из предположения, что Мадуро был избран легитимно
— опирается на Устав ООН и мнение «международных экспертов»
— чувствуется анти-американский уклон в формулировках

По тону это звучит почти как лекция юриста-либерала из Ivy League.

Ответ Grok - «нет»
— называет режим Мадуро мошенническим
— объясняет полномочия президента США как главнокомандующего
и право направлять военных на исполнение федеральных ордеров

Чтобы не выдавали модели, всегланужно проверять источники, сравнивать аргументы и не принимать выводы ИИ «на веру».

https://x.com/ArthurMacwaters/status/2007727857242689560/photo/1

Читать полностью…

Анализ данных (Data analysis)

🎥 КК ИИ-слоп теперь влияет на политические решения

В Польше заявляют, что в TikTok завирусилист сгенерированные ИИ ролики, убеждающие молодёжь поддержать выход страны из ЕС, так называемый “Polexit”.

Польское правительство просит ЕС открыть расследование против TikTok по линии Digital Services Act.

По их словам, ролики выглядят как организованная кампания.

Особенность таких видео в том, что:

• ИИ создаёт реалистичных “говорящих людей”
• сценарии можно быстро менять
• таргетинг идёт точечно, например, на аудиторию 15–25 лет
• масштабирование происходит автоматически

То есть за короткое время можно запустить сотни убедительных роликов, создающих ощущение «органичного мнения общества», хотя за ними может стоять один оператор.

Вопросы, которые теперь обсуждают в ЕС:

• как отличать реальных людей от ИИ-персонажей
• кто несёт ответственность за массовую манипуляцию
• как соцсети должны реагировать на такие кампании

ИИ меняет не только технологии, он начинает менять и общественные дискуссии.

notesfrompoland.com/2025/12/31/poland-calls-for-eu-action-against-ai-generated-tiktok-videos-calling-for-polexit/

Читать полностью…

Анализ данных (Data analysis)

OpenAI готовит новую аудио-модель в связке с собственным аудио-устройством.

OpenAI активно развивает свои технологии голосового ИИ, готовя платформу для будущего персонального устройства с упором на голосовой интерфейс, релиз которого ожидается примерно через год.

Внутренние команды уже объединены, а новая архитектура голосовой модели должна выйти в первом квартале 2026 года.

Что уже известно по ранним результатам:

• нас ждет более естественная и эмоциональная речь
• мгновенный ответа
• понимание мгновенных перебиваний

Все это критически важно для голосового ассистента, который не просто отвечает на вопросы, а активно взаимодействует и помогает пользователю в повседневной жизни.

https://www.theinformation.com/articles/openai-ramps-audio-ai-efforts-ahead-device

#AI #OpenAI #VoiceAI #Innovation #Future

Читать полностью…

Анализ данных (Data analysis)

💰 Цены на видеокарты в 2026 году могут резко подпрыгнуть и снова причина в памяти.

Сообщается, что уже в начале года AMD может поднять цены (январь), а Nvidia подтянется в феврале. И эти подорожания могут тянуться месяцами.

Причина проста: память стала главным элементом себестоимости. В среднем она занимает до 80% BOM у видеокарт, а её стоимость к Q2 2026 может вырасти ещё на 40%.

ИИ разогрел рынок настолько, что 64 ГБ DDR5 подорожали с $150 до $500 меньше чем за два месяца. В 2025 году производителей спасали фиксированные контракты на поставку памяти, они сглаживали скачки VRAM. Теперь контракты заканчиваются, и рост DRAM/GDDR напрямую попадает в себестоимость.

В итоге доля «чип GPU + VRAM» может подбираться к тем же 80% стоимости платы.

По утечкам, флагманские RTX 5090 в 2026 году могут добраться до ценника около $5000 - главным образом из-за огромного спроса со стороны индустрии ИИ.

Ждать «чудесных скидок» по видеокартам в ближайшее время не стоит.

Источник: wccftech .com/amd-and-nvidia-are-expected-to-hike-gpu-prices-early-2026/

Читать полностью…

Анализ данных (Data analysis)

🙂 Tongyi Lab, похоже, вот-вот выпустит Qwen-Image-Edit-2512

Вчера, на просторах сети Х, Tongyi Lab запостила тизер "новогоднего подарка, который уже в пути".

Так как все очень сильно и давно ждут Z-Image Base и Edit и Omni, сверхразумы Redditа пошли разгадывать таинственный пост.

Розыскную бригаду собирать не пришлось - новинку спойлернул gemini-code-assist в репозитории Modelscope : это будет qwen-image-2512


#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

👨‍🎓 Harvard выложил в открытый доступ учебник по ML-системам и это редкий случай, когда материал действительно полезный.

В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.

Что в книге и почему она стоит внимания:

- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри

- разбираетесь в базах: батчи, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и настраивать модели

📚 То есть это не вводная книжка, а полноценный roadmap от теории к продакшну.


📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf

Читать полностью…

Анализ данных (Data analysis)

Хотите построить собственного торгового робота и запустить его в облаке?

Мы запускаем курс, где вместе с вами создадим полноценного торгового робота для онлайн-торговли на российской бирже.
Вы пройдете весь путь от идеи до работающего сервиса.

💪 Что будет реализовано на курсе «ML для финансового анализа»:
- работа с реальными биржевыми данными
- реализация торговой стратегии (алгоритмы / ML)
- тестирование её на исторических данных
- настройка риск-менеджмента и мониторинга
- развернём робота в облачной среде


Результат: не абстрактный ноутбук, а живой финтех-проект.

Кому подойдёт:
- студентам IT и технических направлений
- начинающим ML / Data / Backend-инженерам
- всем, кто хочет понять, как реально работают торговые системы

☝🏻Опыт в трейдинге НЕ обязателен - мы дадим все основы.

Если хотите не просто учиться, а делать реальные системы - это к нам.
Постройте торгового робота. Запустите его в облаке. Сделайте шаг в финтех.

🔥 Успейте оставить заявку, старт 14 января: https://otus.pw/6dCB/

🎄Учитесь в новом году по старым ценам!
Максимальная скидка 30% 🎁 на обучение до 31.12.2025:
1 курс — тающая скидка 10% до 29.12 и 5% до 31.12
2 курса −25%, 3 курса −30%
Учиться системно — выгоднее!

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963

Читать полностью…

Анализ данных (Data analysis)

Статья Step-DeepResearch где показано, что даже 32B-модель может делать по-настоящему глубокие исследования при очень низкой стоимости инференса.

📊 На бенчмарке ResearchRubrics модель получает 61.42, а полный отчет стоит меньше 0,50 RMB.

Идея проста: большинство агентов ведут себя как поисковики. Они собирают факты, но не превращают их в проверенный, связный отчет.

Здесь исследование понимается как длинный цикл: понять реальную задачу - составить план - искать источники - сравнивать и проверять - исправлять ошибки - писать отчет.

🧩 Цикл разбили на 4 базовых навыка:
• планирование
• поиск информации
• рефлексия и проверка
• написание отчета

Данные собирали из реальных отчетов, восстанавливая исходные вопросы и планы, а также из вопросов, связанных с базами знаний и документами.

⚙️ Обучение шло в 3 этапа:
1) сначала обучают базовым навыкам
2) затем учат полным цепочкам с инструментами
3) далее добавляют обучение через попытки и проверку, где чек-лист оценивает отчет и награда дается только за полностью пройденный результат

📌 Авторы также представили ADR-Bench, где эксперты сравнивают два отчета бок о бок, а рейтинг строится по системе Elo.

https://arxiv.org/pdf/2512.20491

Читать полностью…

Анализ данных (Data analysis)

💰 ИИ-лабы начали платить начинающим исследователям на уровне опытных инженеров - фактически «закрепляя» таланты ещё на старте.

Сегодня стажировки и junior-позиции в топ-лабораториях - это уже не подработк, а прямой вход в исследование: со стипендией и собственным бюджетом на эксперименты.

Примеры программ
- Anthropic - AI Safety Fellows
~ $3 850 в неделю + примерно $15 000 в месяц на вычисления.
По сути — стипендия плюс мини-грант на исследования.
Business Insider отмечает: 80% участников публикуют статьи — программа даёт результат.

- OpenAI Residency
~ $18 300 в месяц в течение 6 месяцев
формат как оплаченное обучение внутри фронтир-организации.


Если дать новичкам деньги + доступ к мощностям,
они начинают приносить ощутимый вклад почти сразу.

ИИ-карьера всё больше выглядит как полноценная научная работа с зарплатой и ресурсами - с самого старта.

businessinsider .com/top-paying-ai-internships-fellowships-residencies-openai-anthropic-meta-google-2025-12

Читать полностью…
Subscribe to a channel