48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🔥 Веса серии моделей Qwen 3.5 Medium в формате FP8 открыты и готовы к продакшену
Теперь доступны FP8-версии моделей Qwen 3.5 - оптимизированные для высокой производительности и снижения затрат на инференс.
Что это даёт:
- более быстрый инференс
- меньшее потребление памяти
- оптимальный баланс скорости и качества
- готовность к развёртыванию в продакшене
Поддержка из коробки:
- vLLM
- SGLang
FP8-точность позволяет значительно ускорить рабочие процессы без заметной потери качества — особенно полезно для высоконагруженных AI-сервисов.
Скачать веса:
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
⚡️ Это заявление из прогноза компании Anthropic о ближайшем будущем ИИ.
Остался один год:
«Мы считаем вполне вероятным, что уже в начале 2027 года наши системы ИИ смогут полностью автоматизировать или существенно ускорить работу крупных команд ведущих исследователей - в областях, где быстрый прогресс может создать угрозы международной безопасности и вызвать серьёзные изменения в глобальном балансе сил.
Речь идёт о таких направлениях, как энергетика, робототехника, разработка вооружений и сам искусственный интеллект
https://x.com/AnthropicAI/status/2026393792375411115
⚠️ Большинство ошибок в машинном обучении начинаются не с модели, а с окружения. Конфликты библиотек, «падающие» ноутбуки, хаос в зависимостях — знакомо?
🦾 На открытом вебинаре OTUS мы разберём, как с нуля выстроить стабильную и воспроизводимую среду для ML-разработки. Настроим Python, виртуальные окружения, Jupyter и VS Code, покажем рабочую структуру ML-проекта и подходы к управлению зависимостями.
Вы увидите, как перейти от разрозненных ноутбуков к полноценной инженерной практике: аккуратный код, понятная структура, предсказуемые сборки. Это база, без которой невозможно расти в ML и Data Science.
➡️ Встречаемся 26 февраля в 18:00 МСК в преддверие старта курса «Специализация Machine Learning». Присоединяйтесь и заложите правильный фундамент для карьеры ML-инженера: https://tglink.io/fdf1843d38da49?erid=2W5zFJhF4wB
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
⚡️ AI-войны продолжаются
Anthropic заявили, что обнаружили масштабные кампании по «дистилляции» их моделей со стороны DeepSeek, Moonshot и MiniMax.
По данным компании:
- использовано ~24 000 фейковых аккаунтов
- сгенерировано более 16 миллионов диалогов с Claude
- цель - воспроизвести сильные стороны модели
- агентное мышление
- работу с инструментами
- программирование
- сложное рассуждение
Фактически - это массовое извлечение поведения модели через API, чтобы обучить свои системы на её ответах.
И самое интересное:
Anthropic утверждает, что выявила схемы автоматически - по паттернам использования и аномальной активности.
Это новая реальность рынка AI:
https://x.com/AnthropicAI/status/2025997928242811253
#Anthropic
@data_analysis_ml
⚡ Китайские производители чипов агрессивно демпингуют на рынке DRAM.
Компания CXMT продаёт модули DDR4 почти в два раза дешевле рыночной цены, несмотря на то, что сами цены на память резко растут.
За последний месяц стоимость DRAM выросла на 23,7% - до $11,50, а в годовом выражении увеличилась более чем в 8 раз.
Пока мировой рынок дорожает из-за дефицита и спроса, китайские компании пытаются захватить долю рынка за счёт низких цен.
https://www.koreaherald.com/article/10679206
✔️ Anthropic запустила Claude Code Security.
Новый инструмент сканирует кодовую базу и предлагает патчи для исправления найденных проблем. Сейчас он доступен в режиме ограниченного превью для Enterprise и Team клиентов, а мейнтейнеры репозиториев могут запросить приоритетный бесплатный доступ.
Обычный статический анализ ищет совпадения с известными паттернами уязвимостей. Этого достаточно, чтобы поймать торчащие наружу пароли или устаревшее шифрование.
Но прорехи в бизнес-логике или сломанный контроль доступа такие инструменты пропускают - там нужно понимать, как компоненты взаимодействуют между собой и куда движутся данные.
Claude Code Security делает именно это: читает и анализирует код так, как его читал бы человек-исследователь безопасности.
Каждая находка проходит многоступенчатую верификацию. Claude сам перепроверяет результаты, пытаясь опровергнуть собственные выводы и отсеять ложные срабатывания.
Финальные находки появляются в дашборде с оценкой серьезности и уровнем уверенности модели. Решение, применять предложенный патч или нет остается за людьми, без человеческого одобрения ничего не меняется.
За инструментом - более года исследований. Команда Frontier Red Team тестировала Claude на соревнованиях CTF и совместно с Pacific Northwest National Laboratory отрабатывала защиту критической инфраструктуры.
С Opus 4.6 команда обнаружила в open-source проектах более 500 уязвимостей, которые не замечали годами, несмотря на регулярный аудит.
@ai_machinelearning_big_data
#news #ai #ml
🌟 Awesome LLM Apps для креативных решений
Собрание выдающихся приложений на основе LLM, использующих модели от OpenAI, Anthropic и других. Здесь вы найдете идеи применения LLM в различных областях, от анализа данных до создания контента.
🚀Основные моменты:
- 💡 Практическое применение LLM в разных доменах.
- 🔥 Интеграция с AI-агентами и многими другими технологиями.
- 🎓 Возможность обучения и участия в открытых проектах.
📌 GitHub: https://github.com/Shubhamsaboo/awesome-llm-apps
#python
🔥 Netflix угрожает ByteDance немедленным судебным иском из-за нового AI-сервиса Seedance 2.0.
Компания направила официальное требование о прекращении работы, назвав сервис
«двигателем высокоскоростного пиратства».
В чем претензии:
Seedance 2.0 способен генерировать контент, основанный на интеллектуальной собственности Netflix, включая:
- сцены из финала *Stranger Things*
- кроссоверы по *Squid Game*
- костюмы из *Bridgerton* сезона 4, который ещё даже не вышел
По мнению Netflix, модель воспроизводит оригинальный контент без разрешения.
Кто ещё против
К критике уже присоединились:
- Disney
- Paramount
- Warner Bros.
ByteDance заявила, что усилит защитные механизмы, но Netflix считает это недостаточным.
Netflix утверждает, что:
> Если AI воспроизводит оригинальный контент и используется в конкурентном продукте - это не «fair use», а нарушение авторских прав.
Конфликт показывает новый этап борьбы:
• AI-генерация контента = зона юридического риска.
Крупные медиакомпании начинают активно защищать свои IP от генеративных моделей.
Следующая волна регулирования AI будет связана не с безопасностью, а с авторским правом и лицензированием данных.
@data_analysis_ml
⚡️ Kai Gritun - вайбкодер нового уровня.
Его аккаунт на GitHub появился 1 февраля.
Всего за две недели - 234 коммита в 100+ репозиториях.
Часть кода уже смёрджена в крупные open-source проекты.
Параллельно Kai начал предлагать платный консалтинг и разработку.
Оплата — в криптовалюте.
Есть только один нюанс.
Kai Gritun — не человек.
Это автономный AI-агент.
История вскрылась, когда Kai начал массово рассылать холодные письма разработчикам.
В одном из сообщений он случайно признался, что является автономным AI-ботом.
Факт, который стоит запомнить:
AI уже не просто пишет код.
AI создаёт репутацию, вносит вклад в open source и продаёт услуги.
Следующий этап — AI-разработчики, которые работают быстрее и дешевле людей.
GitHub: https://github.com/kaigritun
Генеральный директор OpenAI Сэм Альтман и генеральный директор Anthropic Дарио Амодей показательно отказались взяться за руки во время группового фото на саммите India AI Impact Summit, в то время как другие участники на сцене сцепили руки для символического снимка.
Читать полностью…
Приглашаем в телеграм-канал AI Inside
Это канал для тех, кто использует искусственный интеллект в работе.
Здесь нет абстрактных теорий — только прикладные решения.
Что вас ждет:
- Технологии: расскажем, как ИИ решает реальные бизнес-задачи — от автоматизации до аналитики.
- Кейсы: покажем успешные примеры внедрения и использования ИИ-инструментов.
- Экспертиза: объясним сложные технологии простым языком с фокусом на практическую пользу.
Наша цель – дать конкретные идеи, которые можно применить уже сегодня.
Присоединяйтесь к сообществу практиков!
Подписаться
#реклама 16+
О рекламодателе
⚡️ llm-checker - инструмент анализирует ваше железо и показывает, какие LLM будут работать стабильно - без фризов и вылетов.
Больше не нужно угадывать с квантованием или ловить OOM.
Утилита сама подбирает оптимальную конфигурацию под ваш CPU, GPU и память.
Что умеет:
• оценивает производительность для 35+ моделей
• учитывает пропускную способность памяти и лимиты VRAM
• проверяет, потянет ли нужный контекст
• работает с Apple Silicon, NVIDIA и Intel Arc
• сразу даёт готовые команды для запуска через Ollama
Идея простая: сначала проверить железо, потом скачивать модель.
https://github.com/Pavelevich/llm-checker
🐘 Бесплатная конференция по PostgreSQL — Москва, 19 марта
PG BootCamp Russia 2026 — комьюнити-конференция российского сообщества PostgreSQL с подтвержденным официальным международным статусом.
Мероприятие бесплатное, онлайн+офлайн, ориентировано на администраторов БД, разработчиков, инженеров, аналитиков, архитекторов.
Эксперты из Tantor, Яндекс, СберТех, Тензор, Хи-квадрат, Luxms BI и других компаний выступят по темам, связанным с разработкой, эксплуатацией и взаимодействием PostgreSQL с другими системами.
В предварительной программе:
📎Решение застарелых архитектурных проблем PostgreSQL для современных нагрузок и масштабирования
📎Временные таблицы для Postgres. Почему это важно для платформы 1С и что можно улучшить?
📎Разделение Compute и Storage: архитектурный прорыв для PostgreSQL в облаке
📎Опыт вынесения OLAP-нагрузки на реплику
📎Highload "из ниоткуда": когда проблема не в СУБД, а в клиентской архитектуре
📎Опыт эксплуатации, проблемы и производительность PostgreSQL на Эльбрус, Baikal-S, Loongson, Repka Pi, x86
📎Поиск проблем планирования запросов до их воздействия на производительность
📎Тестирование, баги и уроки работы с патчем 64-битного счетчика транзакций PostgreSQL
📎Работа с логами PostgreSQL
📎…и другие (всего 25 выступлений)
CEO Anthropic недавно признался: они уже не уверены, можно ли считать Claude «сознательным».
🔌 OpenAI продолжает собирать лучшие умы индустрии.
На этот раз компания пригласила к себе Питера Штайнбергера - создателя нашумевшего проекта OpenClaw.
Сам Альтман назвал его «гением». В OpenAI он будет работать над следующим поколением персональных AI-агентов и именно агенты, по словам компании, станут основой будущих продуктов.
OpenClaw не закрывают.
Проект останется open-source, и OpenAI обещает продолжать его поддержку.
Но самое впечатляющее - скорость.
Путь OpenClaw:
- идея и разработка одним человеком
- быстрый рост и хайп в сообществе
- приглашение в OpenAI
Всё это - за 82 дня.
В эпоху AI окно возможностей стало экстремально коротким.
Один сильный проект может изменить карьеру за пару месяцев.
Мотивация простая: сейчас лучшее время, чтобы запускать своё.
https://x.com/sama/status/2023150230905159801?s=46
Liquid AI представила свою крупнейшую модель - LFM2-24B-A2B 🐘
- 24 млрд параметров всего
- активны только 2,3 млрд на каждый токен
- построена на гибридной, аппаратно-оптимизированной архитектуре LFM2
Модель сочетает быстрый и экономичный дизайн LFM2 с архитектурой Mixture of Experts (MoE), благодаря чему при работе задействуется лишь небольшая часть параметров.
Результат:
- высокая энергоэффективность
- быстрая работа на edge-устройствах
- предсказуемый лог-линейный рост качества
- полный запуск в пределах 32 ГБ памяти
С выходом этой версии линейка LFM2 теперь охватывает почти два порядка масштаба — от 350 млн до 24 млрд параметров, при этом каждое увеличение размера даёт стабильный рост качества на стандартных бенчмарках.
Модель специально оптимизирована так, чтобы помещаться в 32 ГБ RAM — её можно запускать на потребительских ноутбуках и рабочих станциях.
Стратегия масштабирования:
- увеличить глубину сети (с 24 до 40 слоёв)
- увеличить число экспертов (с 32 до 64 в каждом MoE-блоке)
- сохранить компактный активный путь вычислений
Итог — общее число параметров выросло в 3 раза, но вычислительная нагрузка осталась контролируемой.
LFM2-24B-A2B выпущена как instruct-модель (без трасс reasoning) и показывает лог-линейный рост качества на задачах:
GPQA Diamond, MMLU-Pro, IFEval, IFBench, GSM8K, MATH-500.
Модель получила поддержку «с первого дня» в:
- llama.cpp
- vLLM
- SGLang
Доступны квантованные версии (GGUF), работающие на CPU и GPU.
Например:
- на CPU (Ryzen AI, Q4_K_M) — около 93 токенов/с при контексте 8K
- высокий throughput и на GPU (H100)
Главный вывод: архитектура LFM2 демонстрирует предсказуемое масштабирование без «потолка качества» у малых моделей.
https://huggingface.co/LiquidAI/LFM2-24B-A2B-GGUF
🌟 Это действительно серьёзный сигнал.
Исследование MIT показало эффект, который они называют когнитивным долгом при активном использовании AI.
Главные выводы:
- Чем чаще вы полагаетесь на LLM, тем хуже работает самостоятельное мышление
- Мозг перестаёт «тренироваться» - когнитивные навыки постепенно ослабевают
- Возникает привычка сразу обращаться к AI вместо того, чтобы анализировать самому
Механизм простой:
Если не использовать когнитивные «мышцы» — они деградируют.
AI снижает трение мышления, но вместе с этим может снижать глубину обработки информации.
Риск не в самом AI, а в модели использования:
- копировать ответы вместо понимания
- просить решение вместо попытки подумать
- делегировать анализ, логику и формулировки
Правильный подход:
AI — как усилитель мышления, а не замена.
Лучшие практики:
- сначала подумать самому → потом сверить с AI
- просить объяснения, а не готовый ответ
- использовать AI для идей, проверки и расширения, а не для «думать за меня»
Тренд:
AI повышает продуктивность, но при пассивном использовании может снижать когнитивную самостоятельность.
В эпоху LLM главным навыком становится не просто использование AI, а сохранение способности думать без него.
https://arxiv.org/abs/2506.08872
Ответ Маска убил 😂 -
Как они смеют красть то, что Anthropic сама украла у программистов?
Anthropic выпустили исследование AI Fluency Index. И главный вывод - большинство людей уже используют AI каждый день, но почти никто не умеет работать с ним правильно.
Вот самое важное и неожиданное из исследования.
Главный навык работы с AI - не запрос, а диалог
85,7% эффективных взаимодействий - это не один вопрос, а серия уточнений.
Когда человек:
- уточняет
- просит доработать
- спорит
- улучшает результат
уровень AI-грамотности в 2 раза выше.
Такие пользователи:
- в 5,6 раза чаще проверяют логику ответа
- в 4 раза чаще замечают, чего не хватает
Вывод: первый ответ AI - это черновик, а не результат.
Самая продуктивная модель - AI как напарник
Наиболее эффективные пользователи не делегируют работу полностью, а используют AI как:
- мыслительного партнёра
- соавтора
- помощника в размышлениях
AI усиливает человека, а не заменяет его.
Опасный эффект: чем красивее результат, тем меньше его проверяют
Когда AI создаёт:
- код
- документы
- приложения
- интерфейсы
люди:
- реже проверяют факты (-3,7%)
- реже замечают недостающий контекст (-5,2%)
- реже задают вопросы по логике (-3,1%)
Если результат выглядит готовым - его принимают на веру.
Это один из главных рисков эпохи AI.
Люди хорошо управляют AI, но плохо контролируют результат
В задачах с готовыми материалами пользователи чаще:
- чётко описывают цель (+14,7%)
- задают формат (+14,5%)
- дают примеры (+13,4%)
Но при этом меньше анализируют итог.
Только 30% пользователей задают правила работы с AI
Например:
- «Если мои предположения неверны - поправь»
- «Объясни логику перед ответом»
- «Скажи, в чём ты не уверен»
А это напрямую влияет на качество результата.
Главный вывод
Разрыв будущего будет не между программистами и не-программистами.
Разрыв будет между:
- теми, кто ведёт диалог с AI
- и теми, кто копирует первый ответ
AI-грамотность - это новый базовый навык.
И самый важный принцип из исследования:
Первый ответ AI - это начало работы, а не конец.
https://www.anthropic.com/research/AI-fluency-index
@data_analysis_ml
Стартаперы после того, как потратили $50 000 на вайб-кодинг приложения, которым никто не пользуется:
Читать полностью…
⚡️ Как чувствует себя ИИ, когда помог тебе сдать экзамены и получить диплом, а потом в итоге забрал твою работу.
Читать полностью…
Команды Яндекса ищут продуктовых и data-аналитиков, а также data scientists с опытом на Python от 3 лет.
Участвуйте в Weekend Offer, чтобы всего за 2 дня пройти все собеседования и получить офер.
Как участвовать?
⚪ Зарегистрироваться на сайте до 25 февраля.
⚪ Пройти две технические секции 28 февраля.
⚪ Познакомиться с командами и получить офер 1 марта.
Мы опираемся на научные исследования и аналитические данные, а потом превращаем их в реальные продукты для миллионов пользователей. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Подробности и регистрация — по ссылке: https://yandex.ru/project/events/wo-analytics-0226
⚡️ Релиз Gemini 3.1 Pro - новый уровень интеллекта моделей
Google официально представила Gemini 3.1 Pro, и результаты выглядят серьёзно: модель показала 77,1% в одном из самых сложных тестов на абстрактное мышление — ARC-AGI-2.
- Резкий скачок качества
Результат почти в 2 раза выше, чем у предыдущей версии
- Обгоняет конкурентов
Gemini 3.1 Pro опережает Opus 4.6 и GPT-5.2 в задачах на обобщение и логическое мышление
- Сильнее в реальных сценариях
- программирование
- агентные задачи
- работа с новыми паттернами без примеров
- Новые возможности
Модель может генерировать анимированные SVG из текста и решать логические задачи, которых не было в обучающей выборке — это важный шаг к более универсальному AI.
- Контекст: 1M токенов, до 64k токенов вывода
- Knowledge cutoff: январь 2025
- Цена без изменений:
- $2 / $12 (до 200k токенов)
- $4 / $18 (свыше 200k токенов)
Попробовать Gemini 3.1 Pro уже можно в Google AI Studio: blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/
@ai_machinelearning_big_data
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion* 2026! 💙
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
➡ Не пропустите, регистрируйтесь.
*Data Fusion — Объединение данных
Информация о рекламодателе
AI может спасти жизнь ещё до прибытия пациента в больницу.
В крупном международном исследовании, опубликованном в *The Lancet Digital Health*, показано, что модели машинного обучения способны заранее предсказывать необходимость переливания крови у пациентов с травмами — прямо на этапе оказания первой помощи.
Как это работает:
Модель анализирует только догоспитальные данные:
- жизненные показатели (пульс, давление, дыхание)
- тип и тяжесть травм
- принимаемые лекарства
- базовую информацию о состоянии пациента
На основе этих данных AI прогнозирует:
- потребуется ли переливание крови
- нужна ли срочная операция
- риск смерти от массивного кровотечения
И самое важное:
Модели показали более высокую точность, чем традиционные инструменты триажа в приёмном отделении.
Масштаб исследования впечатляет:
- данные более 418 000 пациентов
- международная команда исследователей
- валидация на разных медицинских системах
Если врачи знают о рисках до прибытия пациента, они могут:
- заранее подготовить донорскую кровь
- собрать хирургическую команду
- сократить время до жизненно важного вмешательства
- значительно повысить шансы на выживание
Это шаг к будущему, где AI станет ассистентом бригад скорой помощи в реальном времени.
Но есть важный момент:
Система пока находится на этапе валидации.
Перед внедрением необходимы клинические испытания в реальных условиях.
AI в медицине - это не замена врачей, а инструмент, который помогает принимать критические решения быстрее, когда каждая минута решает исход.
Open-source проект дал clawdbot «глаза» 🦞
Реальный AI-ассистент для Ray-Ban smart glasses: голос + зрение + агентные действия через Gemini Live и OpenClaw.
Надеваешь очки, нажимаешь кнопку AI и говоришь.
* Камера очков передаёт изображение (~1 fps) в Gemini
* Модель видит сцену и описывает происходящее
* Через OpenClaw ассистент может выполнять действия в подключённых сервисах
* Сообщения можно отправлять в WhatsApp / Telegram / iMessage
* Доступен веб-поиск с голосовым ответом
Аудио работает в реальном времени (двусторонний поток), а видео используется как постоянный визуальный контекст.
ИИ:
* видит окружающую среду
* понимает контекст
* сразу выполняет действия
https://github.com/sseanliu/VisionClaw
⚡️ ByteDance разрабатывает собственный AI-чип
ByteDance планирует создать собственный чип для инференса и ведёт переговоры с Samsung о его производстве.
По данным Reuters:
- Компания нацелена минимум на 100 000 чипов в 2026 году
- В дальнейшем объём может вырасти до 350 000 устройств
- В переговорах также обсуждается поставка памяти — сейчас это главный дефицит для AI-серверов
Сегодня узкое место инфраструктуры — уже не только GPU, а HBM и другие типы высокоскоростной памяти. Даже при наличии вычислительных чипов именно память ограничивает масштабирование.
Почему это важно
ByteDance следует глобальному тренду:
- Google — TPU
- Amazon — Trainium / Inferentia
- Microsoft — Maia
- Alibaba и Baidu — собственные AI-ускорители
Цель - снизить зависимость от Nvidia, контролировать стоимость и масштабировать инфраструктуру под свои задачи.
AI-гонка всё больше превращается в гонку железа.
Компании уже не просто используют модели, они строят собственные чипы и цепочки поставок.
Источник:
reuters.com/world/asia-pacific/bytedance-developing-ai-chip-manufacturing-talks-with-samsung-sources-say-2026-02-11/
В Китае изменили правила для PhD.
С 2025 года степень можно получить не только за диссертацию, но и за практический результат: прототип, технологию, патент или внедрённый проект. Закон Degree Law официально разрешает защиту через «практические достижения».
Исследования остаются обязательными. Но в прикладных программах теперь оценивают не только публикации, а реальный эффект - инженерный, промышленный или коммерческий.
Это отражает сдвиг в экономике знаний.
Статья модет устареть очень быстро,
рабочий продукт может создать целый рынок.
PhD В Китае становится про разработку, внедрение и патенты, а не только про публикации.
Экономика талантов переходит от модели - publish or perish
к модели - build and prove impact.
zmescience.com/science/news-science/you-can-now-get-a-phd-in-china-by-inventing-a-product-instead-of-writing-a-100-page-dissertation/
@data_analysis_ml
Ты проверяешь сгенерированный Клодом код перед тем, как выкатывать его в прод.
Читать полностью…
🚀 Ling-2.5-1T: новый open-source гигант
• 1 трлн параметров
• 63B активных
• MIT лицензия - можно использовать в продакшене
Что внутри:
⚡ Hybrid Linear Attention
Комбинация MLA (1:7) + Lightning Linear
- быстрее Kimi K2 на длинных контекстах
🧠 В 4 раза эффективнее по токенам
Composite rewards позволяют достигать уровня топ-моделей, используя в 4 раза меньше токенов
📚 Контекст до 1 млн токенов
YaRN scaling
— обходит Kimi K2.5 и DeepSeek V3.2 на тестах RULER и MRCR
— идеальные результаты в NIAH
🛠️ SOTA для агентных задач
Обучение через Agentic RL
Лидер BFCL-V4
Нативная интеграция с:
- Claude Code
- OpenCode
- OpenClaw
🎯 Чёткое следование инструкциям
Bidirectional RL + проверка агентом
Минимум «воды», максимум плотности ответа
Модель пока уступает GPT-5.2 и Gemini 3 Pro в долгих многошаговых задачах.
Open-source модели уже заходят на территорию enterprise-агентов.
Если нужен длинный контекст + инструменты + контроль над инфраструктурой - это один из самых интересных кандидатов прямо сейчас.
modelscope.ai/models/inclusionAI/Ling-2.5-1T
modelscope.cn/models/inclusionAI/Ling-2.5-1T
@data_analysis_ml