data_secrets | Unsorted

Telegram-канал data_secrets - Data Secrets

78474

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n

Subscribe to a channel

Data Secrets

Тем временем мало кто знает, как слово года произносится полностью

Читать полностью…

Data Secrets

В сети открыли полный доступ в opensource к линейке ИИ-моделей GigaChat

Сбер опубликовал весь стек моделей с лицензией MIT и разрешением на коммерческое использование.

Флагман — GigaChat 3 Ultra-Preview — 702B-MoE модель, полностью обученную с нуля на корпусе в 14 триллионов токенов. Это не адаптация и не дообучение зарубежных весов: у модели собственный датасет, собственный пайплайн синтетики и переработанная архитектура. На русскоязычных и STEM-бенчмарках Ultra-Preview уверенно превосходит российские opensource-аналоги, а также лучше DeepSeek V3.1.
Контекст запоминания — до 128k токенов.

Также в opensource доступна версия Lightning — компактная 10B-MoE модель, которая по скорости инференса конкурирует с Qwen3-1.7B и приближается по качеству к dense-моделям около 8B. Открыта и GigaAM-v3 — набор из пяти моделей для работы с аудио на русском. Отлично распознает речь — показывает −50% WER к Whisper-large-v3.

Открытая линейка GigaChat фактически формирует новую открытую экосистему для разработки, генерации и автоматизации — и делает это именно как самостоятельная архитектура, а не продолжение чьих-то решений.

https://habr.com/ru/companies/sberdevices/articles/968904/

Читать полностью…

Data Secrets

Google поздравили всех с Днем Благодарения и выпустили app.new

Это вайбкодинг тулза для создания полноценных веб-приложений по запросу. Просто вводите промпт – агент тут же прототипирует и разворачивает то, что вы хотите.

Короче, просто еще одна забавная обертка для Gemini.

Самое прикольное здесь – пасхалка в названии. У Google есть docs.new, sheets.new и slides.new, meet.new. Но это не ИИ-сервисы, а просто короткие ссылки для быстрого создания новой презентации/таблицы/документа. В этом смысле app.new как бы продолжает линейку и быстро «открывает» для вас приложения 💡

app.new

Читать полностью…

Data Secrets

Конференция AI Driver & RecSys Темы — пространство, где наука и бизнес встречаются, чтобы обсудить будущее рекомендаций ⚡️

28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.

На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.

Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.

Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!

Читать полностью…

Data Secrets

🤩 AI Journey возвращается 🤩

До следующей конференции — целый год. А пока мы ждём, подключайтесь к треку AI Journey на Конгрессе молодых учёных, который проходит в Сочи.

В прямом эфире 27 ноября с 12:00 до 13:30 эксперты и учёные из Сбера, Яндекса, ИТМО и Института AIRI обсудят:

🤩 Новую платформу «ИИ для науки» и как она поможет ускорять научные открытия

🤩 AI для предсказания поведения сложных химических систем и работы с климатическими рисками

🤩 Как роботы и беспилотные автомобили понимают 3D-мир?

🤩 AI как способ понять человека


Проектируйте будущее с AI!

◀️ Подключайтесь к прямому эфиру и следите за новостями вместе со Sber AI

Читать полностью…

Data Secrets

Nvidia сегодня снова в центре внимания: они внезапно выложили самодовольный твит, в котором поздравили Google с успехом, но (скажем так) не от всей души

Напоминаем, что вчера стало известно, что Meta впервые в истории закупит у Google TPU для установки в свои датацентры (мы об этом вот тут писали). Так вот, на фоне новости акции Nvidia упали аж на 6 пунктов, и компания, видимо, решила "ненавязчиво" напомнить, кто тут главный.

Дословный перевод этого бархатно-токсичного чуда:

Мы рады успехам Google – они действительно заметно продвинулись в ИИ, и при этом мы продолжаем оставаться их поставщиком.

NVIDIA опережает всю отрасль как минимум на одно поколение – это единственная платформа, способная запускать любые модели ИИ и использоваться повсюду, где идут вычисления.

NVIDIA предлагает более высокую производительность, гибкость и взаимозаменяемость по сравнению с ASIC-чипами, которые заточены под конкретные фреймворки или отдельные задачи.


В определение "ASIC", если что, гугловские TPU попадают напрямую 🤠

Ощущется пост буквально вот так:

Читать полностью…

Data Secrets

OpenAI перекроили голосовой режим

Теперь он будет работать не в отдельном окне, а прямо в чате. Вы говорите и тут же видите историю диалога, прикрепленные материалы и то, как в чате появляются ответы.

Имхо, так гораздо удобнее. Но если вам нравилось, как раньше, вернуть такой интерфейс можно в настройках (Voice Mode -> Separate mode).

Уже раскатывают на всех, обновляйте приложение

Читать полностью…

Data Secrets

Читаем сейчас системную карту Opus 4.5, там гигантская глава про элаймент. На контрасте с OpenAI ребята конечно очень упарываются по безопасности.

В связи с этим вспомнился мем

Читать полностью…

Data Secrets

Meta собирается закупать у Google TPU

Знаменательна эта сделка тем, что Meta станет первой крупной компанией, которая купит TPU для установки в собственные дата-центры.

До этого в этом году на гугловское железо уже заключали большие контракты Anthropic и SSI Ильи Суцкевера, а про OpenAI даже ходили слухи, что они хотят полностью пересесть на TPU.

Но это все было про аренду мощностей в облаке, а Meta станут, по факту, пионерами в непосредственном физическом владении чипами. Интеграцию TPU в свои центры они начнут в 2027.

Для Google эта сделка – не просто хорошие деньги, но и важный стратегический рубеж.

Подписать такой контракт – значит окончательно и публично подтвердить свои аппаратные амбиции. У Google есть реальная возможность расширить присутствие TPU на рынке, и их аналитики считают, что компания может оттяпать у Nvidia аж 10% выручки.

Читать полностью…

Data Secrets

CEO SakanaAI Лион Джонс: «Пришло время выйти за рамки трансформеров и оставить их в прошлом»*

Изюминка в том, что сам Лион – один из изобретателей трансформера, со-автор (один из восьми) статьи «Attention is all you need».

SakanaAI как раз занимается поиском новых архитектур. В основном они черпают вдохновение из эволюции и биологии.

Мы за ними следим очень давно, и недавно делали большую подборку с нашими разборами их статей вот тут. Обязательно почитайте на досуге, исследования у них правда занятные.

С одним из подходов под названием Continuous Thought Machine они сейчас выходят на NeurIPS 2025. Это почти полное переосмысление архитектуры LLM, вдохновленное биологическими нейронными процессами. Вместо прямых проходов по сети – тики мыслей, как в мозге. Вместо нейронов – перцептроны с собственной памятью. Вот наш разбор.

А еще недавно они закрыли крупный инвестиционный раунд на 20 миллиардов долларов, и теперь, насколько нам известно, являются самым дорогим японским стартапом.

*Источник: новое интервью Лиона с ML Street Talk

Читать полностью…

Data Secrets

Действительно доброе утро: возможно, сегодня выйдет Claude Opus 4.5 (на реддите обнаружили упоминание некой модели Kayak от Anthropic в релизной таблице на epoch.ai)

Читать полностью…

Data Secrets

VK RecSys Challenge: проверьте свой алгоритм в деле!

В самом разгаре ежегодное соревнование по разработке рекомендательных систем от VK — RecSys Challenge 2025. Участникам предстоит решить одну из самых сложных проблем в мире рекомендаций: задачу холодного старта.

Суть соревнования — построить модель, которая предскажет, кому из пользователей понравится новый клип, даже если его ещё никто не видел.

Что ждёт участников:
• Реальные данные — датасет VK-LSVD с 40 млрд взаимодействий и 20 млн коротких видео
• Можно участвовать соло или в команде до 4 человек
• Техническая свобода — до 5 сабмитов в день, возможность экспериментировать
• Общий призовой фонд — 2 500 000 рублей

Приглашают студентов, исследователей, ML-инженеров — всех, кто хочет испытать свои силы на реальных данных и создать алгоритм, который работает в условиях, максимально приближенных к контентной жизни.

Регистрация открыта до 15 декабря. Успейте подать заявку, скачать датасет и начать эксперименты!

👉 Подробности и регистрация на сайте

Читать полностью…

Data Secrets

Fun fact: эта картинка полностью сгенерирована новой Nano Banana Pro (если верить автору)

Красота же?

Читать полностью…

Data Secrets

Mediascope опубликовал статистику самых популярных ИИ-ассистентов России: победила Алиса AI

Нейросетью Яндекса пользуется 14.3% населения. Для сравнения, у ближайшего конкурента, DeepSeek, доля в полтора раза меньше (9%). Для российского продукта такая планка покорилась впервые, еще весной уверенно лидировали зарубежные нейросети. Ближайший российский конкурент — GigaChat — отстал еще сильнее и расположился примерно на одной ступеньке с ChatGPT (4% и 3,5% соответственно).

На самом деле, неудивительно. Продукт у Яндекса получился действительно удобный для широкой аудитории, понимает реальные запросы пользователей, да и по-русски говорит лучше, чем зарубежные модели. К тому же не требует VPN, что очень весомо для среднего пользователя, и легко оплачивается. Переломным моментом стало недавнее громкое обновление Алисы AI, которое сделало ее самой быстрорастущей нейронкой — за первую неделю приложение скачали полтора миллиона раз.

Читать полностью…

Data Secrets

Буквально все мы на этой неделе:

Давненько не было такой плотной череды релизов

Читать полностью…

Data Secrets

Случайно нашли картинку, которая описывает буквально любое исследование по элайменту

Читать полностью…

Data Secrets

Помните стартап Prime Intellect? Ребята занимаются децентрализованным обучением и на днях впервые выпустили конкурентоспособную модель Intellect-3

Прошлая версия модели вышла в мае и была занятной, но не на уровне frontier.

Теперь же по бенчмаркам Intellect-3 опережает GLM-4.5 и DeepSeek-R1-0528, а по математике вообще достигает SOTA в своем размере (она 106B MoE).

Что интересно: для RL-обучения использовался асинхронный RL-фреймворк prime-rl. С инженерной точки зрения это очень сложный процесс и PRIME единственные, кто сейчас таким занимаются. Но успех модели в целом доказал, что он работает. Prime-rl уже выложили в опенсорс, так что кому интересно, покапаться в нем можно здесь.

Репорт | HF | Блог

Читать полностью…

Data Secrets

Статья от команды Qwen взяла награду Best Paper Award на NeurIPS 2025

Работа называется "Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free". В ней исследователи предложили новый вид механизма внимания – gated attention.

Суть в том, что на выход каждой attention-головы мы добавляем сигмоидную шторку, которая масштабирует аутпуты.

Фактически, из Attention → Output мы делаем Attention → Sigmoid-gate × Output.

Причем гейт – это обучаемый блок. Интуитивно, гейт учится понимать, насколько голова полезна в конкретном случае, и насколько, следовательно, нужно усилить или заглушить ее сигнал.

В целом хак небольшой, но оказывается, что прокачивает и стабильность обучения, и итоговое качество. А еще помогает избегать залипания внимания на первых токенах и деградации способностей при увеличении контекста.

Короче, работа правда достойная (почитать можно здесь). Так что поздравляем Qwen с очередным успехом.

Читать полностью…

Data Secrets

Тем временем на ARC-AGI-2 ИИ-системе впервые удалось превзойти уровень человека

В лаборатории Poetiq придумали, как можно соединять разные LLM так, чтобы в разы бустить их производительность (кому интересно, внизу оставим ссылку на код). И вот 20 ноября они заявили, что их подход – микс Gemini 3 и GPT-5.1 – впервые дал на бенчмарке результат, превосходящий человека.

Правда, это только на публичном evaluation-сете. При переносе на semi-private результат, скорее всего, ухудшится. Но учитывая, что по отдельности модели даже близко не дотягивают до 60% (у Gemini 3 45%, у GPT-5 около 20%), все равно новость занятная.

Еще пол года назад ARC-AGI-2 казался для ИИ вообще нерешаемым, а самые топовые модели выбивали на нем 1-2%.

Блогпост | Код

Читать полностью…

Data Secrets

Российские ученые первыми нашли способ защитить модели компьютерного зрения от пиратства без дополнительного обучения

Метод представили на ICCV 2025(A*), где его положительно оценили эксперты из таких гигантов как Amazon, Google и других ведущих университетов. Команда из научной лаборатории ИИ Центрального университета предложила механизм, который защищает готовые нейросети по принципу лицензионного ключа.

В модель добавляется специальный нейрон, который не реагирует на обычные изображения, но активируется при появлении секретного ключа – это и позволяет подтвердить авторство. А “нейроны-нарушители” делают модель работоспособной только при наличии ключа. Без него она начинает вносить помехи.

Главное: решение подходит для любых моделей CV, не требует вычислений и практически полностью исключает ложные срабатывания. Это открывает путь к массовой коммерциализации и реальной защите моделей компьютерного зрения от копирования.

Читать полностью…

Data Secrets

⚠️Что видит камера, когда за ней стоит нейросеть?
📌Узнайте на открытых вебинарах курса «Компьютерное зрение» — мы подготовили для вас самые актуальные темы для 2026 года, а преподаватели ответят на ваши вопросы.

💎Вебинар 1: Механика обучения: как нейросеть находит правильные веса
⏰3 декабря в 20:00 мск

На вебинаре узнаете:
• Как нейросеть «чувствует» ошибку и корректирует себя — от сигнала до обновления весов.
• Почему выбор функции потерь и оптимизатора критически влияет на результат обучения.
• Как устроено обучение в компьютерном зрении «на пальцах»

💎Вебинар 2: PyTorch с нуля: работа с тензорами и обучение нейросетей
⏰8 декабря в 20:00 мск

На вебинаре узнаете:
• Основы работы с тензорами: создание, преобразования, GPU-ускорение и взаимодействие с NumPy.
• Архитектуру простой нейросети в PyTorch: nn.Module, слои, активации и прямой проход.
• Полный пайплайн обучения на MNIST: загрузка данных, цикл обучения, подсчёт лосса, backpropagation и оценка метрик (accuracy, confusion matrix).

💎Вебинар 3: Следим и считаем людей на видео
⏰18 декабря в 20:00 мск

На вебинаре узнаете:
• Как применять современные нейросетевые трекеры для решения реальных задач, таких как обнаружение и отслеживание объектов на видео.
• Какую статистику и метрики можно вывести из трекинг-данных, и с какими потенциальными сложностями можно столкнуться.
• Где и для чего применяется нейросетевой трекинг на практике, и для чего он нужен бизнесу.

Регистрация на вебинары ➡️ OTUS.RU

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576

Читать полностью…

Data Secrets

Вышло!

Новое интервью Суцкевера смотрим тут -> https://youtu.be/aR20FWCCjAs

Полтора часа кайфа во вторник вечером

Читать полностью…

Data Secrets

Рисерчеры и студенты, это для вас: легендарный Эндрю Ын (сооснователь Coursera и доцент Стэнфоррда) сделал ИИ-ревьюера для научных работ

Суть проекта – в быстром пред-ревью вашей работы перед тем, как вы отправите ее в журнал или научруку. Человеческое ревью длится неделями и даже месяцами, а тут вы можете предвательно оценить, насколько исследование "понравится" ревьюерам и заранее исправить замечания, которые обнаружит агент.

Меня вдохновила история студента, чью работу отклоняли 6 раз за 3 года. Цикл обратной связи обычно занимает примерно пол года, и это мучительно долго. Я захотел проверить, насколько агенты смогут помочь исследователям ускорить процесс.


Систему обучали на ревью с конференции ICLR 2025. Качество оценивали с помощью корреляции Спирмена: чем выше значение, тем ближе ревью агента к человеческим, то есть тем точнее "прогноз" агента относительно вашей работы.

В результате корреляция ИИ с человеком получилась равной 0.42. Кажется немного, но вот вам фанфэкт: корреляция между ревьюером и другим ревьюером в среднем составляет 0.41. То есть верить инструменту вполне можно.

На инференсе агент использует atXiv для ревью, так что лучше всего тулза работает именно с CS/ИИ статьями, которые публикуются там в избытке.

Забирайте, это бесплатно: https://paperreview.ai/

Читать полностью…

Data Secrets

Лучшая новость дня: у Дваркеша Пателя завтра выйдет интервью с Ильей Суцкевером.

Последний раз ученый давал интервью журналистам, кажется, в 2023.

Ждем сильнее, чем новый Claude Opus 4.5

Читать полностью…

Data Secrets

⚙️🦾 Ансамбли моделей в Scikit-learn — усиливаем ML-модели за счёт объединения

Ансамбли моделей — проверенный способ повысить стабильность и точность прогнозов. На открытом уроке разберём, как объединять алгоритмы, чтобы добиться лучших результатов. Вы научитесь использовать bagging, boosting, stacking, сравните одиночные и ансамблевые модели и увидите, как на практике растут метрики. Разберём популярные инструменты библиотеки: RandomForest, GradientBoosting, VotingClassifier, StackingClassifier — и посмотрим, какие из них работают эффективнее для ваших задач.

Урок будет полезен ML-инженерам, аналитикам и разработчикам, которые хотят не просто обучать модели, а добиваться максимального качества и устойчивости решений. Вы поймёте, как валидировать ансамбли, комбинировать подходы и избегать ошибок при настройке.

➡️ 2 декабря в 20:00 МСК. Открытый урок проходит в преддверии старта курса «Machine Learning. Professional». Регистрация открыта: https://otus.pw/8orR/

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576

Читать полностью…

Data Secrets

Не кодь — вайбкодь. Бесплатно 🚀

Сбер представил бесплатный агентный режим GigaCode — нового цифрового разработчика, который берет на себя рутину, чтобы вы могли сосредоточиться на крутых задачах!

Что умеет GigaCode в агентном режиме?

Сам находит и открывает нужные файлы

Вносит изменения в код, запускает тесты, собирает проекты и оформляет коммиты в Git

Работает в вашей любимой среде: JetBrains IDE, GigaIDE Desktop, а скоро еще и в VS Code

Плюс, в GigaCode появилась новая модель автодополнения кода — GigaCode Inline 4.0. Она мгновенно предлагает нужные фрагменты кода для Python, Java, JavaScript и других языков. Подсказки стали еще точнее, а работа с контекстом — еще лучше.

🖱 Хотите ускорить разработку? Обновленный GigaCode уже доступен на GitVerse.

Начать вайбкодить — по ссылке

Читать полностью…

Data Secrets

Андрей Карпаты: «Люди не понимают, что животный интеллект – это всего одна точка в пространстве интеллектов»

В X случился очередной интересный питч от Андрея Карпаты на тему разницы между животным и искусственным интеллектом. Подготовили краткий перевод:

Люди плохо осознают, что пространство форм интеллекта огромно, а животный интеллект – лишь одна точка в нем, возникшая из очень специфического типа оптимизации. Интеллект LLM формируется принципиально иначе.

Животный интеллект оптимизирован под выживание: непрерывное «я», самосохранение, сильные инстинкты (страх, агрессия, воспроизводство), сложные социальные взаимодействия и способность к исследованию мира. Он формируется в многозадачной и враждебной среде, где любая ошибка может стоить жизни – отсюда его общность.

LLM, напротив, оптимизируются под статистическое моделирование текста, дообучаются на задачах с подкреплением и отбираются через метрики вовлечённости. Их базовое поведение – это имитация и угадывание шаблонов, а не выживание. Они стремятся понравиться пользователю, а не выжить в мире, поэтому их интеллект более неровный и зависит от данных и задач.

Различаются и субстрат (мозг vs трансформер), и обучение (эволюция vs SGD/RL), и режим существования (непрерывное живое существо vs модель, которая включается и выключается).

Главное отличие – оптимизационное давление: животные – продукт биологической эволюции, LLM – продукт коммерческой. Это не выживание в джунглях, а «реши задачу и получи апвоут».

LLM – наш первый неживотный интеллект. И те, кто продолжает мыслить по биологической аналогии, будут неверно понимать его природу и будущее.

Читать полностью…

Data Secrets

Только что на True Tech Champ послушали доклад исследователя Валентина Малых (@valuableai). Валентин руководит фундаментальными исследованиями в MWS AI и преподает в ИТМО, МФТИ и НИУ ВШЭ. 

Он уже очень долго занимается информационным поиском и рассказал много интересного на тему реального развертывания таких систем. В частности, затронул довольно горячую тему: RAG против длинного контекста

Бытует мнение, что RAG – это костыль, обходной путь вокруг ограничений короткого контекста LLM, который работает хуже. И действительно, с RAG бывают проблемы. 

Например, Валентин упомянул статью от DeepMind, чьи исследователи доказали, что RAG имеет фундаментальное ограничение: при фиксированной длине вектора, начиная с некоторого размера базы, извлечение всех релевантных документов становится математически невозможным. Более подробно эту статью мы разбирали здесь. 

А вот что Валентин говорит по поводу полной замены RAG длинным контекстом:

1. Длинный контекст – не панацея. Сейчас появляются модели все с большим и большим контекстным окном, но прогонять текст через них дорого и долго. Можно пользоваться RAG, и при этом получать почти такое же качество в десятки раз быстрее.

2. В ближайшем будущем вряд ли будет модель, которая сможет прочитать «все и сразу». Все знания человечества – это примерно 30 триллионов токенов, то есть довольно много. Так что RAG останется актуальным даже с увеличением контекста. И из-за качества, и из-за эффективности: во многих задачах лучше получить не очень хороший ответ сейчас, чем хороший через полчаса. 

3. Возможно, с развитием ИИ понимание RAG изменится. Технологии поменяются, но концепция останется: извлекаем из чего-то большого что-то маленькое, чтобы с этим работать. Например, тренд на появление в сетях долгосрочной памяти – тоже из этой области.


Спасибо Валентину за содержательную презентацию и разговор!

Выступление полностью и трансляцию остальных выступлений спикеров смотрите здесь

Читать полностью…

Data Secrets

Через полчаса на True Tech Champ начинается суперфинал по программированию роботов.

10 команд со всей страны, которые вышли в финал, с утра соревновались в прохождении трех трасс: полоса препятствий (ее хорошо видно на фото), лабиринт и трасса «над пропастью».

Сейчас 6 победителей сразятся в поединках в формате "Царь горы". Должно быть зрелищно.

Трансляцию битвы можно будет смотреть вот тут. В том числе выступят команды от многих вузов, так что болейте за свою альма-матер!

Ну а мы пока еще успеваем на пару локаций. Уже были на ИТ-Родео, проходили ИИ-лабиринт, сражались робо-пауками и проходили мини-квест с электронными замками. Даже заработали несколько True Coins (но на мерч пока не хватает, так что идем добивать 😐)

Читать полностью…

Data Secrets

Мы приехали на True Tech Champ 2025 – третий всероссийский чемпионат по алгоритмическому и робототехническому программированию.

Сегодня тут можно будет понаблюдать, как 350 самых талантливых программистов со всей страны сразятся за 10 250 000 рублей, послушать выступления известных экспертов, самому покодить на воркшопах и развлечься на одиннадцати специальных станциях.

Например, тут есть айтивность, где надо решить алго-задачку, при этом удерживаясь в седле механического быка (100% must). А лекторий оформлен в стиле ИТ-качалки.

Трансляцию выступлений, кстати, уже запустили, так что можете взглянуть на расписание и смотреть фест сами, он абсолютно бесплатный. Вот ради чего приехали мы:

1. Воркшоп знаменитого Майкла Лэнхема. Он автор книги AI Agents in Action и сегодня проведет тут двухчасовой мастер-класс по ИИ-агентам.

2. Выступления Тони Янга (директор по североамериканскому бизнесу в Unitree Robotics), Валентина Малых (один из лучших экспертов по RAG в России) и Артема Лыкова (специалист по world models).

3. И, конечно, битва роботов. Финалистам чемпионата предстоит пройти полосу препятствий, лабиринт и узкую трассу, а в суперфинале будут поединки между роботами 1–1.

Кто тоже пришел офлайн – подходите общаться!

Читать полностью…
Subscribe to a channel