1321
Математика, физика, дата сайнс. Основное правило - вежливое и уважительное общение. @sberlogabig основной канал @sberlogabio биоинформатика, биология @sberlogatalkclub за жизнь
📆 Что обсуждалось вчера 27.04.2026
Всего было написано 10 сообщений
🧩 Обсуждение нейросетей и алгоритмов для головоломок (7 сообщений)
🔍 Улучшение результатов работы нейросетей (4 сообщений)
🎲 Обсуждение игрового опыта и случайных выигрышей (2 сообщений)
Интересные ссылки:
Ссылка на репозиторий с кодом ClawSweeper для проекта OpenClaw
Ссылка на игровую платформу, где участники играют
⚡️ Включи свой личный дайджест
🔥 Наш канал
#dailysummary
плюс сама архитектура нейросети: сколько сделать скрытых слоёв, сколько резидуал блоков, какова их размерность, какой размер и "качество" датасета - тут много можно чего накопать интересного, мне лично кажется, особенно если это ещё и с метриками группы пазла как-то всё соединить (там шо-то есть типа минмальных генераторов, косеты и шо-то ещё - не помню точно) - это уже почти на медаль Филдса будет наверное )
вообще удивительно, что модель вообще решает эти пазлы, даже если не оптимально - я уже тут не понимаю почему.
OpenClaw теперь частично поддерживается агентами
Создатель проекта Питер Штейнбергер (напоминаем, что он теперь работает в OpenAI) сделал ClawSweeper – AI-мейнтейнера для OpenClaw.
Теперь в проекте работают 50 параллельных агентов, которые разбирают все поступающие issue и pr. Они удаляют дубликаты, закрывают решенные проблемы, пишут отчеты и предлагают решения.
Агенты работают асинхронно и постоянно. Автор написал, что за день с помощью них разгреб уже 4000 issue, и еще несколько тысяч стоят в очереди.
Код здесь, можно и для своего проекта использовать: https://github.com/openclaw/clawsweeper
📢 Дорогие коллеги, хочу напомнить про эти соревнования!
Если вы давно думали «зайти» в машинное обучение, но не знали, с чего начать — это идеальная возможность. Особенно для тех, у кого есть базовая математика (группы, подгруппы), но нет опыта с нейросетями.
🤔 Почему это интересно математику или софт-разработчику?
Мы работаем с вращательными головоломками — вроде кубика Рубика. С математической точки зрения это элементы группы перестановок огромного порядка:
• Кубик 3x3x3 → 4.3 * 10^19 состояний.
• Другие, более сложные пазлы → еще на десятки порядков больше.
Математически любая вращательная головоломка - это подгруппа так называемой симметрической группы.
⚠️ Проблема: Нам нужно найти кратчайший путь к собранному состоянию головоломки. Но пространство настолько огромно, что полный перебор невозможен.
🧭 Идея: Нам нужен не «решатель», а подсказчик по принципу «тепло–холодно». Функция, которая говорит, насколько какой из следующих ходов (мувов) приближает нас к решению (собранному состоянию кубика Рубика). Эту функцию и вычисляет нейросеть.
🏗 Как это устроено внутри?
Любая нейросеть — это сложная математическая функция с настраиваемыми параметрами. В нашем случае мы используем архитектуру Residual neural network (или сокращенно ResNet).
Процесс обучения (Random Walks):
Как нейросеть узнает, «тепло» или «холодно»? Мы учим её на обратных примерах:
Берем собранный кубик и делаем от него случайное количество вращений (Random Walk), например, 20 вращений. Мы точно знаем, что из этого состояния до цели — 20 шагов. Показываем это состояние сети и корректируем её веса, пока её предсказание не совпадет с реальностью. Так она постепенно начинает «чувствовать» расстояние до цели.
Разберём структуру нашей сети:
🔹 1. Вход (Input)
Мы подаем полное описание состояния головоломки. Технически это кодируется как вектор чисел.
• Каждый кусочек → набор индексов.
• Всё вместе → длинный вектор, описывающий положение всей системы в пространстве группы.
🔹 2. Скрытые слои (Hidden layers)
Вектор проходит через цепочку слоев. Каждый слой «переосмысливает» данные:
• Первые слои видят простые вещи (например: «этот кусок не на месте»).
• Средние слои начинают замечать паттерны и блоки элементов.
• Глубокие слои улавливают глобальную структуру и «дальность» до цели.
🔹 3. Остаточные блоки (Идея «поправок»)
В обычных глубоких сетях сигнал об ошибке «затухает», не успевая распространиться по всей сети, и сеть перестает учиться. Residual blocks используют идею y = x + F(x). Слой не переписывает информацию полностью, а лишь вычисляет поправку к текущему значению. Это создает «скоростную трассу» для данных: сигнал проходит через десятки слоев без искажений, позволяя строить по-настоящему глубокие и умные модели.
🔹 4. Выход (Output)
Оценка расстояния до решения (например, «до цели 15 шагов»).
🔗 Как это работает в связке?
Алгоритм поиска пробует разные ходы, для каждого спрашивает нейросеть «насколько стало теплее?» и выбирает только лучшиe.
🏆 Перспективы для участников
Aрхитектура ResNet зарекомендовала себя как надежная база. Однако мир ИИ не стоит на месте. Если вы сможете адаптировать другие архитектуры (например, трансформеры или графовые сети) и получите лучшие результаты — вы выиграете! Но для старта ResNet — норм вариант.
✨ Вместо заключения
Всё это может показаться слишком сложным. Но как только вы начнете решать первые пазлы и увидите, как нейросеть находит выход в пространстве из квадриллионов состояний — всё встанет на свои места.
Нейросеть здесь — это не магия, а умный оценщик в пространстве группы. Она делает возможным поиск там, где перебор грубой силой бессилен.
P.S.Чтобы начать и войти в тему можно взять какой-нибудь из уже готовых ноутбуков, например этот. И попросить кого-нибудь рассказать что там и как. Легко сделаем!
P.P.S.Решить все эти пазлы с помощью нейросетей — не проблема. Они обучаются на случайных прогулках по графу состояний буквально за 10 минут. Настоящий вызов — находить именно кратчайшие пути и собирать головоломки за минимальное число вращений. И это действительно современный челлендж!
PS Неделю назад ссылка в посте у меня не открылась, потому я и спросил...
Читать полностью…
Ответ на ваш вопрос можно найти быстрее, чем время набора вашего вопроса
Читать полностью…
AIRI на ICLR 2026 🔥
23 апреля в Рио-де-Жанейро, Бразилия, стартовала конференция ICLR — одно из важнейших мероприятий в мире машинного обучения. В этом году исследователи AIRI представляют на ней 31 статью:
⚫️Tighter Performance Theory of FedExProx
⚫️Unraveling the Complexity of Memory in RL Agents: an Approach for Classification and Evaluation
⚫️Obfuscated Activations Bypass LLM Latent-Space Defenses
⚫️A Statistical Learning Perspective on Semi-dual Adversarial Neural Optimal Transport Solvers
⚫️InfoBridge: Mutual Information estimation via Bridge Matching
⚫️Birch SGD: A Tree Graph Framework for Local and Asynchronous SGD Methods
⚫️Locally Subspace-Informed Neural Operators for Efficient Multiscale PDE Solving
⚫️Curse of Slicing: Why Sliced Mutual Information is a Deceptive Measure of Statistical Dependence
⚫️Interaction Field Matching: Overcoming Limitations of Electrostatic Models
⚫️Proving the Limited Scalability of Centralized Distributed Optimization via a New Lower Bound Construction
⚫️LoRA meets Riemannion: Muon Optimizer for Parametrization-independent Low-Rank Adapters
⚫️Speech-to-LaTeX: New Models and Datasets for Converting Spoken Equations and Sentences
⚫️Asynchronous Policy Gradient Aggregation for Efficient Distributed Reinforcement Learning
⚫️Deep Learning for Subspace Regression
⚫️Universal Inverse Distillation for Matching Models with Real-Data Supervision (No GANs)
⚫️Entering the Era of Discrete Diffusion Models: A Benchmark for Schrödinger Bridges and Entropic Optimal Transport
⚫️GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver
⚫️Q-RAG: Long Context Multi-step Retrieval via Value-based Embedder Training
⚫️MMReD: a Cross-Modal Benchmark for Dense Context Reasoning
⚫️Logit‑KL Flow Matching: Non‑Autoregressive Text Generation via Sampling‑Hybrid Inference
⚫️VINTIX II: Decision Pre-Trained Transformer is a Scalable in-Context Reinforcement Learner
⚫️Modeling the Density of Pixel-level Self-supervised Embeddings for Unsupervised Pathology Segmentation in Medical CT
⚫️ELMUR: External Layer Memory with Update/Rewrite for Long-Horizon RL Problems
⚫️Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
⚫️Recurrent Action Transformer with Memory
⚫️Learning of Population Dynamics: Inverse Optimization Meets JKO Scheme
⚫️GeomMotif: A Benchmark for Arbitrary Geometric Preservation in Protein Generation
⚫️Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics
⚫️cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning
⚫️HOTA: Hamiltonian framework for Optimal Transport Advection
⚫️Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting
Делимся фотографиями с первых дней конференции 📷
P. S. Про воркшопы расскажем отдельно.
#AIRIнаКонфе
📆 Что обсуждалось вчера 24.04.2026
Всего было написано 6 сообщений
🧠 Обсуждение новой модели DeepSeek V4 (5 сообщений)
🔒 Обсуждение работы VPN и его преимуществ (1 сообщений)
Интересные ссылки:
Ссылка на хакатон с плагином по данной теме
⚡️ Включи свой личный дайджест
🔥 Наш канал
#dailysummary
🐳 Встречаем DeepSeek V4
Глянула техрепорт нового DeepSeek V4 и могу сказать, что я впечатлена.
TL;DR
DeepSeek V4 — MoE-модель с 1,6T параметров, обученная на 32T+ токенов, с контекстом 1M токенов.
Две главные инновации:
- CSA+HCA (гибридное сжатое внимание — KV-кэш в 10 раз меньше, FLOPs в 3,7 раза меньше)
- mHC (остаточные связи, ограниченные политопом Биркгофа — усиление сигнала снижено с 3000x до 1.6x).
Сильна в коде и reasoning, уступает закрытым моделям в knowledge-задачах. MIT License, полностью открытый доступ.
Чуть подробнее:
1. Модели и масштаб Семейство V4 включает две модели:
DeepSeek-V4-Pro — 1,6 трлн параметров, 49 млрд активируется (MoE-архитектура)
DeepSeek-V4-Flash — 284 млрд параметров, 13 млрд активируется
Контекстное окно: 1 миллион токенов у обеих моделей.
2. Ключевые архитектурные инновации
✔️CSA + HCA (гибридное внимание) — сочетание Compressed Sparse Attention и Heavily Compressed Attention.
✔️mHC (Manifold-Constrained Hyper-Connections) — более умная маршрутизация знаний внутри модели. V4 — первая модель, использующая эту технику, что дало значительный выигрыш в эффективности.
✔️Muon optimizer + FP4/FP8 — новая стратегия обучения со смешанной точностью, снижающая стоимость тренировки и инференса.
3. Производительность
DeepSeek заявляет, что версия V4 Pro Max превосходит GPT-5.2 и Gemini 3.0-Pro по стандартным бенчмаркам рассуждений, лишь незначительно уступая GPT-5.4 и Gemini 3.1-Pro.
4. Стоимость
V4-Flash: от $0.028/1M токенов (cache hit) до $0.28/1M (output)
V4-Pro: от $0.145/1M до $3.48/1M (output) Mervin Praison
Для практики: сложный агентный цикл, стоивший раньше ~$10, теперь может обойтись в $1.50–2.50, особенно учитывая, что OpenAI и Anthropic существенно повышают цены при выходе за пределы определённого контекстного окна.
5. Аппаратный прорыв
V4 тренировался на смеси чипов Nvidia и китайских Huawei Ascend NPU, причём инференс сильно оптимизирован под Huawei. Это первый случай, когда frontier-модель не только работает на non-US железе, но предпочитает его. Techzine
6. Открытый доступ
Модель вышла в открытом доступе (open-source) в форматах Pro и Flash с улучшениями в области знаний, рассуждений и агентных способностей — выполнения сложных автономных задач. U.S. News & World Report
7. Контекст и сравнение
Релиз задержался из-за перехода фреймворка обучения V4 с Nvidia на Huawei Ascend и внутренних разногласий по стратегии. Примечательно: вопреки ожиданиям, V4 остаётся языковой моделью без мультимодальной генерации — это решение отложено из-за ограничений по вычислительным ресурсам.
@mashkka_ds
#llm #deepseekv4 #deepseek #ai #ainews
Devpost по этой теме написал плагин и выложил в виде хакатона (учебного). https://learn-ai.devpost.com/ Мое впечатление - очень полезный практический тренажер для SDD.
Читать полностью…
Военкомат. Медкомиссия. Молодой ученый, несмотря на огромные очки, подслеповато шурящийся, недоуменно спрашивает у офтальмолога:
— А почему у вас в прибор для проверки зрения в заводской упаковке?
— Идеальное зрение! Еще и внимательны. Так и запишем, годен в пехотные снайперы и подразделения специального назначения
Вредные Лабораторные Советы
Часть 5 #от_подписчика
Если вам сказал профессор
Написать статью по теме
То найдите аспиранта
Он-то точно не сбежит
Пусть он пишет днём и ночью
Вы ему кивайте только
А когда он все напишет
С одолжением принять
Эффектив Эксплуататович
📆 Что обсуждалось вчера 22.04.2026
Всего было написано 14 сообщений
🤖 Разработка генеративных рекомендательных систем (5 сообщений)
📚 Подборка статей по генеративным рекомендациям (3 сообщений)
🍼 Обсуждение сложности совмещения науки и материнства (1 сообщений)
🏆 Новая премия Сбера для ученых в области ИИ (1 сообщений)
💡 Итоги митапа AI для CPO (1 сообщений)
🛠️ Спецификации в разработке с использованием AI (1 сообщений)
⚡️ Включи свой личный дайджест
🔥 Наш канал
#dailysummary
https://www.youtube.com/watch?v=ycjmtkwQf8E
Сегодня был доклад про Spec-Driven Development — это когда спека начинает управлять разработкой.
Я провёл исследование довольно большое и здесь выводы
Хочу поделиться с сообществом
Кому зайдёт: тем, кто уже пробует AI в разработке и не понимает, почему он иногда творит дичь.
Что обсуждали: главная проблема — спеки живут отдельно от кода, устаревают мгновенно и ломают весь AI-флоу.
Инсайт: когда спека становится source of truth и частью пайплайна, AI начинает работать как инструмент — быстрее релизы, меньше людей.
Вывод: архитектура — точка контроля.
Исследователи AIRI разработали первую в России генеративную модель для предсказания климатических рисков
Названная в честь советского математика Гурия Марчука модель Marchuk позволяет строить субсезонные прогнозы (15-30 дней), имеет всего 276 миллионов параметров, она выполняет расчёты за 7,5 минуты на 1 графической карте. При этом для построения прогноза Marchuk достаточно одного дня контекста, и всего за один прогон она генерирует данные на срок до восьми дней вперёд, создавая от 4 до 48 итоговых погодных карт.
Одновременно с моделью Marchuk учёные Института AIRI создали ИИ-метеоролога — систему преобразования погодных прогнозов в текстовые отчёты. Она анализирует метеоданные на трёх временных масштабах: почасовом, шестичасовом и суточном — и формирует единое объяснение погодных явлений с автоматической проверкой.
Научная статья | GitHub | Известия
https://www.desmos.com/calculator/6tabzxr4gq
Читать полностью…
абсолютно. вообще можно чего можно сделать: например фильтровать обучающий дата-сет чтобы моделька лучше училась предсказывать. в это если закопаться - это уже почти фулл-тайм-джоб. улучшать можно и нужно!
Читать полностью…
И смотри вот эти четыре запуска -- такие же параметры как у тебя-- у всех ОДИНАКОВЫ
Засчет того что рендом волки случайны , модели несколько разные и одни решают одно лучше , другие другое
Есть разброс
Можно взять эти решения и длямкаждого семпла выбрать самое лучше решение
Обычно это ещё немного удучшает
📆 Что обсуждалось вчера 26.04.2026
Всего было написано 1 сообщений
💡 Быстрая помощь с ответами на вопросы (1 сообщений)
⚡️ Включи свой личный дайджест
🔥 Наш канал
#dailysummary
📆 Что обсуждалось вчера 25.04.2026
Всего было написано 12 сообщений
🤖 Создание первого ИИ для генерации научных статей в России (1 сообщений)
📊 Участие AIRI в конференции ICLR 2026 (1 сообщений)
⚡️ Включи свой личный дайджест
🔥 Наш канал
#dailysummary
#обозревая_происходящее
Ученые создали первый в России ИИ по генерации статей высокого уровня
Российские ученые создали первую в стране систему ИИ по проведению исследований и генерации статей, работа которой была принята на флагманскую международную IT-конференцию (класса А*). Об этом сообщил РБК доктор физико-математических наук, профессор РАН, генеральный директор Института AIRI, декан факультета искусственного интеллекта МГУ Иван Оселедец.
Как рассказал Оселедец, ученые Института AIRI, Университета Иннополис и ИТМО создали систему ИИ-агентов, которой нужно поставить задачу, и она сама полностью проведет исследование: проанализирует литературу, проведет эксперименты на облачных серверах и сформирует публикацию в требуемом формате.
«Благодаря системе была создана полноценная научная публикация по тематике интернета вещей (область компьютерных наук). Работа на 90% выполнена и оформлена в текст публикации ИИ-системой, в оставшиеся 10% включена проверка и валидация данных учеными-людьми», — говорится в сообщении.
Надеемся, AIRI назовет систему "Korchevatel 2.0" - в память о былом
И как удачно вдогонку к сегодняшней новости у меня как раз занятие в Отус про методы за DeepSeek. Не могла не включить самый свежий материал в программу. Ради этого собрала основные вещи из техрепорта и других источников в короткий лонг-рид (каламбур - палюсь, что пишу тексты сама, а не нейросетью). Делюсь с вами - для тех, кто нИ Асилил техрепорт.
@mashkka_ds
#deepseek #llm #ai #ainews
📆 Что обсуждалось вчера 23.04.2026
Всего было написано 11 сообщений
🎓 Обсуждение семинара Sber AI Lab и EACL 2026 (1 сообщений)
😂 Вредные советы по написанию научных статей (1 сообщений)
📊 Обсуждение проекта на Kaggle (1 сообщений)
Интересные ссылки:
Ссылка на страницу проекта на Kaggle
⚡️ Включи свой личный дайджест
🔥 Наш канал
#dailysummary
Напоминалка
Кто хочет поучаствовать в нашем проекте пишите мне @alexander_v_c
И/или отмечайтесь в голосовалке
О проекте
/channel/sberlogabig/643
https://www.kaggle.com/code/alexandervc/cayleypy-models/
покидайте плиз апвоуты
может ноутбук попадет в фитчеред на каггле
и это привлечет внимание к нашей сореве
⚡️Sber AI Lab приглашает вас на открытый научный семинар:
📆 сегодня, 23 апреля в 17:00.
📆На семинаре выступит: Беликова Юлия, Руководитель по исследованию данных, Sber AI Lab
➡️Тема доклада: «Обзор конференции EACL 2026»
В программе семинара:
➡️Обзор EACL 2026 (CORE A)
Конференция впервые прошла в Африке — в Рабате (Марокко), 24–29 марта.
(совместная работа Sber AI Lab со Сколтехом и AIRI).
Видос про робота для сборки мегаминкса https://www.youtube.com/watch?v=GCOJ7NgCl0I
Читать полностью…
Вредные Лабораторные Советы
Часть 1.
Если опыт не выходит —
Не печалься, не грусти:
Подпиши пробирки ловко
Так, как хочешь, подпиши.
Пусть контроль вдруг станет тестом,
А нокаут — «дикарём»,
Главное — в отчёте честно:
«Мы эффект такой и ждём».
Если кто-то усомнится —
Улыбнись и не робей:
"Коль ты мне не веришь,
то иди говна попей"
Кабан Кабаныч