sberlogasci | Unsorted

Telegram-канал sberlogasci - (sci)Berloga Science

1321

Математика, физика, дата сайнс. Основное правило - вежливое и уважительное общение. @sberlogabig основной канал @sberlogabio биоинформатика, биология @sberlogatalkclub за жизнь

Subscribe to a channel

(sci)Berloga Science

https://en.wikipedia.org/wiki/65537-gon

Читать полностью…

(sci)Berloga Science

📆 Что обсуждалось вчера 27.04.2026
Всего было написано 10 сообщений

🧩 Обсуждение нейросетей и алгоритмов для головоломок (7 сообщений)
🔍 Улучшение результатов работы нейросетей (4 сообщений)
🎲 Обсуждение игрового опыта и случайных выигрышей (2 сообщений)

Интересные ссылки:
Ссылка на репозиторий с кодом ClawSweeper для проекта OpenClaw
Ссылка на игровую платформу, где участники играют

⚡️ Включи свой личный дайджест
🔥 Наш канал

#dailysummary

Читать полностью…

(sci)Berloga Science

плюс сама архитектура нейросети: сколько сделать скрытых слоёв, сколько резидуал блоков, какова их размерность, какой размер и "качество" датасета - тут много можно чего накопать интересного, мне лично кажется, особенно если это ещё и с метриками группы пазла как-то всё соединить (там шо-то есть типа минмальных генераторов, косеты и шо-то ещё - не помню точно) - это уже почти на медаль Филдса будет наверное )

вообще удивительно, что модель вообще решает эти пазлы, даже если не оптимально - я уже тут не понимаю почему.

Читать полностью…

(sci)Berloga Science

OpenClaw теперь частично поддерживается агентами

Создатель проекта Питер Штейнбергер (напоминаем, что он теперь работает в OpenAI) сделал ClawSweeper – AI-мейнтейнера для OpenClaw.

Теперь в проекте работают 50 параллельных агентов, которые разбирают все поступающие issue и pr. Они удаляют дубликаты, закрывают решенные проблемы, пишут отчеты и предлагают решения.

Агенты работают асинхронно и постоянно. Автор написал, что за день с помощью них разгреб уже 4000 issue, и еще несколько тысяч стоят в очереди.

Код здесь, можно и для своего проекта использовать: https://github.com/openclaw/clawsweeper

Читать полностью…

(sci)Berloga Science

📢 Дорогие коллеги, хочу напомнить про эти соревнования!

Если вы давно думали «зайти» в машинное обучение, но не знали, с чего начать — это идеальная возможность. Особенно для тех, у кого есть базовая математика (группы, подгруппы), но нет опыта с нейросетями.

🤔 Почему это интересно математику или софт-разработчику?

Мы работаем с вращательными головоломками — вроде кубика Рубика. С математической точки зрения это элементы группы перестановок огромного порядка:

• Кубик 3x3x3 → 4.3 * 10^19 состояний.
• Другие, более сложные пазлы → еще на десятки порядков больше.

Математически любая вращательная головоломка - это подгруппа так называемой симметрической группы.

⚠️ Проблема: Нам нужно найти кратчайший путь к собранному состоянию головоломки. Но пространство настолько огромно, что полный перебор невозможен.

🧭 Идея: Нам нужен не «решатель», а подсказчик по принципу «тепло–холодно». Функция, которая говорит, насколько какой из следующих ходов (мувов) приближает нас к решению (собранному состоянию кубика Рубика). Эту функцию и вычисляет нейросеть.

🏗 Как это устроено внутри?

Любая нейросеть — это сложная математическая функция с настраиваемыми параметрами. В нашем случае мы используем архитектуру Residual neural network (или сокращенно ResNet).

Процесс обучения (Random Walks):
Как нейросеть узнает, «тепло» или «холодно»? Мы учим её на обратных примерах:

Берем собранный кубик и делаем от него случайное количество вращений (Random Walk), например, 20 вращений. Мы точно знаем, что из этого состояния до цели — 20 шагов. Показываем это состояние сети и корректируем её веса, пока её предсказание не совпадет с реальностью. Так она постепенно начинает «чувствовать» расстояние до цели.

Разберём структуру нашей сети:


🔹 1. Вход (Input)

Мы подаем полное описание состояния головоломки. Технически это кодируется как вектор чисел.
• Каждый кусочек → набор индексов.
• Всё вместе → длинный вектор, описывающий положение всей системы в пространстве группы.

🔹 2. Скрытые слои (Hidden layers)

Вектор проходит через цепочку слоев. Каждый слой «переосмысливает» данные:

• Первые слои видят простые вещи (например: «этот кусок не на месте»).
• Средние слои начинают замечать паттерны и блоки элементов.
• Глубокие слои улавливают глобальную структуру и «дальность» до цели.

🔹 3. Остаточные блоки (Идея «поправок»)

В обычных глубоких сетях сигнал об ошибке «затухает», не успевая распространиться по всей сети, и сеть перестает учиться. Residual blocks используют идею y = x + F(x). Слой не переписывает информацию полностью, а лишь вычисляет поправку к текущему значению. Это создает «скоростную трассу» для данных: сигнал проходит через десятки слоев без искажений, позволяя строить по-настоящему глубокие и умные модели.

🔹 4. Выход (Output)

Оценка расстояния до решения (например, «до цели 15 шагов»).

🔗 Как это работает в связке?
Алгоритм поиска пробует разные ходы, для каждого спрашивает нейросеть «насколько стало теплее?» и выбирает только лучшиe.

🏆 Перспективы для участников

Aрхитектура ResNet зарекомендовала себя как надежная база. Однако мир ИИ не стоит на месте. Если вы сможете адаптировать другие архитектуры (например, трансформеры или графовые сети) и получите лучшие результатывы выиграете! Но для старта ResNet — норм вариант.

✨ Вместо заключения
Всё это может показаться слишком сложным. Но как только вы начнете решать первые пазлы и увидите, как нейросеть находит выход в пространстве из квадриллионов состояний — всё встанет на свои места.

Нейросеть здесь — это не магия, а умный оценщик в пространстве группы. Она делает возможным поиск там, где перебор грубой силой бессилен.

P.S.Чтобы начать и войти в тему можно взять какой-нибудь из уже готовых ноутбуков, например этот. И попросить кого-нибудь рассказать что там и как. Легко сделаем!

P.P.S.Решить все эти пазлы с помощью нейросетей — не проблема. Они обучаются на случайных прогулках по графу состояний буквально за 10 минут. Настоящий вызов — находить именно кратчайшие пути и собирать головоломки за минимальное число вращений. И это действительно современный челлендж!

Читать полностью…

(sci)Berloga Science

PS Неделю назад ссылка в посте у меня не открылась, потому я и спросил...

Читать полностью…

(sci)Berloga Science

Ответ на ваш вопрос можно найти быстрее, чем время набора вашего вопроса

Читать полностью…

(sci)Berloga Science

AIRI на ICLR 2026 🔥

23 апреля в Рио-де-Жанейро, Бразилия, стартовала конференция ICLR — одно из важнейших мероприятий в мире машинного обучения. В этом году исследователи AIRI представляют на ней 31 статью:

⚫️Tighter Performance Theory of FedExProx
⚫️Unraveling the Complexity of Memory in RL Agents: an Approach for Classification and Evaluation
⚫️Obfuscated Activations Bypass LLM Latent-Space Defenses
⚫️A Statistical Learning Perspective on Semi-dual Adversarial Neural Optimal Transport Solvers
⚫️InfoBridge: Mutual Information estimation via Bridge Matching
⚫️Birch SGD: A Tree Graph Framework for Local and Asynchronous SGD Methods
⚫️Locally Subspace-Informed Neural Operators for Efficient Multiscale PDE Solving
⚫️Curse of Slicing: Why Sliced Mutual Information is a Deceptive Measure of Statistical Dependence
⚫️Interaction Field Matching: Overcoming Limitations of Electrostatic Models
⚫️Proving the Limited Scalability of Centralized Distributed Optimization via a New Lower Bound Construction
⚫️LoRA meets Riemannion: Muon Optimizer for Parametrization-independent Low-Rank Adapters
⚫️Speech-to-LaTeX: New Models and Datasets for Converting Spoken Equations and Sentences
⚫️Asynchronous Policy Gradient Aggregation for Efficient Distributed Reinforcement Learning
⚫️Deep Learning for Subspace Regression
⚫️Universal Inverse Distillation for Matching Models with Real-Data Supervision (No GANs)
⚫️Entering the Era of Discrete Diffusion Models: A Benchmark for Schrödinger Bridges and Entropic Optimal Transport
⚫️GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver
⚫️Q-RAG: Long Context Multi-step Retrieval via Value-based Embedder Training
⚫️MMReD: a Cross-Modal Benchmark for Dense Context Reasoning
⚫️Logit‑KL Flow Matching: Non‑Autoregressive Text Generation via Sampling‑Hybrid Inference
⚫️VINTIX II: Decision Pre-Trained Transformer is a Scalable in-Context Reinforcement Learner
⚫️Modeling the Density of Pixel-level Self-supervised Embeddings for Unsupervised Pathology Segmentation in Medical CT
⚫️ELMUR: External Layer Memory with Update/Rewrite for Long-Horizon RL Problems
⚫️Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
⚫️Recurrent Action Transformer with Memory
⚫️Learning of Population Dynamics: Inverse Optimization Meets JKO Scheme
⚫️GeomMotif: A Benchmark for Arbitrary Geometric Preservation in Protein Generation
⚫️Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics
⚫️cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning
⚫️HOTA: Hamiltonian framework for Optimal Transport Advection
⚫️Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting

Делимся фотографиями с первых дней конференции 📷

P. S. Про воркшопы расскажем отдельно.

#AIRIнаКонфе

Читать полностью…

(sci)Berloga Science

📆 Что обсуждалось вчера 24.04.2026
Всего было написано 6 сообщений

🧠 Обсуждение новой модели DeepSeek V4 (5 сообщений)
🔒 Обсуждение работы VPN и его преимуществ (1 сообщений)

Интересные ссылки:
Ссылка на хакатон с плагином по данной теме

⚡️ Включи свой личный дайджест
🔥 Наш канал

#dailysummary

Читать полностью…

(sci)Berloga Science

🐳 Встречаем DeepSeek V4

Глянула техрепорт нового DeepSeek V4 и могу сказать, что я впечатлена.

TL;DR
DeepSeek V4 — MoE-модель с 1,6T параметров, обученная на 32T+ токенов, с контекстом 1M токенов.

Две главные инновации:
- CSA+HCA (гибридное сжатое внимание — KV-кэш в 10 раз меньше, FLOPs в 3,7 раза меньше)
- mHC (остаточные связи, ограниченные политопом Биркгофа — усиление сигнала снижено с 3000x до 1.6x).

Сильна в коде и reasoning, уступает закрытым моделям в knowledge-задачах. MIT License, полностью открытый доступ.

Чуть подробнее:
1. Модели и масштаб
Семейство V4 включает две модели:
DeepSeek-V4-Pro — 1,6 трлн параметров, 49 млрд активируется (MoE-архитектура)
DeepSeek-V4-Flash — 284 млрд параметров, 13 млрд активируется

Контекстное окно: 1 миллион токенов у обеих моделей.


2. Ключевые архитектурные инновации
✔️CSA + HCA (гибридное внимание) — сочетание Compressed Sparse Attention и Heavily Compressed Attention.
✔️mHC (Manifold-Constrained Hyper-Connections) — более умная маршрутизация знаний внутри модели. V4 — первая модель, использующая эту технику, что дало значительный выигрыш в эффективности.
✔️Muon optimizer + FP4/FP8 — новая стратегия обучения со смешанной точностью, снижающая стоимость тренировки и инференса.

3. Производительность
DeepSeek заявляет, что версия V4 Pro Max превосходит GPT-5.2 и Gemini 3.0-Pro по стандартным бенчмаркам рассуждений, лишь незначительно уступая GPT-5.4 и Gemini 3.1-Pro.

4. Стоимость
V4-Flash: от $0.028/1M токенов (cache hit) до $0.28/1M (output)
V4-Pro: от $0.145/1M до $3.48/1M (output) Mervin Praison

Для практики: сложный агентный цикл, стоивший раньше ~$10, теперь может обойтись в $1.50–2.50, особенно учитывая, что OpenAI и Anthropic существенно повышают цены при выходе за пределы определённого контекстного окна.

5. Аппаратный прорыв
V4 тренировался на смеси чипов Nvidia и китайских Huawei Ascend NPU, причём инференс сильно оптимизирован под Huawei. Это первый случай, когда frontier-модель не только работает на non-US железе, но предпочитает его. Techzine

6. Открытый доступ
Модель вышла в открытом доступе (open-source) в форматах Pro и Flash с улучшениями в области знаний, рассуждений и агентных способностей — выполнения сложных автономных задач. U.S. News & World Report

7. Контекст и сравнение
Релиз задержался из-за перехода фреймворка обучения V4 с Nvidia на Huawei Ascend и внутренних разногласий по стратегии. Примечательно: вопреки ожиданиям, V4 остаётся языковой моделью без мультимодальной генерации — это решение отложено из-за ограничений по вычислительным ресурсам.

@mashkka_ds

#llm #deepseekv4 #deepseek #ai #ainews

Читать полностью…

(sci)Berloga Science

Devpost по этой теме написал плагин и выложил в виде хакатона (учебного). https://learn-ai.devpost.com/ Мое впечатление - очень полезный практический тренажер для SDD.

Читать полностью…

(sci)Berloga Science

Военкомат. Медкомиссия. Молодой ученый, несмотря на огромные очки, подслеповато шурящийся, недоуменно спрашивает у офтальмолога:
— А почему у вас в прибор для проверки зрения в заводской упаковке?
— Идеальное зрение! Еще и внимательны. Так и запишем, годен в пехотные снайперы и подразделения специального назначения

Читать полностью…

(sci)Berloga Science

Вредные Лабораторные Советы

Часть 5 #от_подписчика

Если вам сказал профессор
Написать статью по теме
То найдите аспиранта
Он-то точно не сбежит
Пусть он пишет днём и ночью
Вы ему кивайте только
А когда он все напишет
С одолжением принять

Эффектив Эксплуататович

Читать полностью…

(sci)Berloga Science

📆 Что обсуждалось вчера 22.04.2026
Всего было написано 14 сообщений

🤖 Разработка генеративных рекомендательных систем (5 сообщений)
📚 Подборка статей по генеративным рекомендациям (3 сообщений)
🍼 Обсуждение сложности совмещения науки и материнства (1 сообщений)
🏆 Новая премия Сбера для ученых в области ИИ (1 сообщений)
💡 Итоги митапа AI для CPO (1 сообщений)
🛠️ Спецификации в разработке с использованием AI (1 сообщений)

⚡️ Включи свой личный дайджест
🔥 Наш канал

#dailysummary

Читать полностью…

(sci)Berloga Science

https://www.youtube.com/watch?v=ycjmtkwQf8E

Сегодня был доклад про Spec-Driven Development — это когда спека начинает управлять разработкой.

Я провёл исследование довольно большое и здесь выводы

Хочу поделиться с сообществом

Кому зайдёт: тем, кто уже пробует AI в разработке и не понимает, почему он иногда творит дичь.
Что обсуждали: главная проблема — спеки живут отдельно от кода, устаревают мгновенно и ломают весь AI-флоу.
Инсайт: когда спека становится source of truth и частью пайплайна, AI начинает работать как инструмент — быстрее релизы, меньше людей.

Вывод: архитектура — точка контроля.

Читать полностью…

(sci)Berloga Science

Исследователи AIRI разработали первую в России генеративную модель для предсказания климатических рисков

Названная в честь советского математика Гурия Марчука модель Marchuk позволяет строить субсезонные прогнозы (15-30 дней), имеет всего 276 миллионов параметров, она выполняет расчёты за 7,5 минуты на 1 графической карте. При этом для построения прогноза Marchuk достаточно одного дня контекста, и всего за один прогон она генерирует данные на срок до восьми дней вперёд, создавая от 4 до 48 итоговых погодных карт.

Одновременно с моделью Marchuk учёные Института AIRI создали ИИ-метеоролога — систему преобразования погодных прогнозов в текстовые отчёты. Она анализирует метеоданные на трёх временных масштабах: почасовом, шестичасовом и суточном — и формирует единое объяснение погодных явлений с автоматической проверкой.

Научная статья | GitHub | Известия

Читать полностью…

(sci)Berloga Science

https://www.desmos.com/calculator/6tabzxr4gq

Читать полностью…

(sci)Berloga Science

абсолютно. вообще можно чего можно сделать: например фильтровать обучающий дата-сет чтобы моделька лучше училась предсказывать. в это если закопаться - это уже почти фулл-тайм-джоб. улучшать можно и нужно!

Читать полностью…

(sci)Berloga Science

И смотри вот эти четыре запуска -- такие же параметры как у тебя-- у всех ОДИНАКОВЫ

Засчет того что рендом волки случайны , модели несколько разные и одни решают одно лучше , другие другое

Есть разброс

Можно взять эти решения и длямкаждого семпла выбрать самое лучше решение

Обычно это ещё немного удучшает

Читать полностью…

(sci)Berloga Science

📆 Что обсуждалось вчера 26.04.2026
Всего было написано 1 сообщений

💡 Быстрая помощь с ответами на вопросы (1 сообщений)

⚡️ Включи свой личный дайджест
🔥 Наш канал

#dailysummary

Читать полностью…

(sci)Berloga Science

Почему же ваш ответ занял целую неделю?

Читать полностью…

(sci)Berloga Science

📆 Что обсуждалось вчера 25.04.2026
Всего было написано 12 сообщений

🤖 Создание первого ИИ для генерации научных статей в России (1 сообщений)
📊 Участие AIRI в конференции ICLR 2026 (1 сообщений)

⚡️ Включи свой личный дайджест
🔥 Наш канал

#dailysummary

Читать полностью…

(sci)Berloga Science

#обозревая_происходящее

Ученые создали первый в России ИИ по генерации статей высокого уровня

Российские ученые создали первую в стране систему ИИ по проведению исследований и генерации статей, работа которой была принята на флагманскую международную IT-конференцию (класса А*). Об этом сообщил РБК доктор физико-математических наук, профессор РАН, генеральный директор Института AIRI, декан факультета искусственного интеллекта МГУ Иван Оселедец.

Как рассказал Оселедец, ученые Института AIRI, Университета Иннополис и ИТМО создали систему ИИ-агентов, которой нужно поставить задачу, и она сама полностью проведет исследование: проанализирует литературу, проведет эксперименты на облачных серверах и сформирует публикацию в требуемом формате.

«Благодаря системе была создана полноценная научная публикация по тематике интернета вещей (область компьютерных наук). Работа на 90% выполнена и оформлена в текст публикации ИИ-системой, в оставшиеся 10% включена проверка и валидация данных учеными-людьми», — говорится в сообщении.


Надеемся, AIRI назовет систему "Korchevatel 2.0" - в память о былом

Читать полностью…

(sci)Berloga Science

И как удачно вдогонку к сегодняшней новости у меня как раз занятие в Отус про методы за DeepSeek. Не могла не включить самый свежий материал в программу. Ради этого собрала основные вещи из техрепорта и других источников в короткий лонг-рид (каламбур - палюсь, что пишу тексты сама, а не нейросетью). Делюсь с вами - для тех, кто нИ Асилил техрепорт.

@mashkka_ds

#deepseek #llm #ai #ainews

Читать полностью…

(sci)Berloga Science

📆 Что обсуждалось вчера 23.04.2026
Всего было написано 11 сообщений

🎓 Обсуждение семинара Sber AI Lab и EACL 2026 (1 сообщений)
😂 Вредные советы по написанию научных статей (1 сообщений)
📊 Обсуждение проекта на Kaggle (1 сообщений)

Интересные ссылки:
Ссылка на страницу проекта на Kaggle

⚡️ Включи свой личный дайджест
🔥 Наш канал

#dailysummary

Читать полностью…

(sci)Berloga Science

Напоминалка
Кто хочет поучаствовать в нашем проекте пишите мне @alexander_v_c

И/или отмечайтесь в голосовалке

О проекте
/channel/sberlogabig/643

Читать полностью…

(sci)Berloga Science

https://www.kaggle.com/code/alexandervc/cayleypy-models/

покидайте плиз апвоуты
может ноутбук попадет в фитчеред на каггле
и это привлечет внимание к нашей сореве

Читать полностью…

(sci)Berloga Science

⚡️Sber AI Lab приглашает вас на открытый научный семинар:

📆 сегодня, 23 апреля в 17:00.

📆На семинаре выступит: Беликова Юлия, Руководитель по исследованию данных, Sber AI Lab

➡️Тема доклада: «Обзор конференции EACL 2026»

В программе семинара:
➡️Обзор EACL 2026 (CORE A)

Конференция впервые прошла в Африке — в Рабате (Марокко), 24–29 марта.

🟣Анализ отмеченных наградами работ и основных тематических направлений:
🟣Надёжность RAG-систем (детекция искажений, оценка качества сжатия);
🟣Архитектуры мультиагентных систем;
🟣Эффективная адаптация и корректная оценка LLM.

➡️Разбор статьи, принятой на EACL 2026:
«Detecting Overflow in Compressed Token Representations for Retrieval-Augmented Generation»
(совместная работа Sber AI Lab со Сколтехом и AIRI).


📱Семинар пройдёт онлайн в SberJazz по ссылке

#анонс
@sb_ai_lab

Читать полностью…

(sci)Berloga Science

Видос про робота для сборки мегаминкса https://www.youtube.com/watch?v=GCOJ7NgCl0I

Читать полностью…

(sci)Berloga Science

Вредные Лабораторные Советы
Часть 1.

Если опыт не выходит —
Не печалься, не грусти:
Подпиши пробирки ловко
Так, как хочешь, подпиши.

Пусть контроль вдруг станет тестом,
А нокаут — «дикарём»,
Главное — в отчёте честно:
«Мы эффект такой и ждём».

Если кто-то усомнится —
Улыбнись и не робей:
"Коль ты мне не веришь,
то иди говна попей"

Кабан Кабаныч

Читать полностью…
Subscribe to a channel