6484
That's just link aggregator of everything I consider interesting, especially DL and topological condensed matter physics. @EvgeniyZh
https://fixupx.com/zhenkirito123/status/1976663920552427619
Читать полностью…
пока научпоперы гуглят, кто такие треги, чтобы потом с умным видом пересказать это на камеру, вы уже можете прочитать пост про IDO1 — фермент, которым треги пользуются для супрессии других Т-клеток.
Про FoxP3 и в целом трег-иммунологию, может, когда-то тоже напишу, но там столько всего сказать можно, что даже не понятно, с чего начинать.
What GPT-OSS leaks about OpenAI's training data (Score: 151+ in 6 hours)
Link: https://readhacker.news/s/6CZNW
Comments: https://readhacker.news/c/6CZNW
Training Agents Inside of Scalable World Models https://arxiv.org/abs/2509.24527
via @seeallochnaya
https://fixupx.com/Haoyu_Xiong_/status/1972480880192217260
Читать полностью…
Multicriticality between Purely Gapless SPT Phases with Unitary Symmetry https://arxiv.org/abs/2509.20431
Читать полностью…
Phases of 2d Gauge Theories and Symmetric Mass Generation https://arxiv.org/abs/2509.12305
Читать полностью…
На архиве доказали, что число развязывания неаддитивно: https://arxiv.org/pdf/2506.24088
Гипотезе про аддитивность было лет сто, она дико логична (все нормальные инварианты хорошо себя ведут относительно суммы узлов), но опять взяли и просто на компьютере нашли контрпример (без всякого машинного обучения или прочего подобного)
Короче читайте скоро на кванте
(Мой личный интерес здесь ещё и в том, что я долго пытался найти пример семьи узлов постоянного рода и произвольного числа развязывания (открытая проблема до сих пор), прежде чем узнал, что это невозможно сделать при помощи любого инварианта, произведённого от матрицы Зейферта, ведь любую такую матрицу размера 2g x 2g можно реализовать как матрицу узла с развязыванием <2g + 1: https://arxiv.org/pdf/1611.02679)
Partition function of the Kitaev quantum double model https://arxiv.org/abs/2509.10876
Читать полностью…
https://fixupx.com/DecartAI/status/1968769793567207528
Читать полностью…
Discovery of Unstable Singularities https://arxiv.org/abs/2509.14185
Читать полностью…
https://fixupx.com/OpenAI/status/1968368133024231902
Читать полностью…
Nvidia Rubin CPX — чипы для ИИ всё более специализируются
Инференс современных LLM состоит из двух стадий: prefill и decoding, которые крайне отличаются по своим требованиям. Префил требует вычислительную мощность чтобы сгенерировать KV кэш, а для декодинга нужна пропускная способности памяти, чтобы грузить KV кэш и веса на чип.
Из-за такой разницы, на нодах которые занимаются префилом, простаивает самая дорогая часть современных датацентровых GPU — HBM память, которая сейчас составляет 50%+ всей стоимости GPU. К тому же она всё ещё в дефиците и является чуть ли не основным ограничителем производства видеокарточек.
Решение от Nvidia — сделать специальные, более дешёвые, карточки для префила. В качестве памяти — 128 гигабайт GDDR7 (против 288GB HBM4 у VR200), пропускной способность в 2 терабайта в секунду вполне достаточна для префила. Кроме этого экономят на других штуках вокруг чипа — вместо дефицитного CoWoS-L используют более бюджетный FC-BGA, а связываются карточки друг с другом по PCIe вместо NVLink.
Большой плюс — упаковать в одну стойку можно 144 таких видеокарты, против всего 72 GPU в NVL144. При этом такая стойка с Rubin CPX будет не просто иметь больше компьюта, но и кушать меньше энергии.
Так как префил в больших деплойментах и так делают на отдельных нодах, на высоком уровне мало что изменится — просто машины для префила переедут на специальное железо. Главный минус — такие GPU перекидывать между тренировкой и инференсом вряд-ли выйдет, но это явно будет компенсировано разницей в цене и доступности.
@ai_newz
Doping a Fractional Quantum Anomalous Hall Insulator https://journals.aps.org/prx/abstract/10.1103/kcm5-hx56
Читать полностью…
Fractional quantum Hall state at ν= 1/2 with energy gap up to 6 K, and possible transition from one- to two-component state https://arxiv.org/abs/2510.03983
Читать полностью…
Utility-Scale Quantum State Preparation: Classical Training using Pauli Path Simulation https://arxiv.org/abs/2510.02428
Читать полностью…
Hilbert: Recursively Building Formal Proofs with Informal Reasoning https://arxiv.org/abs/2509.22819
Читать полностью…
Lean4Lean: Verifying a Typechecker for Lean, in Lean https://arxiv.org/abs/2403.14064
Читать полностью…
Can the ν=1/3 Laughlin liquid freeze?
Instability of Laughlin FQH liquids into gapless power-law correlated states with continuous exponents in ideal Chern bands: rigorous results from plasma mapping
Authors: Saranyo Moitra and Inti Sodemann Villadiego
arXiv:2509.18265, DOI: 10.48550/arXiv.2509.18265
Recommended with a commentary by Trithep Devakul , Stanford University
|View Commentary (pdf)|
This commentary may be cited as:
DOI: 10.36471/JCCM_September_2025_01
https://doi.org/10.36471/JCCM_September_2025_01
The post Can the ν=1/3 Laughlin liquid freeze? appeared first on Journal Club for Condensed Matter Physics.
via Journal Club for Condensed Matter Physics (author: JCCMP)
Code Driven Planning with Domain-Adaptive Critic https://arxiv.org/abs/2509.19077
Читать полностью…
UniPixel: Unified Object Referring and Segmentation for Pixel-Level Visual Reasoning https://arxiv.org/abs/2509.18094
Читать полностью…
🫓 WINNER of LSVOS Challenge 🫓
👉SaSaSa2VA introduces Segmentation Augmentation to improve global video understanding while remaining efficient, and employs Selective Averaging at inference to robustly fuse complementary predictions. This approach achieves SOTA on the 7th LSVOS Challenge (RVOS track). A practical solution with full repo under Apache💙
👉Review https://t.ly/aH4mB
👉Paper https://arxiv.org/pdf/2509.16972
👉Repo https://github.com/magic-research/Sa2VA
Pre-training under infinite compute https://arxiv.org/abs/2509.14786
Читать полностью…
ALE-Bench https://sakanaai.github.io/ALE-Bench-Leaderboard/
Читать полностью…
Gradient-based search of quantum phases: discovering unconventional fractional Chern insulators https://arxiv.org/abs/2509.10438
Читать полностью…
Neural Transformer Backflow for Solving Momentum-Resolved Ground States of Strongly Correlated Materials https://arxiv.org/abs/2509.09275
Читать полностью…
https://deepmind.google/discover/blog/gemini-achieves-gold-level-performance-at-the-international-collegiate-programming-contest-world-finals/
via @epsiloncorrect
Physics Supernova: AI Agent Matches Elite Gold Medalists at IPhO 2025 https://arxiv.org/abs/2509.01659
Читать полностью…
Math, Inc. introduces “Gauss,” an autoformalization agent that (they say) completed the Strong Prime Number Theorem (PNT) formalization in Lean in ~3 weeks, a challenge initiated by Terence Tao & Alex Kontorovich in Jan 2024. Their post also notes Tao/Kontorovich announced intermediate (“medium PNT”) progress in July 2025, but were stuck on complex-analysis hurdles that Gauss then cleared.
The artifact is public: a GitHub repo with ~25k lines of Lean and ~1.1k theorems/defs, plus a LaTeX blueprint and rendered docs. The README says “most statements and proofs were produced by Gauss” with targeted human scaffolding; parts re-use/adapt code from the earlier PrimeNumberTheoremAnd project.
Funding/Partner: DARPA’s expMath program
🔗 Blog: https://math.inc/gauss
🔗 GitHub: https://github.com/math-inc/strongpnt
🔗 Early access: https://math.inc/early-access