j_links | Unsorted

Telegram-канал j_links - Just links

6484

That's just link aggregator of everything I consider interesting, especially DL and topological condensed matter physics. @EvgeniyZh

Subscribe to a channel

Just links

https://fixupx.com/zhenkirito123/status/1976663920552427619

Читать полностью…

Just links

пока научпоперы гуглят, кто такие треги, чтобы потом с умным видом пересказать это на камеру, вы уже можете прочитать пост про IDO1 — фермент, которым треги пользуются для супрессии других Т-клеток.
Про FoxP3 и в целом трег-иммунологию, может, когда-то тоже напишу, но там столько всего сказать можно, что даже не понятно, с чего начинать.

Читать полностью…

Just links

What GPT-OSS leaks about OpenAI's training data (Score: 151+ in 6 hours)

Link: https://readhacker.news/s/6CZNW
Comments: https://readhacker.news/c/6CZNW

Читать полностью…

Just links

https://arxiv.org/abs/2509.26574

Читать полностью…

Just links

Training Agents Inside of Scalable World Models https://arxiv.org/abs/2509.24527

via @seeallochnaya

Читать полностью…

Just links

https://fixupx.com/Haoyu_Xiong_/status/1972480880192217260

Читать полностью…

Just links

Multicriticality between Purely Gapless SPT Phases with Unitary Symmetry https://arxiv.org/abs/2509.20431

Читать полностью…

Just links

Phases of 2d Gauge Theories and Symmetric Mass Generation https://arxiv.org/abs/2509.12305

Читать полностью…

Just links

На архиве доказали, что число развязывания неаддитивно: https://arxiv.org/pdf/2506.24088

Гипотезе про аддитивность было лет сто, она дико логична (все нормальные инварианты хорошо себя ведут относительно суммы узлов), но опять взяли и просто на компьютере нашли контрпример (без всякого машинного обучения или прочего подобного)

Короче читайте скоро на кванте

(Мой личный интерес здесь ещё и в том, что я долго пытался найти пример семьи узлов постоянного рода и произвольного числа развязывания (открытая проблема до сих пор), прежде чем узнал, что это невозможно сделать при помощи любого инварианта, произведённого от матрицы Зейферта, ведь любую такую матрицу размера 2g x 2g можно реализовать как матрицу узла с развязыванием <2g + 1: https://arxiv.org/pdf/1611.02679)

Читать полностью…

Just links

Partition function of the Kitaev quantum double model https://arxiv.org/abs/2509.10876

Читать полностью…

Just links

https://fixupx.com/DecartAI/status/1968769793567207528

Читать полностью…

Just links

Discovery of Unstable Singularities https://arxiv.org/abs/2509.14185

Читать полностью…

Just links

https://fixupx.com/OpenAI/status/1968368133024231902

Читать полностью…

Just links

Nvidia Rubin CPX — чипы для ИИ всё более специализируются

Инференс современных LLM состоит из двух стадий: prefill и decoding, которые крайне отличаются по своим требованиям. Префил требует вычислительную мощность чтобы сгенерировать KV кэш, а для декодинга нужна пропускная способности памяти, чтобы грузить KV кэш и веса на чип.

Из-за такой разницы, на нодах которые занимаются префилом, простаивает самая дорогая часть современных датацентровых GPU — HBM память, которая сейчас составляет 50%+ всей стоимости GPU. К тому же она всё ещё в дефиците и является чуть ли не основным ограничителем производства видеокарточек.

Решение от Nvidia — сделать специальные, более дешёвые, карточки для префила. В качестве памяти — 128 гигабайт GDDR7 (против 288GB HBM4 у VR200), пропускной способность в 2 терабайта в секунду вполне достаточна для префила. Кроме этого экономят на других штуках вокруг чипа — вместо дефицитного CoWoS-L используют более бюджетный FC-BGA, а связываются карточки друг с другом по PCIe вместо NVLink.

Большой плюс — упаковать в одну стойку можно 144 таких видеокарты, против всего 72 GPU в NVL144. При этом такая стойка с Rubin CPX будет не просто иметь больше компьюта, но и кушать меньше энергии.

Так как префил в больших деплойментах и так делают на отдельных нодах, на высоком уровне мало что изменится — просто машины для префила переедут на специальное железо. Главный минус — такие GPU перекидывать между тренировкой и инференсом вряд-ли выйдет, но это явно будет компенсировано разницей в цене и доступности.

@ai_newz

Читать полностью…

Just links

Doping a Fractional Quantum Anomalous Hall Insulator https://journals.aps.org/prx/abstract/10.1103/kcm5-hx56

Читать полностью…

Just links

Fractional quantum Hall state at ν= 1/2 with energy gap up to 6 K, and possible transition from one- to two-component state https://arxiv.org/abs/2510.03983

Читать полностью…

Just links

Utility-Scale Quantum State Preparation: Classical Training using Pauli Path Simulation https://arxiv.org/abs/2510.02428

Читать полностью…

Just links

Hilbert: Recursively Building Formal Proofs with Informal Reasoning https://arxiv.org/abs/2509.22819

Читать полностью…

Just links

Lean4Lean: Verifying a Typechecker for Lean, in Lean https://arxiv.org/abs/2403.14064

Читать полностью…

Just links

Can the ν=1/3 Laughlin liquid freeze?

Instability of Laughlin FQH liquids into gapless power-law correlated states with continuous exponents in ideal Chern bands: rigorous results from plasma mapping
Authors: Saranyo Moitra and Inti Sodemann Villadiego
arXiv:2509.18265, DOI: 10.48550/arXiv.2509.18265

Recommended with a commentary by Trithep Devakul , Stanford University
|View Commentary (pdf)|

This commentary may be cited as:
DOI: 10.36471/JCCM_September_2025_01
https://doi.org/10.36471/JCCM_September_2025_01

The post Can the ν=1/3 Laughlin liquid freeze? appeared first on Journal Club for Condensed Matter Physics.

via Journal Club for Condensed Matter Physics (author: JCCMP)

Читать полностью…

Just links

Code Driven Planning with Domain-Adaptive Critic https://arxiv.org/abs/2509.19077

Читать полностью…

Just links

UniPixel: Unified Object Referring and Segmentation for Pixel-Level Visual Reasoning https://arxiv.org/abs/2509.18094

Читать полностью…

Just links

🫓 WINNER of LSVOS Challenge 🫓

👉SaSaSa2VA introduces Segmentation Augmentation to improve global video understanding while remaining efficient, and employs Selective Averaging at inference to robustly fuse complementary predictions. This approach achieves SOTA on the 7th LSVOS Challenge (RVOS track). A practical solution with full repo under Apache💙

👉Review https://t.ly/aH4mB
👉Paper https://arxiv.org/pdf/2509.16972
👉Repo https://github.com/magic-research/Sa2VA

Читать полностью…

Just links

Pre-training under infinite compute https://arxiv.org/abs/2509.14786

Читать полностью…

Just links

ALE-Bench https://sakanaai.github.io/ALE-Bench-Leaderboard/

Читать полностью…

Just links

Gradient-based search of quantum phases: discovering unconventional fractional Chern insulators https://arxiv.org/abs/2509.10438

Читать полностью…

Just links

Neural Transformer Backflow for Solving Momentum-Resolved Ground States of Strongly Correlated Materials https://arxiv.org/abs/2509.09275

Читать полностью…

Just links

https://deepmind.google/discover/blog/gemini-achieves-gold-level-performance-at-the-international-collegiate-programming-contest-world-finals/
via @epsiloncorrect

Читать полностью…

Just links

Physics Supernova: AI Agent Matches Elite Gold Medalists at IPhO 2025 https://arxiv.org/abs/2509.01659

Читать полностью…

Just links

Math, Inc. introduces “Gauss,” an autoformalization agent that (they say) completed the Strong Prime Number Theorem (PNT) formalization in Lean in ~3 weeks, a challenge initiated by Terence Tao & Alex Kontorovich in Jan 2024. Their post also notes Tao/Kontorovich announced intermediate (“medium PNT”) progress in July 2025, but were stuck on complex-analysis hurdles that Gauss then cleared.

The artifact is public: a GitHub repo with ~25k lines of Lean and ~1.1k theorems/defs, plus a LaTeX blueprint and rendered docs. The README says “most statements and proofs were produced by Gauss” with targeted human scaffolding; parts re-use/adapt code from the earlier PrimeNumberTheoremAnd project.

Funding/Partner: DARPA’s expMath program

🔗 Blog: https://math.inc/gauss
🔗 GitHub: https://github.com/math-inc/strongpnt
🔗 Early access: https://math.inc/early-access

Читать полностью…
Subscribe to a channel