13183
Используем ИИ строго не по назначению. Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
"Уважаемые сотрудники Балабановского завода тяжёлого вейпостроения!
Я посчитал напасы, и их 34263 вместо 50к, вы что все там ебнулись что ли?"
Вместо компиляции теперь ждем пока откатится лимит токенов
Читать полностью…
Ну и то же самое для HF:
• Mem0 — Production-ready long-term memory for AI agents with graph-based memory
📄 https://huggingface.co/papers/2504.19413
• RAG-Anything — Unified multimodal RAG with cross-modal relationships
📄 https://huggingface.co/papers/2510.12323
• Agent READMEs — First large-scale study of 2,303 agent context files across 1,925 repos. Security & performance specs critically underrepresented
📄 https://huggingface.co/papers/2511.12884
• Moonshine ASR — Tiny specialized ASR models for edge devices, beats multilingual models at small sizes
📄 https://huggingface.co/papers/2509.02523
Claude Code - теперь сам себе девопс
Anthropic апдейтнули Claude Code и теперь он умеет буквально все кроме как выпить 6 пива до обеда (пока что).
Свежезавезенное:
- сам поднимает dev-серверы и показывает запущенное приложение прямо в интерфейсе
- находит баги и фиксит их без твоего участия
- code review прямо в diff view с комментами
- мониторит PR-ы на гитхабе в фоне, фиксит CI ошибки и мержит сам когда тесты зеленые
- сессии синхронятся между CLI, десктопом, вебом и мобилой
По сути теперь можно открыть PR, пойти пить кофе, а Claude сам разберется с комментами кожаных в ревью, починит pipeline и замержит. Ты вернешься - а там уже прод лежит все в main.
В целом, Claude code мне нравится больше в тех областях, где чтение кода мне не поможет 😁 привет реакт, но по обвязке он раньше сильно проигрывал курсору. Теперь - нет.
Мы в очередной раз обречены.
Подробнее
@derplearning
В предыдущем посте был webm видос, пришлось запилить сервис по конвертации webp -> PNG, webm -> MP4
Все локально в браузере.
Webplease
Лол, Метачка хочет запатентовать технологию цифрового воскрешения.
Суть патента проста: нейронка жрёт для обучения все твои посты, переписки, лайки и комменты, чтобы создать твою полную цифровую копию.
В документе прямым текстом прописаны два сценария использования этого цифрового голема:
1) Когда ты просто решил отдохнуть от соцсетей (ну да, конечно).
2) Когда ты умер)
То есть, буквально сюжет той самой серии из "Черного зеркала". Ты уже давно почил, а твой аккаунт продолжает сраться в комментах, лайкать мемы и отвечать друзьям "лол, жиза".
Цукерберг решил, что смерть это не повод терять активную аудиторию. Теперь даже на том свете придется генерировать контент.
Я проверяю пуллреквесты Claude Code перед деплоем в прод
Читать полностью…
Если не нравится сюжет, теперь можно переснять
Ждем римейков последних сезонов Игры престолов :D
твит
☕️ Daily AI Digest — Feb 14, 2026 (Valentine's Edition 💘)
━━━━━━━━━━━━━━━━━━━━
🔬 PAPERS & RESEARCH
🔥 DeepGen 1.0 — Lightweight 5B unified model for image gen + editing. Beats 80B HunyuanImage by 28% on WISE, 27B Qwen-Image-Edit by 37%. Open-source weights, code, datasets.
📄 arxiv.org/abs/2602.12205
💻 github.com/DeepGenTeam/DeepGen
Latent Forcing — Pixel-space image generation matching latent diffusion quality without a separate decoder. Joint latent+pixel denoising with tuned noise schedules.
📄 arxiv.org/abs/2602.11401
Ctrl&Shift — Geometry-aware object manipulation in images/videos. Move & reorient objects while preserving scene realism, no explicit 3D reconstruction needed.
📄 arxiv.org/abs/2602.11440
Active-Zero — Self-evolving VLMs through active environment exploration (self-play but for vision models). Shifts from passive datasets to active visual data seeking.
📄 arxiv.org/abs/2602.11241
C-JEPA — Causal world models via object-level latent interventions. Extends JEPA from image patches to object-centric representations with counterfactual reasoning.
📄 arxiv.org/abs/2602.11389
New day, new JEPA. Extension, anyone? :D
ладно seedream 2 победил все
(но это не точно)
Теперь китайцы рекламу всякого барахла снимают так. Модель с каменной ебучкой стоит и иногда жестикулирует, а всё остальное делают нейроночки. А совсем скоро и кожаная модель пойдёт на рынок торговать луком.
Читать полностью…
Берём опенсорсную репу для генерации исторического ии слопа на Ютуб,
Просим openclaw переписать под скилл,
Пишем промт
So here would be the description:
Female fronted rock band like night wish
Gothic Slavic pagan folk vibes, singer - blond tall girl with otherworldly look
With fluid motion, like plavalaguna from 5th element
The song would be about Slavic mermaid \ siren version luring in tired warriors and killing them
Siberian forest wildlife vibes
Generate a plan first
И получаем пятиминутный клип.
Ноль действий руками (да и головой, что уж там), пара генераций в suno, 10-20$ на fal.ai, охапка дров
- и слоп конвейер готов.
Github
Прокладка между монитором и креслом больше не нужна.
Чувак сделал агента в Claude Code, который смотрит видео-туториал на YouTube, а потом херачит пончики в Блендоре.
С учётом того, сколько обучающих видосов есть на Ютюбе, агентам теперь не нужных кожаные, они могут просто смотреть видео под задачу и фигачить код, 3Д, 2Д, UI и что там ещё кожаные медленно кропАют.
Из интересного.
Потребовался час на обучение и просмотр.
Клод (агент) написал новый MCP и запускал его в цикле, добиваясь улучшения результатов.
Почитайте подробнее тут:
https://x.com/cerspense/status/2025987259288388078
Each worker computer has Blender, Unreal, ComfyUI and Windows MCPs at the moment, all of it custom. The orchestrator is able to spawn Claude Code instances in these worker computers with access to all of these
@cgevent
⚡️ DAILY TECH DIGEST — Sun, Feb 22, 2026
🔬 ML PAPERS (Trending)
🔥 BitDance: Scaling Autoregressive Image Gen with Binary Tokens — AR model using binary diffusion head instead of codebook indices. FID 1.24 on ImageNet, 30x speedup for 1024px gen, 5.4x fewer params than SOTA
📄 https://arxiv.org/abs/2602.14041
💻 https://github.com/shallowdream204/BitDance
🔥 Qwen3-TTS — Multilingual TTS with voice cloning and controllable speech gen. Dual-track LM architecture with specialized speech tokenizers for streaming
📄 https://arxiv.org/abs/2601.15621
🎵 HeartMuLa — Open-source music foundation models. LLM-based song gen with lyrics, style control per section. Claims Suno-level quality with academic-scale resources. Scales to 7B params
📄 https://arxiv.org/abs/2601.10547
🎨 Art2Mus — Direct artwork-to-music generation via visual conditioning. 105K artwork-music pairs dataset. No image-to-text middleman
📄 https://arxiv.org/abs/2602.17599
🖼 RetouchIQ — MLLM agents for instruction-based image retouching with RL + generalist reward model
📄 https://arxiv.org/abs/2602.17558
👗 CORAL — DiT-based virtual try-on with correspondence alignment. Explicit person-garment query-key matching
📄 https://arxiv.org/abs/2602.17636
🎥 GraphThinker — RL finetuning for video reasoning with event graph scene graphs. Reduces hallucinations
📄 https://arxiv.org/abs/2602.17555
🤖 GLM-5: Vibe Coding → Agentic Engineering — Zhipu's new foundation model. DSA for cost reduction, async RL alignment, MIT license
📄 https://arxiv.org/abs/2602.15763
Это было неизбежно: рано или поздно должны были появиться специализированные решения для инференса.
И вот, Taalas (бывшая команда из Tenstorrent) выкатили то, чего я так ждал — настоящий Direct-to-Silicon.
Ребята не стали мелочиться и буквально «запекли» модель в кремний. Никакой внешней памяти, никакого HBM, никакой сложной упаковки. Веса модели и архитектура — это и есть сам чип.
Цифры выглядят дико: 17,000 токенов в секунду на Llama 3.1 8B.
Это на порядок быстрее текущей SOTA GPU, при этом чип стоит в 20 раз дешевле в производстве и потребляет в 10 раз меньше энергии.
Самое крутое, что это не просто красивые слайды для инвесторов. Железо уже существует, и его можно «потрогать» (ссылка на демо внизу).
Конечно, это ASIC, и тут есть нюанс: чип заточен под одну конкретную модель. Но Taalas продумали этот момент — они оставили поддержку LoRA-адаптеров и изменяемого контекстного окна. То есть это не совсем уж «кирпич», гибкость для файн-тюнинга остается.
Сейчас у них готов чип с Llama 8B (HC1). Весной обещают выкатить что-то среднеразмерное с ризонингом, а к зиме грозятся показать фронтир-модель на втором поколении кремния.
У меня голова идет кругом от мыслей к чему это может привести.
Ссылки:
• Анонс
• Демо (скорость реально впечатляет)
🔬 ML PAPERS (arXiv, Feb 19)
📄 Towards a Science of AI Agent Reliability — 12 metrics for agent eval beyond success rate
→ arxiv.org/abs/2602.16666
📄 Agent Skill Framework — Can SLMs benefit from agent skills (Copilot, LangChain style)? On-prem focus
→ arxiv.org/abs/2602.16653
📄 Framework of Thoughts (FoT) — Unifies CoT/ToT/GoT with dynamic reasoning + auto-tuning
→ arxiv.org/abs/2602.16512
📄 Calibrate-Then-Act — LLM agents that reason about cost vs uncertainty tradeoffs
→ arxiv.org/abs/2602.16699
📄 MMA: Multimodal Memory Agent — Reliability scoring for retrieved memories (decay, credibility, conflict)
→ arxiv.org/abs/2602.16493
📄 Self-Supervised Semantic Bridge — Diffusion bridge for unpaired img2img translation + text-guided editing
→ arxiv.org/abs/2602.16664
📄 TeCoNeRV — Neural video compression with 20× memory reduction, +5.35dB PSNR at 720p
→ arxiv.org/abs/2602.16711
📄 ReMoRa — Long-video MLLM using compressed representations (sparse keyframes + motion)
→ arxiv.org/abs/2602.16412
Image Generation with a Sphere Encoder
Китайцы упоролись и запилили круглые тензоры сферический латент.
Мапят исходные картинки на сферу, решая проблему "углов" - отсутствия значения латента, которые не мапятся обратно в исходное распределение.
Таким образом, любое значение латента можно превратить в картинку из трейн сета.
project
paper
code - soon
Аудиофилы не смогли отличить звук, идущий по медному проводу, от звука, который пустили через банан и грязь.
В эксперименте участвовали «гурманы качественного звука», уверенные, что разные провода и материалы сильно влияют на звучание.
Всего было несколько версий одного и того же аудиофайла:
— Оригинал с CD (контрольная версия);
— Запись через 180 см профессионального медного аудиокабеля;
— Через 20 см мокрой грязи;
— Через старый микрофонный кабель, припаянный к монетам;
— Через банан.
Слушателям предложили вслепую определить, где какой вариант.
Из 43 попыток правильно угадали только 6 раз — то есть на уровне случайного угадывания. Некоторые даже хвалили звук через грязь, называя его лучшим.
Тотальное унижение аудиофилов
r/#LinusTechTips
⚡️ Daily AI Digest — Sun, Feb 15
🔥 MonarchRT — Real-time video diffusion via Monarch matrix attention + Triton kernels
arxiv.org/abs/2602.12271
🔥 DeepGen 1.0 — 5B model beats 80B HunyuanImage (+28%), open-source
arxiv.org/abs/2602.12205 | github.com/DeepGenTeam/DeepGen
🔥 DreamID-Omni — Unified human-centric audio-video gen, multi-character identity+voice
arxiv.org/abs/2602.12160
UniT — Multimodal CoT test-time scaling
arxiv.org/abs/2602.12279
UniDFlow — Unified discrete flow matching, LoRA per task
arxiv.org/abs/2602.12221
FAIL — Adversarial imitation learning for flow matching
arxiv.org/abs/2602.12155
GigaBrain — VLA from world model RL
arxiv.org/abs/2602.12099
Все никак не могу привыкнуть к этому новому миру – скачал Need For Speed Underground, и естественно на маке такие игры запускать это танцы с бубнами (сам запустить я не смог)
Открываешь папку, запускаешь там Claude Code в терминале, и через 10 минут играешь – потому что Opus 4.6 залез там в .exe файл и какими-то патчами починил то, что роняло эмулятор винды
Еще раз – подправил 🪟 файл, сам
Скоро весь легаси софт оживим роботами, дурун-дун-дун
Qwen AI Slides
Под капотом Qwen3 Agent и Qwen-Image 2.0
Пробуем тут:
https://chat.qwen.ai/?inputFeature=slides
Нужно зарегаться и залогиниться.
Стартапы-слайдоделы напряглись
@cgevent
🔬 ML PAPERS Дайджест (Image,video,text - arXiv, Feb 13 2026)
🔥 MonarchRT — Efficient attention for real-time video generation via Monarch matrix factorization. Makes autoregressive video DiT viable.
→ arxiv.org/abs/2602.12271
🔥 DreamID-Omni — Unified human-centric audio-video gen. Multi-person identity + voice disentanglement in one framework.
→ arxiv.org/abs/2602.12160
UniT — Unified multimodal CoT with test-time scaling
→ arxiv.org/abs/2602.12279
UniDFlow — Discrete flow matching for multimodal understanding + generation + editing
→ arxiv.org/abs/2602.12221
DeepGen 1.0 — Lightweight unified model for image gen & editing
→ arxiv.org/abs/2602.12205
FAIL — Adversarial imitation learning for flow matching post-training (no reward model needed)
→ arxiv.org/abs/2602.12155
GigaBrain-0.5M — VLA from world model RL (robotics)
→ arxiv.org/abs/2602.12099
Warcraft III Peon Voice Notifications for Claude Code (🔥 Score: 156+ in 2 hours)
Link: https://readhacker.news/s/6Mywz
Comments: https://readhacker.news/c/6Mywz
⚡️ Ежедневная подборка (с сегодняшнего дня лол) - четверг, 12.02.2026
🔬 ML PAPERS
🔥 FastFlow: 2.6x speedup for flow-matching (image/video gen), plug-and-play. ICLR 2026!
arxiv.org/abs/2602.11105 | github.com/Div290/FastFlow
🔥 DiNa-LRM: Diffusion-native reward model — preference optimization directly on noisy diffusion states. Beats VLMs at fraction of compute.
arxiv.org/abs/2602.11146
HairWeaver: Photorealistic hair animation from single image via sim-to-real video diffusion.
arxiv.org/abs/2602.11117
ViLaVT: "Chatting with images" — language-guided visual re-encoding. Strong on multi-image & video reasoning.
arxiv.org/abs/2602.11073
RLCER: Self-evolving rubrics for CoT reasoning. No human labels, beats outcome-only RLVR.
arxiv.org/abs/2602.10885
FormalJudge: 7B model detects deception from 72B agents (90%+ acc) via formal verification.
arxiv.org/abs/2602.11136
GameDevBench: 132 game dev tasks. Best agent only solves 54.5%.
arxiv.org/abs/2602.11103
Clawra - Agent as AGIrlfriend
или ответ на вопрос "любил бы ты меня если бы я была червем крабом"
Ребята из SumeLabs решили, что AI-ассистенту не хватает одного - возможности делать селфи.
Clawra - скилл для openclaw, который превращает вашего агента в виртуальную тню с возможностью ебашить луки.
Мы в очередной раз обречены, грок привет.
Под капотом:
- фиксированный reference image
- генерация через xAI Grok Imagine на fal.ai
- два режима - зеркало (full-body, луки) и прямой (крупный план, локации)
- работает через все каналы openclaw - telegram, discord, whatsapp
По сути, это img2img с фиксированным reference + промпт из контекста диалога.
Технически ничего нового, но продукт забавный.
Главное - не давать боту свою кредитку, иначе выйдет слишком дорогой тамагочи.
GitHub
Твит
@derplearning