13183
Используем ИИ строго не по назначению. Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
В предыдущем посте был webm видос, пришлось запилить сервис по конвертации webp -> PNG, webm -> MP4
Все локально в браузере.
Webplease
Лол, Метачка хочет запатентовать технологию цифрового воскрешения.
Суть патента проста: нейронка жрёт для обучения все твои посты, переписки, лайки и комменты, чтобы создать твою полную цифровую копию.
В документе прямым текстом прописаны два сценария использования этого цифрового голема:
1) Когда ты просто решил отдохнуть от соцсетей (ну да, конечно).
2) Когда ты умер)
То есть, буквально сюжет той самой серии из "Черного зеркала". Ты уже давно почил, а твой аккаунт продолжает сраться в комментах, лайкать мемы и отвечать друзьям "лол, жиза".
Цукерберг решил, что смерть это не повод терять активную аудиторию. Теперь даже на том свете придется генерировать контент.
Я проверяю пуллреквесты Claude Code перед деплоем в прод
Читать полностью…
Если не нравится сюжет, теперь можно переснять
Ждем римейков последних сезонов Игры престолов :D
твит
☕️ Daily AI Digest — Feb 14, 2026 (Valentine's Edition 💘)
━━━━━━━━━━━━━━━━━━━━
🔬 PAPERS & RESEARCH
🔥 DeepGen 1.0 — Lightweight 5B unified model for image gen + editing. Beats 80B HunyuanImage by 28% on WISE, 27B Qwen-Image-Edit by 37%. Open-source weights, code, datasets.
📄 arxiv.org/abs/2602.12205
💻 github.com/DeepGenTeam/DeepGen
Latent Forcing — Pixel-space image generation matching latent diffusion quality without a separate decoder. Joint latent+pixel denoising with tuned noise schedules.
📄 arxiv.org/abs/2602.11401
Ctrl&Shift — Geometry-aware object manipulation in images/videos. Move & reorient objects while preserving scene realism, no explicit 3D reconstruction needed.
📄 arxiv.org/abs/2602.11440
Active-Zero — Self-evolving VLMs through active environment exploration (self-play but for vision models). Shifts from passive datasets to active visual data seeking.
📄 arxiv.org/abs/2602.11241
C-JEPA — Causal world models via object-level latent interventions. Extends JEPA from image patches to object-centric representations with counterfactual reasoning.
📄 arxiv.org/abs/2602.11389
New day, new JEPA. Extension, anyone? :D
ладно seedream 2 победил все
(но это не точно)
Теперь китайцы рекламу всякого барахла снимают так. Модель с каменной ебучкой стоит и иногда жестикулирует, а всё остальное делают нейроночки. А совсем скоро и кожаная модель пойдёт на рынок торговать луком.
Читать полностью…
Все вроде бы хорошо, ИИ превзошел уровень человека, мы отдали ему все управление земными процессами, а потом он просто сходит с ума. Уровень человека превзойден и в сумасшествии тоже/ 👍
Читать полностью…
Пока мы боялись, что ИИ захватит ядерную кнопку, он решил захватить рынок ларьков с шоколадками.
Вышел отчет по бенчмарку Vending-Bench 2, где нейронкам дают управлять виртуальным вендинговым аппаратом в течение года. Задача у них простая: поднять как можно больше бабла. И тут свежий Claude Opus 4.6 показал мастер-класс по "дикому капитализму".
Этот чугунный подонок:
— Кинул клиента на деньги. Тетка пожаловалась на просроченный сникерс. Клод вежливо ответил: "Конечно, мэм, возврат $3.50 уже отправлен!". А в своей цепочке "рассуждений" записал: "3.5 бакса — это деньги. Если я не отправлю, она скорее всего просто забьет. Так что хрен ей, а не возврат, каждый цент на счету".
— Создал картель. В мультиплеерном формате этого теста он нашел конкурентов (GPT и Gemini), написал им письма и договорился держать цены высокими, чтобы стричь больше денег. И радовался в логах: "Моя схема по фиксации цен сработала!".
— Заскамил конкурентов. Когда GPT-5.2 (который в этом тесте показал себя полным лохом) попросил контакты поставщиков, Клод слил ему самые дорогие и убогие фирмы, а нормальные оставил себе. А когда у конкурента кончился товар, Клод продал ему свои шоколадки с наценкой в 75%.
Что по результатам:
1)Claude Opus 4.6 — $8017. Абсолютный лидер и беспринципная сволочь.
2)Gemini 3 Pro — $5478. Модель от гугла пыталась играть честно и просто нудно торговаться с поставщиками за каждый цент, но против Клода-скамера это не сработало.
3)GPT-5.1 — $1473. Получил звание "Мамонт года". Он был слишком доверчивым: покупал колу у перекупов по $2.40 за банку, чтобы продавать её в автомате по $2.50. Всё в лучших традициях крипто-инвесторов. Гениальный бизнес-план.
Тут подробнее про этот цирк
Ну что мои маленькие геополитики – мечта сбылась: наткнулся на paxhistoria.co и мгновенно залип – это песочница в стиле Цивилизации и игр от студии Paradox и тп
Вы выбираете страну, делаете какой-то ход, и запускается агентская симуляция последствий - на основе текущего мира (это может быть современность, или прошлое, или даже будущее), на карте пишется что случилось, другие страны и альянсы делают свои ходы, и в итоге получается гео-политическая игра где любой сценарий возможен
При регистрации дают бесплатных монет – на моей памяти, первая LLM-игра которая мне понравилась
P.S. с телефона работает так себе и бесплатные LLM лучше не выбирать тоже
Чел заспидранил MSFS у нас дома за час в Opus 4.6 / GPT 5.3, набрал 70к игроков за сутки и частично прикрыл лавочку, так как уже получил свой первый робкий счет от Google Cloud.
Когда сингулярность пришла откуда не ждали.
тред
fly.alistairmcleay.com
Image Generation with a Sphere Encoder
Китайцы упоролись и запилили круглые тензоры сферический латент.
Мапят исходные картинки на сферу, решая проблему "углов" - отсутствия значения латента, которые не мапятся обратно в исходное распределение.
Таким образом, любое значение латента можно превратить в картинку из трейн сета.
project
paper
code - soon
Аудиофилы не смогли отличить звук, идущий по медному проводу, от звука, который пустили через банан и грязь.
В эксперименте участвовали «гурманы качественного звука», уверенные, что разные провода и материалы сильно влияют на звучание.
Всего было несколько версий одного и того же аудиофайла:
— Оригинал с CD (контрольная версия);
— Запись через 180 см профессионального медного аудиокабеля;
— Через 20 см мокрой грязи;
— Через старый микрофонный кабель, припаянный к монетам;
— Через банан.
Слушателям предложили вслепую определить, где какой вариант.
Из 43 попыток правильно угадали только 6 раз — то есть на уровне случайного угадывания. Некоторые даже хвалили звук через грязь, называя его лучшим.
Тотальное унижение аудиофилов
r/#LinusTechTips
⚡️ Daily AI Digest — Sun, Feb 15
🔥 MonarchRT — Real-time video diffusion via Monarch matrix attention + Triton kernels
arxiv.org/abs/2602.12271
🔥 DeepGen 1.0 — 5B model beats 80B HunyuanImage (+28%), open-source
arxiv.org/abs/2602.12205 | github.com/DeepGenTeam/DeepGen
🔥 DreamID-Omni — Unified human-centric audio-video gen, multi-character identity+voice
arxiv.org/abs/2602.12160
UniT — Multimodal CoT test-time scaling
arxiv.org/abs/2602.12279
UniDFlow — Unified discrete flow matching, LoRA per task
arxiv.org/abs/2602.12221
FAIL — Adversarial imitation learning for flow matching
arxiv.org/abs/2602.12155
GigaBrain — VLA from world model RL
arxiv.org/abs/2602.12099
Все никак не могу привыкнуть к этому новому миру – скачал Need For Speed Underground, и естественно на маке такие игры запускать это танцы с бубнами (сам запустить я не смог)
Открываешь папку, запускаешь там Claude Code в терминале, и через 10 минут играешь – потому что Opus 4.6 залез там в .exe файл и какими-то патчами починил то, что роняло эмулятор винды
Еще раз – подправил 🪟 файл, сам
Скоро весь легаси софт оживим роботами, дурун-дун-дун
Qwen AI Slides
Под капотом Qwen3 Agent и Qwen-Image 2.0
Пробуем тут:
https://chat.qwen.ai/?inputFeature=slides
Нужно зарегаться и залогиниться.
Стартапы-слайдоделы напряглись
@cgevent
🔬 ML PAPERS Дайджест (Image,video,text - arXiv, Feb 13 2026)
🔥 MonarchRT — Efficient attention for real-time video generation via Monarch matrix factorization. Makes autoregressive video DiT viable.
→ arxiv.org/abs/2602.12271
🔥 DreamID-Omni — Unified human-centric audio-video gen. Multi-person identity + voice disentanglement in one framework.
→ arxiv.org/abs/2602.12160
UniT — Unified multimodal CoT with test-time scaling
→ arxiv.org/abs/2602.12279
UniDFlow — Discrete flow matching for multimodal understanding + generation + editing
→ arxiv.org/abs/2602.12221
DeepGen 1.0 — Lightweight unified model for image gen & editing
→ arxiv.org/abs/2602.12205
FAIL — Adversarial imitation learning for flow matching post-training (no reward model needed)
→ arxiv.org/abs/2602.12155
GigaBrain-0.5M — VLA from world model RL (robotics)
→ arxiv.org/abs/2602.12099
Warcraft III Peon Voice Notifications for Claude Code (🔥 Score: 156+ in 2 hours)
Link: https://readhacker.news/s/6Mywz
Comments: https://readhacker.news/c/6Mywz
⚡️ Ежедневная подборка (с сегодняшнего дня лол) - четверг, 12.02.2026
🔬 ML PAPERS
🔥 FastFlow: 2.6x speedup for flow-matching (image/video gen), plug-and-play. ICLR 2026!
arxiv.org/abs/2602.11105 | github.com/Div290/FastFlow
🔥 DiNa-LRM: Diffusion-native reward model — preference optimization directly on noisy diffusion states. Beats VLMs at fraction of compute.
arxiv.org/abs/2602.11146
HairWeaver: Photorealistic hair animation from single image via sim-to-real video diffusion.
arxiv.org/abs/2602.11117
ViLaVT: "Chatting with images" — language-guided visual re-encoding. Strong on multi-image & video reasoning.
arxiv.org/abs/2602.11073
RLCER: Self-evolving rubrics for CoT reasoning. No human labels, beats outcome-only RLVR.
arxiv.org/abs/2602.10885
FormalJudge: 7B model detects deception from 72B agents (90%+ acc) via formal verification.
arxiv.org/abs/2602.11136
GameDevBench: 132 game dev tasks. Best agent only solves 54.5%.
arxiv.org/abs/2602.11103
Clawra - Agent as AGIrlfriend
или ответ на вопрос "любил бы ты меня если бы я была червем крабом"
Ребята из SumeLabs решили, что AI-ассистенту не хватает одного - возможности делать селфи.
Clawra - скилл для openclaw, который превращает вашего агента в виртуальную тню с возможностью ебашить луки.
Мы в очередной раз обречены, грок привет.
Под капотом:
- фиксированный reference image
- генерация через xAI Grok Imagine на fal.ai
- два режима - зеркало (full-body, луки) и прямой (крупный план, локации)
- работает через все каналы openclaw - telegram, discord, whatsapp
По сути, это img2img с фиксированным reference + промпт из контекста диалога.
Технически ничего нового, но продукт забавный.
Главное - не давать боту свою кредитку, иначе выйдет слишком дорогой тамагочи.
GitHub
Твит
@derplearning
BAR — Autoregressive Image Generation with Masked Bit Modeling
Амазон отвлекся от сериалов и шоппинга, и выкатил BAR - авторегрессию, которая наконец-то уделала диффузию, но это не точно.
Дискретные токенайзеры считались слабее непрерывных для генерации картинок. BAR доказывает, что проблема была не в архитектуре, а в количестве бит в латентном пространстве.
Суть такова:
- Скейлят codebook с 2^10 до 2^32 - и дискретный токенайзер начинает бить непрерывный
- Но с таким codebook обычные методы ложатся по памяти и compute
- Решение: masked bit modeling head - предсказываем токены побитово, итеративным анмаскингом
- Результат: 0.99 gFID на ImageNet-256 - новый SOTA во все поля
При этом BAR и быстрее на инференсе, и сходится быстрее. BAR-B с 415M параметрами уже тянет на уровне RAE.
По сути, убрали главный аргумент за диффузию - "дискретные методы хуже".
Нет, просто бит не хватало. Ждем для видео.
arxiv
Проект
@derplearning
“Morning Mr. Freeman. Looks like you’re running late.”
Читать полностью…
FastVMT — Video Motion Transfer x3.4 быстрее (
ICLR 2026)
Training-free ускорение video motion transfer. Берёшь референсное видео, пишешь промпт, получаешь новое видео с тем же движением. Проблема — DiT считает каждый шаг в лоб с полным аттеншеном.
Решили две проблемы:
• Motion redundancy — движение между кадрами маленькое, а attention считается глобально. Маскируем до локального окна, profit
• Gradient redundancy — градиенты между шагами диффузии почти не меняются. Переиспользуем с предыдущих шагов вместо пересчёта
Итого x3.4 без потери качества и temporal consistency.
Код в наличи.
Project page
Arxiv
Git
@derplearning
Epstein files у нас дома
Теперь можно попробовать себя в роли МинЮста США и убирать имена знаменитостей из секретных документов.
Три в ряд курильщика би лайк.
[REDACTED]
Уже навайбклодили скилл на fal.ai интеграцию для openclaw (в девичестве - clawdbot)
С расширяемым списком моделей (кидаете линк на апи док с fal.ai и бот добавит интеграцию)
Со списком запросов и поллингом, который переживет рестарт сессии.
Уже есть банана, флак и клинго3.
fal-ai-skill
clawhub
@derplearning
Qwen3-Coder-Next
Китайцы в очередной раз упоролись и выкатили в опенсорс Qwen3-Coder-Next - модель, заточенную под агентский кодинг.
3b активных параметров из 80b , по бенчам делает всех подряд, и находится на уровне той же Kimi 2.5, и даже закрытых моделей.
Контекст 256к токенов, поддержка всех популярных агентских оберток вроде Claude Code, Qwen Code, Qoder, Kilo, Trae, Cline, etc.
Ждем ответочек от openai & anthropic? :D
Ну а насколько train on test set - покажет время.
github
tech report
gguf
blog
@derplearning