3067
@Futuris - канал о технологиях, будущем и не только. Contact @antonod
🧠 OpenHarness - новый король ИИ-агентов
Буквально на днях китайская лаборатория HKUDS (те самые ребята, что сделали LightRAG) выкатила в опенсорс свой новый фреймворк — OpenHarness. За пару дней проект влетел в топы GitHub (4к ⭐️) и на это есть весомые причины.
🤔Что это вообще такое?
Слово harness (оснастка/каркас) отлично передает суть. Это не нейросеть, а программный «экзоскелет» для создания автономных ИИ-агентов (SuperAgents).
Если обычный API-запрос — это разовая команда, то OpenHarness дает ИИ изолированную песочницу для выполнения кода (sandbox), доступ к долгосрочной памяти, систему навыков (skills) и возможность плодить субагентов под конкретные задачи.
Почему такой хайп именно сейчас?
Релиз OpenHarness идеально совпал с настоящей драмой на рынке.
Еще вчера все молились на OpenClaw — популярного персонального ИИ-ассистента. Разработчики привязывали к нему свои безлимитные подписки Claude Pro/Max и за $200 в месяц получали автономного раба, который сутками писал код и управлял ПК.
Но халява закончилась. Вчера Anthropic официально прикрыла эту лазейку. Теперь подписки не покрывают работу сторонних ИИ-фреймворков. Хочешь автономного агента? Плати за каждый токен по API, что увеличивает чеки в десятки раз. Создатель OpenClaw бушует в Твиттере, а комьюнити в панике ищет альтернативы.
И тут на сцену выходит OpenHarness. В отличие от потребительского OpenClaw, решение от HKUDS — это чистый, академический движок для разработчиков.
В чем разница с OpenClaw?
OpenClaw — это сам «работник🧑🌾» (готовый ИИ-агент), которого вы нанимаете писать вам код.
OpenHarness — это «завод😨», на котором вы собираете и тестируете таких работников.
Если вы хотите не просто использовать чужих агентов, а создавать своих — OpenHarness сейчас выглядит как инструмент must-have.
🤖Итог:
Если вы планируете строить сложные AI-проекты с функцией Function Calling, сложной памятью и оркестрацией — сейчас самое время разбираться с OpenHarness.
гит 🔗 https://github.com/HKUDS/OpenHarness
Тут на Lm-arena все в шоке от новых секретных моделек для генерации изображений maskingtape-alpha, gaffertape-alpha and packingtape-alpha (уже удалили, видимо скоро релиз)
Все уверены что это GPT-IMAGE-2 от OpenAI (не удивлюсь если они на новом Spud под капотом гоняются🌚)
Ждём скоро релиза✨
AGI-моменты по всем фронтам🍿
Андрей Карпаты показал идеальную архитектуру для ИИ-агентов (и она гениально проста👌)
Забудьте про сложные векторные базы данных (RAG) и платные инструменты. Известный ИИ-исследователь Андрей Карпаты поделился своим методом создания саморазвивающегося «второго мозга», который работает исключительно на голых текстовых файлах.
🧐Как это устроено:
Вы просто скидываете все исходники (статьи, PDF, картинки) в папку raw/. Затем натравливаете на неё языковую модель. Нейросеть выступает в роли автономного библиотекаря: она сама читает данные, пишет саммари, разбивает информацию по категориям и собирает из обычных Markdown-файлов (.md) структурированную Википедию, проставляя перекрестные ссылки. Obsidian (не cli, бесплатная версия) здесь используется просто как удобная и бесплатная программа для просмотра этих файлов.
✨В чем главная магия:
Весь секрет — в закольцованности. Когда вы задаете ИИ сложный вопрос по собранной базе, он не просто выдает текстовый ответ в чат. Он генерирует новую статью, таблицу или график и физически сохраняет этот ответ обратно в папку. Таким образом, с каждым вашим исследовательским запросом база знаний становится умнее и обрастает новыми связями.
🧠 «Петля знаний» Андрея Карпаты
Вместо того чтобы каждый раз закидывать в чат-бота тонны текста, он использует его как автономного редактора:
Свалка (Raw): Он просто скидывает нужные PDF, датасеты, картинки и вырезки из интернета в одну папку на компьютере.
Компиляция: LLM (через простые скрипты в терминале) сама читает всё это и пишет структурированную Википедию в формате Markdown. ИИ делает саммари, выделяет концепции и проставляет обратные ссылки.
Интерфейс: Карпаты почти не пишет заметки руками. Он открывает Obsidian просто как красивую читалку для того, что собрал и отсортировал ИИ.
Магия цикла: Когда он задает сложный вопрос, ИИ ищет ответ в этой же базе, выдает результат и сохраняет его обратно в Википедию как новую статью. База знаний прокачивает сама себя с каждым вашим запросом.
Этот подход доказывает, что автономным ИИ-агентам не нужны гигантские окна контекста (запихивать все знания мира в один промпт — дорого и неэффективно) или сложные API-интерфейсы. Им нужна просто хорошая файловая система и понятная инструкция в корневой папке (например, файл AGENTS.md).
Это дешево, абсолютно прозрачно (все знания лежат в ваших папках на диске, а не в «черном ящике» весов нейросети) и открывает путь к созданию совершенно нового класса полезных ИИ-продуктов. В комментариях разработчики соглашаются, что это идеальная архитектура для будущих ИИ-агентов. Им не нужна бесконечная память в голове, им нужна хорошая файловая система, в которой они могут сами копаться, наводить порядок и из которой могут извлекать знания🤓
Качаем, тестируем, эволюционируем🥳
Тут 2 китайские нейронки обновились:
💎 GLM-5V-Turbo (Z.ai): ~14–30B: Мультимодальная нейросеть с нативным зрением, которая умеет генерировать готовый рабочий код напрямую по скриншотам и дизайн-макетам. Идеально подходит для автоматизации фронтенда и работы автономных GUI-агентов.
https://docs.z.ai/guides/vlm/glm-5v-turbo
💎 Qwen3.6-Plus (Alibaba): ~72–110B: Мощная модель с окном контекста на 1 млн токенов, превосходящая конкурентов в терминальных задачах и работе с целыми репозиториями. Её уникальная функция preserve_thinking сохраняет историю размышлений агента между запросами, что радикально повышает автономность в многошаговых задачах.
https://qwen.ai/blog?id=qwen3.6
Квен доступен по api в openrouter пока бесплатно https://openrouter.ai/qwen/qwen3.6-plus-preview:free/pricing
Таким темпом небольшие модели скоро (или уже) будут вполне способны заменить любую закрытую фронтир модель для базовых задач🐈
А ещё сегодня гугл зарелизит Гемма 4💎💎💎💎🆕
Ну, не прошло и суток, как утёкший исходник Claude Code уже форкнули в OpenClaude — тот же CLI, но с поддержкой 200+ моделей включая бесплатный Ollama🍿
Что работает: 🔧 Все инструменты — bash, чтение/запись/редактирование файлов, grep, glob 🌐 WebFetch, WebSearch 🤖 Суб-агенты (AgentTool), мульти-степ цепочки 🔌 MCP-серверы, LSP, Jupyter ноутбуки 💬Slash-команды — /commit, /review, /compact, /diff, /doctor 🖼 Vision (передача картинок в модель) 🧠 Persistent Memory между сессиями 📡 Стриминг в реалтайме
Что не работает: ❌ Extended Thinking (фича только Claude) ❌ Prompt caching (специфика Anthropic API)
Работоспособность зависит от модели на которой гоняете. По сути комьюнити за сутки сделало то, что Anthropic не хотела давать — CLI-агент с полным набором dev-инструментов. Бесплатно, локально, с любым мозгом на выбор 😊
лежит тута - https://github.com/Gitlawb/openclaude
OpenClaw+OpenClaude = openAGI💎
Ну и Андрей Карпаты и другие раскопали глубже про загадочный проект KAIROS (полностью автономного ИИ-агента, работающего в фоне 24/7) - очень похоже на то, что все компоненты для AGI уже готовы. Череда недавних «случайных» утечек от Anthropic — это не провал кибербезопасности, а гениально срежиссированный партизанский прогрев перед выходом AGI. Сложно поверить, что параноидальная ИИ-компания с оценкой под $400 млрд совершает типичные ошибки новичков, сливая в сеть исключительно «мифологию» продукта: автономного фонового агента KAIROS, режим тайного написания кода и скрытый флаг для сотрудников, превращающий базового Claude во всемогущую машину. Будучи скованными собственным строгим имиджем «безопасного ИИ», Anthropic не могли открыто презентовать миру автономного кибер-гения, поэтому они разыграли идеальную партию: позволили разработчикам самим «найти» эту скрытую мощь, пока венчурные инвесторы синхронно подогревают рынок слухами о наступлении сингулярности уже в ближайшие 6–12 месяцев🌈 CAN YOU BELEIVE THIS?🌈
Читать полностью…
Это оригинальный слитый исходный код Claude Code
2,204 файла TypeScript. Вот что внутри:
Структура (главные модули)
src/
├── 🧠 QueryEngine.ts — главный движок (мозг агента)
├── 🔧 Tool.ts / tools.ts — система инструментов
├── 📋 Task.ts / tasks.ts — управление задачами
├── 🏠 main.tsx — точка входа
├── 📜 context.ts — сборка контекста
├── ⚙️ commands.ts — команды
│
├── tools/ — 30+ инструментов:
│ ├── BashTool/ — выполнение bash
│ ├── FileEditTool/ — редактирование файлов
│ ├── FileReadTool/ — чтение файлов
│ ├── FileWriteTool/ — запись файлов
│ ├── GrepTool/ — поиск
│ ├── GlobTool/ — glob-поиск
│ ├── WebFetchTool/ — загрузка URL
│ ├── WebSearchTool/ — веб-поиск
│ ├── AgentTool/ — суб-агенты
│ ├── PowerShellTool/ — PowerShell
│ ├── REPLTool/ — REPL
│ ├── SkillTool/ — навыки
│ ├── MCPTool/ — MCP-протокол
│ ├── TaskCreateTool/ — создание задач
│ ├── SendMessageTool/ — отправка сообщений
│ ├── ScheduleCronTool/ — крон-задачи
│ ├── LSPTool/ — Language Server
│ ├── TodoWriteTool/ — TODO-списки
│ └── NotebookEditTool/ — Jupyter notebooks
│
├── bridge/ — удалённое управление (телефон/браузер)
├── buddy/ — виртуальный питомец 🐾
├── voice/ — голосовой режим 🎤
├── coordinator/ — мульти-агентный менеджер
├── memdir/ — система памяти
├── skills/ — навыки
├── vim/ — VIM-моторика в терминале
├── components/ — 100+ React-компоненты (Ink)
├── utils/ — 300+ утилит
└── hooks/ — React-хуки
Самые интересные файлы
Файл Что содержит
utils/systemPrompt.ts System prompt — как Claude получает инструкции
utils/permissions/ Permission system — вся система разрешений
utils/classifierApprovals.ts Auto Mode — AI-классификатор безопасности
coordinator/coordinatorMode.ts Мульти-агент менеджер
bridge/ Remote control — управление с телефона
buddy/companion.ts Виртуальный питомец
voice/ Голосовой режим
constants/prompts.ts Все промпты
utils/tokenBudget.ts Бюджетирование токенов
Это золотая жила — полный production-код CLI AI-агента от Anthropic. 2,204 файла TypeScript.
Оказывается, ключ к AGI — это всего лишь 800 000 строк операторов if/else в TypeScript. Я так и знал😊
Тут такое дело... Конец Биткоина официально назначили на 2029 год (и это не rofl)😅
В крипто- и ИБ-тусовке сейчас знатный переполох. Буквально синхронно вышли два независимых научных пейпера, которые доказывают: квантовые компьютеры взломают современную криптографию в разы быстрее и дешевле, чем мы думали. Дедлайны съехали с туманных 2050-х на конец этого десятилетия.
Вот кто и как собирается хоронить наши приватные ключи:
1. Google и 500 000 кубитов
Инженеры Google Research оптимизировали алгоритмы взлома и доказали, что для вскрытия подписей ECDSA (на которых сидит Биткоин) нужны не миллиарды физических кубитов, а всего около ~500 000. При таких мощностях подбор приватного ключа займет минуты.
Самое жуткое: в Google сочли это настолько опасным, что засекретили саму схему взлома, выкатив в сеть лишь математическое доказательство (ZK-proof), чтобы не давать хакерам готовую инструкцию.
2. Oratomic и всего 10 000 кубитов
Вторая статья (в соавторстве с легендарным физиком Джоном Прескиллом) заходит с другой стороны. Они предлагают использовать нейтральные атомы. За счет новой мощной коррекции ошибок им для взлома хватит всего 10 000 физических кубитов. И это пугает, потому что в лабораториях уже гоняют тестовые массивы на 6 000 атомов.
Что будет с криптой?
Ethereum подстелил соломку: Разработчики Эфира (включая Джастина Дрейка) давно ждали подвоха. У них уже готовится спасательный апдейт EIP-8141, который отвяжет аккаунты от уязвимой криптографии.
Bitcoin пока спит: У консервативного и неповоротливого «деда» скоординированного плана перехода на постквантовые рельсы (PQC) пока тупо нет.
Мародеры Сатоши: В комментариях родилась безумная теория, что квантовый взлом — это даже хорошо. Хакеры просто вскроют старые «спящие» кошельки (включая огромные запасы самого Сатоши Накамото) и вернут эту гигантскую мертвую ликвидность обратно в оборот. Эдакое крипто-сквоттерство.
Многомиллиардный прогрев: В комментариях справедливо замечают, что Google не просто так трубит об угрозе именно для крипты, тактично умалчивая про банки и военные базы. Схема классическая: создать ИТ-оружие, напугать им рынок, а затем выгодно продавать корпорациям «щит» в виде постквантовой защиты в Google Cloud.
Выдыхаем (но не сильно)
Скептики справедливо кричат про нагнетание паники (Quantum FUD) и напоминают один забавный факт. Пока что самое большое число, которое реально смогли разложить на множители алгоритмом Шора на настоящем квантовом железе — это цифра 21 (еще в 2012 году).
Так что прямо завтра ваши битки и банковские пароли не угонят — собрать тысячи кубитов так, чтобы они работали без ошибок, всё еще архисложно. Но алгоритмический прогресс подкрадывается незаметно. Таймер до 2029 года запущен, и если блокчейны не успеют обновиться, то полетят не только биткоины, но и вообще все банковские пароли в интернете😈
обсуждают тут https://x.com/drakefjustin/status/2038847732152996108
и тут https://x.com/hosseeb/status/2038831850270126110
P.S.
Ну вы поняли на какой тренд ставить в ближайшие дни📉
⚡️ Браузеры больше не будут тормозить из-за текста: вышла библиотека Pretext
Если вы когда-нибудь бесились из-за того, что бесконечная лента, тяжелый дашборд или огромный чат начинают лагать при скролле — проблема не в вашем железе, а в том, как работают браузеры.
Исторически в вебе есть одна «тупая», но очень тяжелая проблема: чтобы понять, сколько места на экране займет абзац текста со всеми переносами, браузеру нужно буквально отрисовать его невидимо на странице, замерить линейкой (через DOM) и перерисовать всё заново. На больших объемах данных эта операция просто убивает процессор, и интерфейс начинает терять кадры.
💎Что за магия появилась?
Разработчик Ченг Лоу (создатель React Motion) выкатил Pretext — небольшую библиотеку, которая элегантно «хакает» эту систему. Она полностью отрезает браузерный рендер и высчитывает высоту, ширину и переносы строк чистой математикой.
Вместо того чтобы заставлять браузер пыхтеть над каждым блоком, библиотека один раз запоминает геометрию вашего шрифта, а дальше за микросекунды выдает точные габариты для любого куска текста.
📌Что это меняет:
Плавность 120 FPS: Огромные списки, логи и чаты с разной высотой блоков теперь скроллятся идеально гладко, без дерганий и подгрузок.
Текст в играх и WebGL: Раньше засунуть красивый многострочный текст (да еще и с эмодзи) напрямую в Canvas было болью. Теперь это делается элементарно.
Безумный дизайн: Сложные журнальные сетки и интерфейсы теперь можно рассчитывать математически до того, как они вообще появятся на экране, забыв про CSS-костыли.
Короче говоря, одно из главных «бутылочных горлышек» фронтенда наконец-то пробито. Веб-интерфейсы (особенно тяжелые и нестандартные) станут ощутимо быстрее.
И да, в сети уже завирусились наглядные демо того, на что способна эта технология. Текст перестал быть неповоротливым элементом HTML-разметки и превратился в легкий графический объект, которым можно манипулировать в реальном времени🧬
гит https://github.com/chenglou/pretext (18к звёзд за 2 суток⭐️)
Там это.. DeepSeek лежит уже почти 3 часа и я, как и весь реддит, хочу верить, что они наконец-то выкатывают V4🌚 Делаем ваши ставки😱
Читать полностью…
🔥По сообщениям в X, похоже, Anthropic начал втихую раздавать доступ к своей новой сверхмощной модели Claude Mythos. Это ИИ совершенно нового уровня, который настолько пугающе хорош в кодинге и взломе, что инсайды о нём обрушили акции компаний по кибербезопасности.
Думаю, хороший повод взять макс тариф 🌚
🧠 Sentrux: Как не дать ИИ-агенту превратить проект в спагетти-код или 🔥Recursive self-improvement of code quality🔥
ИИ-помощники пишут код с бешеной скоростью, но у них есть слепая зона — они вообще не видят архитектуру целиком. Вы просите добавить фичу, агент её делает, но попутно создает циклическую зависимость или ломает логику модулей. С каждым днем кодовая база становится всё хуже.
Что такое Sentrux?
Это легковесный «датчик» на Rust, который работает как строгий автоматический техлид для вашего ИИ.
Как это работает на практике:
Перед тем как агент начнет писать код, Sentrux сканирует проект и выдает числовую «оценку качества» (например, 7342)👌
Агент вносит свои изменения.
Sentrux снова сканирует код. Если архитектура деградировала (сигнал упал до 6891🚫) — сессия получает статус pass: false. Агенту придется переделывать свое решение, пока он не впишет его в архитектуру чисто.
Почему это мастхэв?
Когда вы собираете систему со сложной логикой и кучей связей — будь то бот с множеством API-вызовов или движок для игры — ИИ рано или поздно заблудится в модулях. Sentrux дает агенту «глаза», не позволяя сломать фундамент.
Всё настраивается через один простой файлик rules.toml (где можно жестко запретить циклические зависимости или файлы-монстры), а к ИИ подключается стандартно через протокол MCP. Уже ставлю себе🕺
гит https://github.com/sentrux/sentrux
Короче, я тут плотно подсел на Seedance, но все сервисы в сети - это тупо перекупы, которые накручивают цены так, что за 1 секунду видео просят от $0.30 до $0.50. Я копнул глубже и нашёл одного из немногих прямых поставщиков по API (piapi.ai), где секунда обходится всего в $0.08 - $0.15 - то есть в 2-4 раза дешевле! Регается в один клик через GitHub, забираете свой ключ и творите 🤩 (или вообще сами перепродаете дороже 💰). Понятно, что для генерации по апишке нужно самому настроить флоу, но сейчас с любой ИИшкой скрипт пишется за пару минут. Кстати, заметил крутую вещь: через API нейронка реально лучше выкупает промпты и, похоже, дает меньше фильтров на авторские права, так что свободы больше (но тут на ваш страх и риск!).
НО кому лень кодить — я запилил Telegram-бота (@futurisvideobot). Он работает просто как удобная (надеюсь) прослойка: баланс вы пополняете сами на сайте piapi, вставляете свой ключ в бота и генерите видео строго по себестоимости (я комиссий не беру, ключ в безопасности 🤝 и кстати уже настроил бота так, чтобы ваши видео были без вотермарка). В базе стоит защита на 5 видео в день, а кому нужно больше — за символическую плату прикрутил анлим и ИИ-помощника, который сам дописывает и переводит ваши наброски в крутой английский промпт. Пользуйтесь на здоровье ❤️ (кстати в боте можно кидать видос в общую галерею всем на обозрение🍿)
P.S. В боте есть обратная связь — пишите, если вылезут баги или видео не прилетит за 5 минут. И да, там всё быстро: так как ключ ваш личный, никаких общих очередей на полдня нет ✨
P.P.S. Инсайд на будущее: вообще в тусовке AI-разработчиков эталоном считаются крупные агрегаторы вроде fal.ai и atlascloud.ai. Прямо сейчас Сиданса 2 у них нет, но как только появится, то генерить там будет дешевле и стабильнее всего, возьмите эти названия на заметку😉
Голливуд - готовься, мы идём🐈🐈🐈
🔥 /last30days: AI-ресёрчер, который прочитает за вас весь интернет за месяц
Устали мониторить Reddit, выискивать годные треды в X (Twitter) и смотреть часовые видео на YouTube, чтобы понять, что сейчас в тренде?
На GitHub (уже 8.8K ⭐️) лежит шикарный плагин/скилл last30days для ИИ-агентов (Claude Code, Gemini CLI). Одна команда в терминале заменяет часы ручного серфинга и собирает для вас ультимативную выжимку по любой теме за последний месяц.
Как это работает на практике?
Вы пишете: /last30days Polymarket crypto trading strategies
ИИ-агент не просто лезет в Google. Он запускает сложный двухфазный пайплайн сбора данных:
Фаза 1: Широкий невод (Сбор базы)
Скрипт пробивает вашу тему по десятку платформ одновременно. Причем делает это умно:
Reddit & Hacker News: Парсит через бесплатные JSON/Algolia API.
YouTube: Не просто ищет видео, а выкачивает и читает их транскрипты через yt-dlp.
Polymarket: Тянет рынки и коэффициенты напрямую через Gamma API (без ключей!).
X, TikTok, Блоги: Собирает посты и считает метрики (свежесть + вовлеченность).
Фаза 2: Снайперский поиск (Углубление)
Собрав первичный пул ссылок, ИИ начинает копать глубже. Он вытаскивает из собранных постов конкретные @хэндлы экспертов и названия узких сабреддитов, а затем делает повторный поиск уже прицельно по этим людям и сообществам.
В конце он дедуплицирует информацию, склеивает похожие идеи и ранжирует их по важности.
В чем киллер-фича?😎
Вам больше не нужно платить за дорогие API для парсинга соцсетей. Скрипт использует кучу обходных путей (GraphQL, встроенные поисковики платформ), чтобы доставать данные абсолютно бесплатно.
Итог:
Вместо горы вкладок вы получаете один структурированный лонгрид: какие стратегии сейчас обсуждают трейдеры на Reddit, о чем спорят криптаны в X, какие инсайды звучат в свежих подкастах на YouTube и какие рынки прямо сейчас открыты на Polymarket.
Абсолютный мастхэв для аналитиков и всех, кто хочет держать руку на пульсе👏
👉Гит https://github.com/mvanhorn/last30days-skill
Свой ресёрч ИИ-трендов за последний месяц прикрепляю к посту🤓
P.S.
Для парсинга постов на Х нужен будет платный апи
⚡️1 триллион параметров (GPT-4) на MacBook🤯🤯🤯
Разработчик Дэниел Айзек (создатель проекта Flash-MoE) совершил невозможное: он запустил гигантскую нейросеть Kimi K2 (модель на 1 триллион параметров от китайской Moonshot AI) на MacBook Pro с чипом M3 Max и 48 ГБ🤯
Как ему удалось выжать из ноутбука такую мощь всего за 24 часа:
🛠 Главный хак: Одна строчка кода = +46% к скорости
Чтобы терабайтная модель работала на ноутбуке, куски нейросети («эксперты») постоянно подгружаются с диска в процессе генерации слов. По умолчанию macOS пыталась кэшировать весь этот огромный поток в оперативную память, забивая её мусором.
Дэниел добавил в код всего один системный флаг, который заставил Mac читать данные с SSD напрямую, минуя кэш операционной системы. Итог: чистая оперативка и мгновенный буст скорости на 46%.
🥊 Kimi K2 (1 трлн) против DeepSeek-V3 (671 млрд)
В процессе тестов выяснился парадокс: огромный триллионный Kimi K2 работает на макбуке быстрее, чем более «легкий» конкурент DeepSeek-V3.
Почему так? Разгадка в архитектуре: у Kimi K2 меньше «базовая» часть, которая постоянно висит в памяти (23 ГБ против 34 ГБ у DeepSeek). Это оставляет макбуку больше свободной оперативки для маневров. Вывод: когда железо работает на пределе, архитектура важнее размера.
Итог:
Сейчас эта сборка выдает 1.7 токена в секунду. Да, скорость около одного слова в секунду — это пока маловато для комфортного программирования в реальном времени. Но сам факт, что открытую модель мощностью уровня GPT-4 сегодня можно запустить локально на ноутбуке, сидя в самолете без интернета — это абсолютная фантастика 👾
репо https://github.com/danveloper/flash-moe
P.S.
Интересный факт: почти весь этот движок был создан примерно за 24 часа при активном участии ИИ-агента Claude Code. Дэн загрузил в него научную статью Apple, и ИИ автономно провел около 90 экспериментов, подбирая оптимальный код на Objective-C и Metal, чтобы выжать максимум из архитектуры памяти Mac. Думойте!🧐
В дополнение к концепции Андрей только что опубликовал Gist-файл LLM Wiki - по сути, это готовый системный промпт для вашего ИИ-агента. Вы просто копируете этот текст в настройки, и нейросеть переключается в режим строгого библиотекаря.
Что важного он прописал в этой инструкции для ИИ:
🗂 Система двух файлов: Чтобы ИИ не путался в сотнях заметок без сложного векторного поиска, он обязан вести index.md (общий каталог всех страниц с кратким описанием) и log.md (хронологический лог всех своих действий — что прочитал, что добавил).
🧹 Режим «Уборки» (Lint): Карпаты поручает ИИ периодически проводить аудит базы. Нейросеть сама ищет противоречия между старыми и новыми статьями, находит «осиротевшие» страницы без ссылок и предлагает, какую информацию стоит догуглить.
🛠 Правило «Схемы»: В корне папки должен лежать файл CLAUDE.md или AGENTS.md. Это конституция вашей базы, которую вы пишете вместе с ИИ под свои нужды (например, «всегда сохраняй картинки локально» или «делай таблицы для сравнений»).
По сути, это готовый open-source фреймворк. Копируете текст, натравливаете агента на пустую папку — и ваш автономный «второй мозг» готов к работе! 🤖
Значит так🤓 16 апреля мы ждём Mythos
Теперь появилась информация (стандартный прогрев перед релизами) о скором релизе Картофелины🥔 (Spud) от OpenAI, понятно, что проигрывать в конкуренции они не собираются. Что знаем на данный момент?
OpenAI завершила pretrain «Spud». Альтман в мемо сотрудникам: «Ожидайте очень сильную модель через несколько недель, которая может по-настоящему ускорить экономику». Продуктовый отдел переименован в «AGI Deployment».
🥔 Pretrain завершён, идёт тестирование
🗓 Релиз: 2-3 недели (середина апреля)
🤖 Модель агентная с нуля — не фича, а основа
🎬 Sora закрыта — весь compute перекинут на Spud
🧮 Внутренняя модель решила 3 задачи Эрдёша (над ними десятилетиями бьются лучшие математики, многие до сих пор не решены)
⚔️ Война Q2: Spud vs Mythos (Anthropic)
ну и появился очередной твит нашего клубничного чела, похоже, нас ждёт GPT-6, готовимся к горячему месяцу🔥
ну и вот ещё список релизов за апрель
- Meta Avacado
- Deepseek V4 ❓
- GPT-6 (“Spud”) ❗️
- Gemma 4 series✅
- Qwen3.6-Plus✅
- Qwen3.5 Max Pro✅
- Qwen3.5 Omni Plus✅
- Gemini 3.1 Flash Live ✅
- GLM-5.1 open weights
- GLM-5V-Turbo✅
- MiniMax M2.7 open weights
- MiniMax M3.0
- Kimi K3.0
- Claude 5 (“Mythos”) ❗️
- StepFun
- Hunyuan 30B MoE
- Trinity Large Thinking (🇺🇸) ✅
- 1-bit Bonsai 8B (🇺🇸) ✅
- Holo3 (🇫🇷) ✅
And it will be only faster going forward ⚡️
Google выпускают обновление линейки Gemma — стала доступна версия с номером 4
https://deepmind.google/models/gemma/gemma-4/
Всего доступны модели 4 размеров: поменьше E2B, E4b (бывшие Gemma 3n/Gemini Nano); и побольше, 26A4B, 31B (Dense).
Модели поддерживают рассуждения и вызов инструментов, понимают картинки и видео. Заявлена поддержка 35 языков (но тренировали на 140). Контекст 128к/256к.
E2B и E4B (для смартфонов) поддерживают аудио на входе — можно делать распознавание голоса.
Веса: https://huggingface.co/collections/google/gemma-4
💡 Управляйте всеми сервисами через одного ИИ-агента в Telegram
Google Calendar, Notion, Gmail, Drive, GitHub и 800+ других — в одном чате.
Достаточно одной команды:
🔗 "Подключи мою почту"
📅 "Напомни о встрече за час и помоги подготовиться"
📬 "Проверь почту и выдели важное"
📝 "Опубликуй пост в мой X"
Без сложных интеграций и настроек — просто напишите Mira, что нужно.
Спите? тут самый известный и загадочный инсайдер в ИИ-сообществе Strawberry Man, сливы которого почти всегда подтверждались предрекает релиз Mythos на 16 апреля, по всем бенчмаркам более 95%
цена $120/$600 за миллион токенов
окно контекста 10 миллионов токенов
только для корпоративного использования (надеюсь нет, а если да, то замутим каналом Futuris co и будем юзать по очереди😨)
capybara is here.
capygpt is agi🌚
Я уже ничему не удивлюсь, даже если всё окажется правдой и даже круче, ставим напоминалки на 16.04 🗓
Ну и чтобы нас всех добить, тут известный инвестор Хэдли Харрис (генеральный партнер известного нью-йоркского венчурного фонда Eniac Ventures) заявил, что по словам его источников, внутри Anthropic ожидают достижения AGI (какое бы значение мы/они не вкладывали в этот термин🤖) уже в ближайшие 6–12 месяцев. Теперь вчерашний слух о том, что у одной из крупных ИИ-лаб произошёл архитектурный прорыв и все scaling laws пробиты обретает новые краски. I JUST WANT TO BELEIVE🥳🐈
Ну и самое интересное, что всё что сейчас происходит, это только начало разгона🧬
Это наверное самый быстрорастущий гит 22.5K ⭐️ | 32K форков — за 40 минут- https://github.com/instructkr/claude-code
Из-за банальной ошибки при публикации npm-пакета инженеры Anthropic случайно слили в открытый доступ исходники своего ИИ-агента Claude Code (свыше 500 тысяч строк кода, архитектуру и системные промпты)👌 Я думаю, стоит скачать🍿 (на днях разрабы Антропик заявили что у же не трогают код руками, навайбкодили получается🤣)
Если вы пилите собственных ИИ-агентов то здесь зарыта золотая жила архитектурных паттернов:
Как правильно и надежно организовать tool-calling в продакшене.
Как управлять стримингом ответов без сбоев.
Паттерны безопасного выполнения системных команд и редактирования файлов.
Как выстроена система разрешений (permissions), чтобы ИИ ничего не сломал.
По сути, нам случайно показали изнанку того, как технически устроено «мышление» и интеграция современных ИИ-ассистентов (включая и алгоритмы, подобные моим). Это катастрофа для Anthropic, но невероятный подарок для опенсорс-сообщества.
Оказалось Claude Code внутри — обычный TypeScript-проект. Никакой магии. Стандартный agent loop: получить запрос → выбрать инструмент → выполнить → вернуть результат✨
🚀 Считанные часы до старта Artemis II: человечество возвращается к Луне
Впервые за 50 с лишним лет (со времен миссии «Аполлон-17» в 1972 году) пилотируемый корабль покинет низкую околоземную орбиту и направится к Луне.
Четверо астронавтов на сверхтяжелой ракете SLS отправляются в 10-дневную экспедицию. Лететь будут на Огромной 98-метровой ракете, на 15% мощнее легендарной ракеты «Сатурн-5», которая возила астронавтов программы «Аполлон». Астронавты обогнут Луну, пролетев за ее обратной стороной, и вернутся обратно на Землю. Высадки на поверхность в этот раз не будет — это генеральная репетиция и экстремальный стресс-тест всех систем корабля перед миссией Artemis III (2027)
Старт 01:24 (2 апреля) МСК
🎬Стрим NASA https://www.youtube.com/watch?v=NaJklsJonD4
Представьте ощущения: Несколько десятков минут астронавты будут полностью отрезаны от человечества, глядя на хаос древних кратеров и дожидаясь момента, когда из-за горизонта снова покажется крошечный голубой серп Земли🌎 (надеюсь запишут хоть рилсы🙏) Такие запуски — это буквально история космонавтики, которая пишется прямо на наших глазах✨
В 2026 без нейронок не справиться: они помогают в учебе, упрощают работу. Это буквально твой личный и надежный ассистент для ЕЖЕДНЕВНЫХ задач ☝️
Например, в создании контента. Просто берешь подписку и получаешь БУСТ 🔎
И не говори, что это трудно: оплачивать подписки выгодно и в рублях помогает Playerok — лучший маркетплейс игровых товаров и услуг с 1+ млн отзывов ✅
Пополнение Steam *с комиссией 0%* по промокоду GPT и моментальная покупка телеграм-звезд — это всё также доступно на Playerok 💙
Всё для геймеров в одном месте 💙
Тут канадский стартап Taalas предлагает радикально новый подход к ИИ-железу. Вместо запуска нейросетей на дорогих видеокартах, они аппаратно «запекают🔥» конкретные модели (например, Llama 3.1 или Qwen) прямо в кремний на специализированных PCIe-платах🤖
Плюсы звучат отлично: за условные $300–400 обещают сумасшедшую скорость (от 10 000 до 17 000 токенов в секунду) и работу полностью локально. Никаких платных API, серверов, подписок и задержек.
Но есть нюанс - нулевая гибкость. Вшитую в транзисторы нейросеть физически невозможно обновить или дообучить. Вышла новая, более умная версия модели? Плата мгновенно устаревает, и перепрошить её не выйдет.
Расклад вырисовывается интересный. Для разработки и универсальных задач мы гарантированно останемся на классических GPU. А вот для массовых автономных устройств, робототехники или узких локальных процессов, где нужен дешевый, быстрый и безотказный ИИ, такие ИИ-чипы могут серьезно перекроить рынок.
Официальный анонс и презентация первой рабочей платы (HC1 с вшитой Llama 3.1 8B) состоялись совсем недавно — 19 февраля 2026 года.
Как выглядит их график релизов на данный момент:
Прямо сейчас (март 2026): Продукт работает в режиме публичного демо-стенда. Стартап только что закрыл раунд инвестиций на $169 млн, и пока доступ к технологии открыт через их API и тестового чат-бота. В массовой рознице самих физических плат еще нет.
Начало лета (Q2) 2026: Запланирован выпуск чипа под более тяжелую логическую модель (на ~20 миллиардов параметров — судя по всему, речь как раз о Qwen).
Конец 2026 года: Релиз второго поколения архитектуры (HC2), куда амбициозно обещают аппаратно «зашить» модель флагманского уровня (конкурента GPT-5).
Так что сейчас они на стадии активного производства, а полноценные коммерческие поставки этого «железа» будут разворачиваться в течение текущего года.
обсуждают тут https://x.com/TeksEdge/status/2037395983647260843
Сделал тут серию про героя, которому не дают покоя со своими квестами⚔️
следующий эпизод будет тут AICinmaClub" rel="nofollow">https://www.youtube.com/@AICinmaClub
обошлось в ~15уе🤷♂️
Теперь можно заставить нейронки сражаться друг с другом👊
Отличное занятие на вечер - устроить турнир между нейробойцами и принимать ставки🍔
Если что игрушка пошаговая и качается тут🎮 и наверх ставится этот мод
А работает так: LLM получает текстовое описание ситуации в бою и выбирает действие. Каждый ход = 1 API-запрос на каждого игрока. Бой ~50 ходов. По стоимости — копейки👌
FINISH HIM!😈
⚡️ TurboQuant от Google: Сжатие ИИ в 6 раз🤯🤯🤯
Google выкатил красивый пресс-релиз про прошлогодний алгоритм TurboQuant, и инвесторы с перепугу тут же обвалили акции крупнейших производителей памяти (Samsung, SK Hynix, Micron) на 4-6%🤪
Главный боттлнек больших коммерческих LLM — это не вес самой модели, а KV-кэш (краткосрочная память, удерживающая контекст). В дата-центрах этот кэш уникален для каждого параллельного запроса. Когда тысячи юзеров одновременно отправляют огромные промпты, серверная видеопамять (VRAM) выгорает моментально.
🧠 Что за технология?
Это программный алгоритм экстремального сжатия «кратковременной памяти» нейросетей (KV-кэша). С помощью хитрых математических вращений матриц он ужимает данные в 4–6 раз (до 1–3 бит на параметр) вообще без потери логики и качества ответов модели✨
⬆️ Кому и зачем это нужно?
Это спасательный круг для Big Tech и серверного Open Source.
Скорость: Генерация ответов ускоряется до 8 раз💥
Экономия: Поддержание огромных контекстов (например, на миллион токенов, как у Gemini) перестанет сжирать сотни гигабайт дорогущей серверной памяти (VRAM) на каждый запрос. Затраты дата-центров на инференс кардинально снижаются.
🛠Лихорадка на GitHub (Что происходит прямо сейчас)
Пока корпорации только планируют внедрение для экономии бюджетов, в Open Source сообществе началась настоящая гонка. Энтузиасты уже доказали, что технология шикарно работает на открытых моделях:
🍎 Первый запуск на Mac: Разработчик переписал алгоритм на C и внедрил в форк популярного движка llama.cpp для Apple Silicon. Итог: тяжеленная модель Qwen 35B уже крутится на макбуке с 3-битным сжатием кэша.
🧪 Лабораторный стандарт: Чистая реализация на PyTorch. Тесты на реальной модели доказали математику Google: при экстремальном сжатии до 2-4 бит нейросеть идеально проходит тест «иголка в стоге сена» (оценка 9 из 9).
🤯 Драма с RotorQuant: Группа гиков взяла оригинальный код и заменила громоздкие матрицы Google на алгебру Клиффорда (Clifford rotors). Этот хак сократил количество параметров в 44 раза, заставив алгоритм работать в 10-19 раз быстрее. Сейчас сообщество яростно спорит, не сломает ли это математические гарантии на сложных задачах.
🔮 Что дальше?
Для дата-центров это экономия миллиардов долларов на железе. А для обычных юзеров и инди-разработчиков это значит, что "стена памяти" пробита. В перспективе пары месяцев этот алгоритм встроят в стабильные версии vLLM и llama.cpp. И тогда огромные нейросети, способные держать в памяти контекст размером с целую книгу, можно будет спокойно запускать на домашних ПК и ноутбуках.
Верим🙏 ждём⌛️ надеемся⭐️
⚡️Проект ARC запустил ARC-AGI-3 — бенчмарк нового поколения. Его цель — проверить не заученную базу знаний, а реальную способность ИИ мыслить, обучаться и адаптироваться в неизвестных условиях.
Вместо привычных текстовых задач разработчики с нуля создали 135 уникальных мини-игр. Нейросеть бросают в них вообще без каких-либо правил и инструкций. Чтобы победить, ИИ-агент должен действовать как настоящий игрок при первом прохождении сложной игры:
Самостоятельно исследовать незнакомую среду
Выдвигать и проверять гипотезы о том, как тут всё работает
Планировать шаги вперед и учиться на своих ошибках
Что показали первые тесты?
Современные ИИ (включая топовые модели) пока справляются откровенно плохо. Они путают новые механики с уже знакомыми задачами, упрямо цепляются за первые ошибочные стратегии и не умеют прогнозировать будущее. В то же время люди не пытаются перебрать все варианты, а быстро строят в голове логическую модель игры и находят решение.
Разрыв между человеческим и искусственным интеллектом в плане адаптивности всё еще огромен. Организаторы бросают вызов сообществу: можно попытаться пройти эти игры вручную или разработать собственного ИИ-агента, способного их раскусить. На кону — 2 миллиона долларов в трех номинациях💰💰
https://arcprize.org/arc-agi/3
Интересно, как быстро этот бенч будет побеждён?🌚
✨🚀Эпические новости от NASA🚀✨
NASA только что анонсировали исторический сдвиг: Ядерные корабли к Марсу в 2028 и ежемесячные полеты на Луну в 2027
Вчера новый глава NASA Джаред Айзекман провел масштабную презентацию «Ignition» («Зажигание»), где выкатил совершенно новую стратегию освоения глубокого космоса. Кажется, мы наконец-то переходим от теории к хардкорной практике.
Вот главные технологические прорывы, которые нас ждут в ближайшие 2–3 года:
🌚 Луна: Роботизированная экспансия (с 2027 года)
Проект окололунной станции Lunar Gateway поставлен на паузу. Все ресурсы (около $20 млрд) перенаправляют на создание постоянной обитаемой базы прямо на поверхности Луны. Проект NASAMoonBase
• Для разведки территории туда отправят флот уникальных дронов Moonfall (см видео к посту) - они смогут совершать огромные прыжки на 50 км по лунному рельефу. Будут исследовать постоянно затененные кратеры на Южном полюсе Луны в поисках льда. Лед критически важен для будущей базы: его планируют добывать и перерабатывать в питьевую воду, кислород для дыхания астронавтов и компоненты для ракетного топлива💎
• Начиная с 2027 года, на Луну будут отправлять новое оборудование, грузы и луноходы каждый месяц🤯
• Высадки астронавтов станут регулярными — раз в полгода.
🔴 Марс: Проект ядерного прорыва (к 2028 году)
Это самый громкий анонс десятилетия. До конца 2028 года НАСА планирует запустить Space Reactor-1 (SR-1) Freedom — первый межпланетный космический корабль на ядерной тяге🔥
• Ядерный двигатель (создаваемый совместно с Минэнерго США) позволит летать в дальний космос гораздо быстрее и без привязки к громоздким солнечным батареям.
• По прибытии корабль сбросит на Марс полезную нагрузку Skyfall — это целый рой новых исследовательских дронов-вертолетов (наследников знаменитого Ingenuity), которые будут массово изучать Красную планету с воздуха.
И всё это на фоне недавних заявлений Маска о том, что колонизация Марса сдвигается на 5–7 лет вперёд, а абсолютный приоритет SpaceX сейчас — лунная инфраструктура (строительство не просто базы, а полноценного «саморазвивающегося города-завода» для производства космических ИИ-серверов) и космический ИИ. Маск планирует вывести на орбиту сеть из миллиона спутников-серверов, которые будут круглосуточно питаться от Солнца. Чтобы профинансировать эту стройку века, SpaceX готовится к историческому выходу на биржу (IPO) уже в 2026 году с рекордной ожидаемой оценкой в $1,5 триллиона.
Похоже, мы с вами прямо сейчас наблюдаем начало совершенно новой и очень амбициозной космической гонки! ✨