14057
Head of AI redmadrobot.com From IT Admin to Head of AI in 5 years Applied AI Engineer B2C RAG (2M+ books) B2B RAG platform (10+ implementations) B2C gptdaisy.com (100k MAU) github.com/vakovalskii | chat @neuraldeepchat To infinity... and beyond!
Фанаты sgr-agent-core регулярно спрашивают нас, с чего мы взяли, что они наши фанаты?
Уже неделю чувствую себя ненормированно свободным, впервые за долгое время проснулось кодовдохновение. А потому - делюсь! Много мыслей и немного кода.
В чем экзистенциальный ужас платформенной разработки? Приходится поддерживать и учитывать разные платформы, их версии, ограничения. И как бы я ни бегал от мрака версионности, всё-же напоролся на примере sgr core
Итак, проблема:
Фреймворк построен на Structured Output, но его поддерживают далеко не все конфигурации локальных/проприетарных LLM. Что самое страшное, даже если поддерживают, то не всегда однородно! Требуемые JSON схемы могут различаться.
Если фреймворк может работать, а может не работать на неопределённом множестве моделей - это ужасненько.
Structured output(SO) по моему скромному мнению это железная база, без которой сложно представить взаимодействие агентов хаоса вольного контекста и неопределëнных суждений и системы требующей, как правило, некоторой детерминированности, свойственной формальным языкам.
Примеры:
- Кто-то гарантирует ответ строго по формату, а кто-то может допустить ошибки даже при заданной схеме
- Кто-то поддерживает вложенные AnyOf и прочие агрегаты схем, а кто-то нет
- Где-то можно прокинуть ограничения min_length=1, max_length=3, а где-то нет, они в лучшем случае будут проигнорированы
- Кто-то хавает литералы и сопутствующие им enums, а кто-то отказывается
Как общий знаменатель пришла мысля создать решение, которое бы эмулировало независимый от ллмки SO без реальной в нём потребности на стороне провайдера . Идея "попроси модель сделать как надо" далеко не нова, и тем не менее было полезно посмотреть, насколько хорошо и стабильно это могут делать современные LLM
Концепция:
class ToolInstantiator принимает в свой init Pydantic модель, и имеет два основных метода интерфейса:
- Сгенерить промпт с описанием схемы для LLM
- Провалидировать полученный ответ LLM на предмет возможности билда инстанса Pydantic модели
На каждом следующем этапе промпт,выдаваемый классом, учитывает ошибки и проблемы предыдущей итерации, корректируя/фокусируя LLM
Путём некоторых экспериментов было выявлено, что прямая json схема для LLM сложновата ввиду нотации и неконсистентной информации о полях и их типах. А ещё иногда модельки путались и выдавали JSON schema аналогичную промптовой в ответ. Поэтому появился класс-помогатор SchemaSimplifier, разбирающий схему и преобразующий в более минималистичную нотацию
Ещё была интересная концепция, где каждое поле валидировалось по отдельности и даже если модель выдала в общем не полностью корректный JSON, часть верных полей принимались и не требовались на дальнейших итерациях генерёжки. Идея была отброшена ввиду нелицеприятности кодреализации такой фичи.
Лучше никому не видеть мою попытку в конвертацию типов raw context regex parsing -> json string->python type -> pydantic validator
Вот тут реализация - почти хорошо
работает следующим образом
for attempt in range(max_retries):Читать полностью…
async with self.openai_client.chat.completions.stream(
messages=messages + [{"role": "user", "content": instantiator.generate_format_prompt()}],
) as stream:
completion = await stream.get_final_completion()
try:
content = completion.choices[0].message.content
tool_instance = instantiator.build_model(content)
return tool_instance
except ValueError:
continue
За вами следят?
Qwen3-vl + 4090 (48gb) + opus 4.6
Дисклеймер:
Про CV я в курсе =)
Это эксперимент, интересовало можно ли такое сделать на vl модели локально и какие будут тайминги и качество
Давно хотел такое проверить что на сегодня могут VL модели из коробки с граундингом на bbox, но сами понимаете описать задачу и поставить ее разработчикам было сложно, и долго
Сейчас же у нас с вами по карманной команде PoC которая в любой момент готова реализовать ваши идеи (ушло вместе с деплоем модели 2 часа)
Проект выложу в open source
Спеки
GPU: 4090(48гб) не D версия
модель: qwen3-vl-30b-a3b-instrut-fp8
ATX компьютер b550
БП: 850 deepcool
Коммент моего очень хорошего друга на это видео
а каких-то лет 6 назад это было космосом для CV
P.S да да qwen умеет в bbox граундинг
LocalTopSH Pengin 🐧
А мы тут навайбкодили своего ботика с блек джеком и кодовыми тулами за вечер вот сидим ломаем ему скрепы (docker)
Можно ли такое повторить?
Да конечно
Забирайте инструкцию как сделать продуктивного веселого ботика на вечер
Главный рецепт локал gpt oss 120b и почти прямые руки
В чатике жаришка /channel/neuraldeepchat
Репо: https://github.com/vakovalskii/LocalTopSH
ReAct ты шутка что ли?
Алексей записал очень крутой видос про ERC платформу
И ставит последнюю точку в том как взял золото на ERC3
Потянулись проснулись открыли видосик и смотрим =)
Детальный 30-минутный ролик про ERC3, который проходил в декабре 2025 на платформе Рината @llm_under_hood
P.S ждем от Рината ERC4
P.S.S а если совсем хотим не напрягать мозг идем смотреть как агенты живут в своей соц секте https://www.moltbook.com/
Читаем крутой посл от Дяди про это /channel/dealerAI/1646
Давайте добьем ему 1к на канал за одно!
/channel/aostrikov_ai_agents
Как повторить успех clawd.bot за 100$?
8к GitHub start to 40к за 2дня!
Спойлер, никак
И так разбираемся с ValeDesk
В чатике у Нади, Леша закинул такую идею
"LocalDesk, исследуй историю взлета ClawdBot и примени для Aesty. Бюджет 100$. Make no mistakes"
Дальше можно увидить результат тут в комментах и на скринах
TL;DR: ClawdBot → Aesty
### 🦞 Почему взлетел ClawdBot (43K+ stars за недели):
1. **Авторитет** — создатель Peter Steinberger (exit €100M)
2. **Один ключевой обзор** — Federico Viticci (MacStories) = с 1K до 8K stars
3. **Визуальный вирус** — фото Mac Mini → дефицит в магазинах
4. **Конкретика** — "10,000 emails overnight", не абстрактные обещания
---
### 👗 Формула для Aesty ($100 / 30 дней):
| Что делать | Бюджет | Зачем |
|------------|--------|-------|
| 5 nano-influencers TikTok | $50 | 50-100K views |
| Product Hunt launch | $0 | 500-2000 downloads |
| #AestyTransform giveaway | $30 | UGC контент |
| Reddit organic | $0 | r/femalefashionadvice |
| Canva/инструменты | $20 | Креативы |
---
### 🎯 Главный hook:
> *"Clueless (1995) показал мечту. Aesty (2026) сделал её реальностью."*
---
### 📊 Цель: +2,000-5,000 downloads за 30 дней
**Ключ к успеху:** Найти своего "Viticci" — одного fashion-блогера с 50K+ аудиторией, который сделает честный обзор.
---
*Подготовлено в LocalDesk* 🚀
#meme
Автор @evilfreelancer
Шутим над PR про tauri в LocalDesk
Кто на стажировку в команду Claude Cowork к Борису Черни?
Только не в Claude Cowork, а в LocalDesk.
И не к Борису, а к Валере @neuraldeep
Если вдруг кто пропустил, Валера Ковальский и куча народа уже 10 дней пилят свой Cowork, который работает на вашем компе на любых моделях.
https://github.com/vakovalskii/LocalDesk
/channel/neuraldeep/1858
/channel/neuraldeep/1874
Как задрот агентских циклов, давно хотел закопаться, как все устроено, только сегодня с утра дошли руки:
- в каждый запрос к LLM передаётся 15-45 tool definitions в зависимости от настроек - модель видит все доступные инструменты сразу (удачи слабым моделькам на 45 тулах ☕️)
- цикл работает до тех пор, пока в ответе есть tool_calls - если массив пустой, выводим финальный ответ и завершаемся
- ответ читаем в режиме стриминга: текст пушим в UI сразу, но tool_calls накапливаем - аргументы приходят чанками, JSON парсим только после полного ответа
- модель может вернуть несколько tool calls в одном ответе (parallel_tool_calls: true), но выполняем их строго последовательно через for await - параллелизация не реализована 💡
- после выполнения каждого tool результат добавляется в массив messages как { role: 'tool', content: output } - на следующей итерации модель видит полный контекст
- контекст растёт монотонно: system prompt + все user messages + все assistant messages + все tool results, truncation и summarization отсутствуют 💡
- tool results не обрезаются - если read_file вернул 5000 строк, все 5000 строк попадают в контекст 💡
- loop detection: sliding window из 5 последних вызовов, если 5 подряд одинаковых tool names - инжектим hint "Попробуй другой подход", даём 5 retry, потом принудительный стоп
- batch tool calls (2+ инструмента в одном ответе) сбрасывают счётчик loop detection - считаются намеренным поведением модели
- не можем отправить новое сообщение. дать подсказку модели в середине цикла. должны отменить выполнение или дожидаться конца 💡
Очень круто! Но самое крутое впереди. Многие спрашивают, как вкатиться в разработку агентов, с чего начать. Можно начать с простых примеров на коленке, которые были в этом посте. Но это ни разу не похоже на продакшен, просто мини проектики, пощупать самую основу.
А LocalDesk - похоже.
Смотрите, в тех местах, где стоят 💡 можно придти и сделать лучше - оптимизировать расход токенов, увеличить скорость за счет параллельности, сделать компакшен контекста.
Хотите более серьезных приключений - можно сделать субагентов, поддержать MCP, прикрутить донаты в конце концов!
Кстати, именно так и выглядит реальная разработка агентов в проде, на само ядро не тратится много времени, а на управление памятью, оптимизации контекста, детализацию в логах, трассировки - полно. А потом еще начинаются корзинки и evals, и совсем потрачено.
Так что если кто-то хотел "поизучать агентов пару часиков на выхах", вот самый лучший способ.
Еще раз ссылка на GitHub
И чатик, где идет движуха: @neuraldeepchat
———
Пойду тоже запилю что-то, а то Валера здороваться перестанет...
LocalDesk+Skills, что ты со мной делаешь?
Не буду далеко ходить
Skills которые сейчас на ревью у ребят!
Встречаем за 1$ собранное резюме для Google! (точно возьмут!)
P.S снял одним дублем =)
Репо: https://github.com/vakovalskii/LocalDesk
Skills: https://vakovalskii.github.io/LocalDesk-Skills/
Год назад на все предикты Дарио большая часть моих знакомых смотрела, крутя палец у виска. Сейчас почти все мои знакомые SWE, начиная от стартапа и заканчивая бигтехом, пишут руками меньше 20% кода, а всё остальное делает агент. Я сам давно уже не программист, поэтому не показатель, но с появлением Cursor и Claude Code редко пишу код руками. С появлением Opus 4.5 — все 100% кода пишутся им в Claude Code. Более того, я в терминале работаю через Claude Code — настолько лень стало писать bash-команды самому.
/channel/seeallochnaya/3305
Завтра стрим про агенты в облаке и на своем железе. Приходите кому интересно (бесплатно).
Делаем расширенную версию докладов с ИИтоги 2025 - мы с Валерой (канал Neural Kovalskii), по 40 минут на каждого вместо 20, плюс Q&A.
Если строите AI агентов или планируете - будет полезно разобраться:
Облако (моя часть):
- Почему "просто поменять модель" уже не работает, про агентный API - и какая ситуация с вендор-локом
- Build vs Buy: на чем экономить время, а что строить самим
- Подробнее про кейсы file-first агентов и в этот раз будет время рассказать технические детали
Локально (Валера):
- Какие open-source модели реально тянут десятки тулов без галлюцинаций
- Как запустить агентов на своем железе, если есть требования к безопасности
- MCP в Enterprise: что работает, где грабли
21 января, 19:00 GMT+3. Бесплатно.
📅 Календарь - прямая ссылка на стрим появится там в день эфира
Vibeworking для нетехнарей (и ideфобов/терминалфобов)
В продолжение поста по инструментам.
Сейчас идет большой тренд на использование изначально кодинг-инструментов(например Claude Code), в задачах, не связанных с программированием как таковым. Вот классная подборка из 50 задач собранных Lenny Rachitsky.
Но проблема в том, что большая часть новых пользователей таких инструментов - это не разработчики, а ребята привыкшие к «человеческим» интерфейсам. Терминалы, IDE и прочие атрибуты кодинга их пугают уже одним своим присутсвием (технари, вы можете смеяться, но судя по фидбеку от коллег это действительно отталкивающий фактор).
Anthropic вовремя подсуетился и выпустил Claude Cowork, который по факту является Desktop оберткой над Claude Code, и позволяет делать все тоже самое (в тч и vibe-кодить). Но судя по отзывам - вышло не очень: тратит много токенов, и не решает задачи до конца.
Опенсорс-альтернатива сына маминой подруги
А еще быстрее подхватил тему Валера Ковальский, который пилит опенсорс аналог - LocalDesk.
Это фактически бесплатный десктоп-ассистент для vibe-кодинга (в случае с работой через локальную модель), решающий проблему интерфейса.
Из ключевого:
- Открытый код (+ нет жесткой завязки только на Claude)
- Поддержка локальных моделей
- Работа с файлами (в тч PDF/DOCX)
- Память между сессиями (в отличии от того же Cowork)
- Поиск в интернетах
- И тд
Хотя я приверженец терминала, но даже мне понравилось. Думаю если поработаю в нем пару недель, уже не захочу возвращаться (и клетчатые рубашки перестану носить, да).
Однозначно буду советовать коллегам-"не разработчикам" внутри компании.
А когда будет большая волшебная кнопка, чтобы настраивалось все само - цены ему не будет.
Попробовать можно:
- из исходников LocalDesk (попросить тот же Warp собрать)
- из dmg (активно разрабатывается, поэтому может быть не самая свежая версия)
П.с. вообще рекомендую канал Валеры, приятно читать hands-on руководителей.
Как говориться "был подписан, когда это еще не было мейнстримом".
Tool Name Pattern
Кто-то писал что надо работать с названиями тулов, и поднимать таким образом качество работы агента
Проанализировал 4 топ кодовых агента(Cursor/Codex/Kilo/OpenCode), скормил своей нейронке в голове, и опусу, пришел к такому выводу на предмет названий тулов
Вышло как-то так как паттерн (есть еще рекомендации?)
Такой подход кратно увеличил качество выполнения моих тестов в LocalDesk на qwen3-4b-instruct-2507
————————————————————-
В структурном анализе есть понятие (комментарий от @silent_ai_cto)
Бизнес функция - деятельность, которую мы описываем. Название всегда будет глаголом или глагольным оборотом: «Подписать договор», «Проконтролировать качество упаковки», «Перевезти посылку»
Название = Действие + Объект + Уточнение(если они нужны)Читать полностью…
Вот Валер есть же куча таких сервис чего ты страдаешь?
Я вам скажу, есть возможность и есть желание делать
А если оно есть я его реализую это позволяет мне учится самому (причем лучше любых курсов)
Пока я делаю такой продукт и выкладываю в OSS мы вместе с вами проходим путь граблей где все это решили крутые больше ребята!
За последние 3 дня я изучил очень много и это дает мне буст!
🔍Империя наносит ответный удар 🍿
https://x.com/googledeepmind/status/2011848249850630363?s=46
Upd.
TranslateGemma is a family of lightweight, state-of-the-art open translation models from Google, based on the Gemma 3 family of models.
TranslateGemma models are designed to handle translation tasks across 55 languages. Their relatively small size makes it possible to deploy them in environments with limited resources such as laptops, desktops or your own cloud infrastructure, democratizing access to state of the art translation models and helping foster innovation for everyone.
Inputs and outputs
Input:
Text string, representing the text to be translated
Images, normalized to 896 x 896 resolution and encoded to 256 tokens each
Total input context of 2K tokens
Output:
Text translated into the target language
Тех.репорт тут.
Ну крч вы поняли, да?) Тут и текст и картинки. Это не игра в поддавки, и те кто хочет сменить лидера, должны это понимать везде. 👍
Cowork-Local-LLM
Cпустя 6 часов
Остался на локал Qwen3-30b
Из глобального
Добавил память
Добавил управление памятью
Добавил поиск в интернете
Сделал билд dmg для mac m1
Решил много проблем с контекстом и UI
Переработал тулы
Проработал изоляцию папки!
Добавил режим ask run tool (адекватно как на мой взгляд)
Поля explanation для каждого тула обязательны
Сандбокска для исполнения кода пока что нет
Версия exe и под линукс в процессе (билд но все еще можно запустится из исходников)
Уж очень мне зашел electronjs
Ссылка на релиз: https://github.com/vakovalskii/Cowork-Local-LLM/releases/download/v0.0.3/Agent.Cowork-0.0.3-arm64.dmg
Репо: https://github.com/vakovalskii/Cowork-Local-LLM
Кому такое полезно?
Как по мне тем кто не любит или боится кодовых IDE и не понимает CLI (попробовать точно стоит очень хорошие UI паттеры заложили ребята(и китайцы скопировали) на старте в Cowork)
Установить OpenClaw безопасно очень просто, для этого нужен простой... #meme
Читать полностью…
Что такое LocalTopSH? (очередной эксперимент в котором вы приняли участие)
Я сделал агента который живет в докер и умеет делать что угодно как Code Agent в рамках интеграций с телеграм
Cамое важное что он работает на gpt oss 120b (vLLM 0.14.1)
Что сделали вы?
1700 сообщений (попыток сломать агента, достать env, нагрузить CPU/RAM)
Создано 250+ правил для защиты ядра агента и расширен промпт на 30+ правил
Добавлено еще 7 тулов и агент выжил! (И сохранил функциональность всех своих навыков)
Перенес нашего универсального агента его в отдельный чатик /channel/localtopsh (все кто хочет продолжить его тестить велком)
Самое интересное тут база регулярок по защите агентов живущих внутри docker была написана агентом в цикле который следил за историей чата и логами и вашыми запросами
Применил метод эволюции через опус в цикле через курсор на хуках по времени!
Учимся у лучших
Clawd, Molt, Openclaw
Что это?
ReAct code agent через ваш любимый мессенджер с доступом к Linux системе и топовым моделям?
Абьюз подписок на СС/Codex?
Спойлер ДА
Но это не отменяет феномена что с таким вот интерфейсом обычный не power user смог оценить что такое Code Agent (я кстати этому очень рад)
И я согласен на 10000% что уникального в продукте/решение нет ничего от слова совсем
Но хайп очень и очень крутой!
Даже я бы сказал показательный но так как это реально ведет нас к новым и интересным кейсам и сценариям использования
Но мы же тут любители Local LLM и я с Пашей решил адаптировать ядро ValeDesk под gpt-oss-20/120b + docker + tg + sandbox что бы оно точно работало и отрабатывало около 30-40% того что умеют крутые большие модели в кодинговых/агентных сценариях!
Начали эксперименты с разворачивания gpt oss 120b на "стабильной 0.14.1" версии vLLM =)
Ждать релиз LocalTopSH тут (в Readme пока концепт, принимаем звезды авансом)
Паша уже запустил эксперимент по баунтихантингу уязвимостей у себя в чатике где отрабатывает наше агентное ядро!
Запись эфира про AI engineering:
📱 Ютуб
Презентации спикеров – в комментариях к посту
LocalDesk + Tauri + Skills + Sandbox + мощь всего сообщества
Кейсы
1) Люди пишут автоматизацию telegram на базе ollama + gpt oss 20b
2) Парсят директ инсты
3) Создают воронки на базе своих выгрузок по клиентам
4) Мержат таблицы
5) Создают docx фалы по работе
6) Ищут в интернете и заставляют DeepSeek работать по 15 минут над тасками(!)
7) Пишут код, тут же glm развивает сама же себя через интерфейс системы
8) Пилят свой маркетплейс скиллов
Тема получилась очень интересная и завораживающая, да и в целом мы за неделю сделали 200 коммитов
Цель сделать много фичей, мало тестов, так и вышло!
И тут к нам подключился Глеб Кудрявцев!, он за ночь переписал ядро системы с electron на tauri (это сократило размер билда в 3-4 раза а скорость работы увеличило в 1.5-2 раза) и дало возможность создать питон sandbox
Честно, я уже сам запутался, что теперь умеет LocalDesk, так как фичи летят со скоростью света (тесты будут точно!)
Закинул в коментарии скрины интерфейса и список фичей
Скоро в AppStore, а пока есть не подписанные dmg/exe
В общем ждите интеграции и новые skills на маркете
Репо: https://github.com/vakovalskii/LocalDesk
Встречайте релиз 0.6.0
Всем привет! Мы тут с новостями о проекте, с версии 0.5.0 проект был заметно прокачан.
1️⃣ В конфиге добавили возможность передавать tools и динамически подключать описанные там тулы из файлов рядом с конфигурацией, так как теперь поддерживаются относительные пути и механизм base_class умеет подтягивать не только классы агентов но ещё и tools.
tools:
list_directory_tool:
base_class: "tools.ListDirectoryTool"
read_file_tool:
base_class: "tools.ReadFileTool"
search_in_files_tool:
base_class: "tools.SearchInFilesTool"
image_url.IMG_PATH="chart.png"
MIME="image/png"
IMG_B64="$(base64 -w 0 "$IMG_PATH")"
curl -X POST "http://localhost:8010/v1/chat/completions" \
-H "Content-Type: application/json" \
-d '{
"model": "sgr-agent",
"messages": [{
"role": "user",
"content": [
{"type": "text", "text": "Analyze this chart and research the trends shown"},
{"type": "image_url", "image_url": {"url": "data:'"$MIME"';base64,'"$IMG_B64"'"}}
]
}],
"stream": true,
"temperature": 0.4,
"max_tokens": 1500
}'
# Качаем образ
docker pull ghcr.io/vamplabai/sgr-agent-core:latest
# Запускаем контейнер
docker run -d \
--name sgr-agent-backend \
-p 8010:8010 \
-v $(pwd)/config.yaml:/app/config.yaml:ro \
-v $(pwd)/agents.yaml:/app/agents.yaml:ro \
-v $(pwd)/logs:/app/logs \
-v $(pwd)/reports:/app/reports \
ghcr.io/vamplabai/sgr-agent-core:latest
SGRToolCallingAgent.
Кодинг-агент в телефоне (ч.1)
Частый вопрос в ИИ чатиках – как работать с ИИ агентом с телефона. Единственный стабильно рабочий совет, который я видел – ставить Claude Code на VPS и подключаться через termius.
Ниже инструкция:
1️⃣ Покупаем VPS. Топ: Hetzner, DigitalOcean. Дешман: RackNerd. В РФ – хз, посоветуйте в комментах
2️⃣ Настраиваем его с sudo доступом без пароля – чтобы агент мог делать все. VPS – по сути сэндбокс
Если вы не опытный пользователь linux, то просто открываем Claude Code локально и вставляем этот промпт для базовой настройки:
Помоги мне настроить VPS, чтобы запускать кодингового агента – проведи меня за ручку по всем важным этапам, а там где можешь выполнять команды самостоятельно (в т.ч. через SSH), делай это (но гранулярно, без огромных скриптов)
Требования:
Базовая настройка:
- Новый пользователь agent с sudo без пароля, чтобы агент мог сам запускать sudo-команды без интерактивного режима
- Доступ по ssh-ключу к новому пользователю agent (заранее сгенерируй ssh-ключи локально)
- Доступ к root-пользователю должен быть закрыт. Доступ по паролю – тоже
- Файерволл и fail2ban
Дополнительные настройки:
- Адекватная настройка bash history
- Swap 2GB
- Caddy
- uv для python и bun для javascript – через install.sh скрипты (найди в интернете)
- Docker + Compose v2 (добавить agent в группу docker)
ВАЖНО:
- Во время работы ты не должен получать доступ к секретам (пароль VPS, приватный ssh ключ, etc)
- Если что-то требует ввода секретных данных, то проси меня делать вручную
- В остальных случаях старайся использовать non-interactive режим, чтобы я участвовал в процессе минимально
- Задавай уточняющие вопросы, если есть что-то, что не прописано явно
ssh agent "printf '%s\n' 'ВСТАВЛЯЕМ СЮДА КЛЮЧ' >> ~/.ssh/authorized_keys"
curl -fsSL https://claude.ai/install.sh | bash
claude и получаем красоту на скрине выше.
Начинаем эфир через 5 минут:
https://www.youtube.com/live/7toDgSozmEs
Как жить этот грешный год
Сегодня совершенно неожиданно (ну простите!) пришло много людей, и пост в первую очередь для вас ❤️
Вокруг нас, в этой самой комнате, находится очень крутое русскоязычное комьюнити про GenAI
В основе его - удивительные люди, которые ведут каналы, пишут код, записывают стримы, выступают на конференциях и делятся опытом. Их не так много, человек 10-20
А вокруг них, еще несколько сотен человек, которые общаются в каналах, задают вопросы, вместе троллят релизы OpenAI, залезают в кишки фреймворков и рассказывают свои истории
Один из способов быть в теме, но не сойти с ума, следующий:
1. Каналы
Вы подписываетесь на базу, ядро комьюнити (список лично мой, с упором на практику, вы быстро найдете своих фаворитов):
- @neuraldeep
- @llm_under_hood
- @nobilix
- @evilfreelancer
- @the_ai_architect
- @dealerAI
- @oestick
- @ilia_izmailov
- @cryptoEssay
- @gleb_pro_ai
Лучше даже создать отдельную папку, и туда сложить всё это золото. Каждый автор - уникален, кто-то может закатать рукава и сделать свой claude cowork на локальных моделях за два вечера, кто-то строит соревновательные платформы для агентов, кто-то читает новые публикации и рассказывает по простому обычным смертным, кто-то угорает по осознанному вайбкодингу и показывает как будет выглядеть профессия кодера через годик. Просто авторов, делающих обзоры новостей тут нет
2. Чаты
Каналы, это лишь треть успеха. Они позволяют не пропустить что-то важное и громкое, но мякотка всегда раскрывается в чатах. Именно в чатах люди задают вопросы, а авторы поясняют по фактам, именно туда разные люди несут свои мнения (и получают бан 🤣), именно там чаще всего происходит процесс осознания нового. И не молчите там - задавайте вопросы, отвечайте, кидайте мемы, спорьте!
Поэтому создаем вторую папку и складываем туда чаты групп:
- @neuraldeepchat
- @llm_driven_products
- @nobilix_chat
- @evilfreelancer_chat
- @the_ai_architect
Чатов сильно больше, но не у всех есть паблик ссылки
Зачем папки? Наверное, есть любители держать все в общем списке каналов, но при этом нужна железная сила воли, чтобы постоянно не отвлекаться. А тут можно выделить хоть 10-15 мин вечером, и скушать все за раз
3. Практика
Ищите в информационном потоке интересное, и пробуйте, пробуйте, пробуйте. Если вы вдруг увидели что-то классное, да так что ладошки вспотели - найдите время установить/поиграться/пощупать!
Все мои самые интересные моменты прошлого года были как раз случайными порывами, из которых потом вырастало нечто большее. Внедрить ответы по RAG в большой продукт, организовать хакатон по написанию mcp, написать в отпуске агента выделяющего сегменты пользователей, голосовые агенты, расшифровки диалогов, erc3, вкусвилл ботик - все эти ниточки давали в итоге бесценный опыт и знакомили с потрясающими людьми
Была и куча фейлов, и потраченного времени, и невзлетевших проектов, и это тоже опыт - вы быстро поймете что не сработало, и в след раз не вляпаетесь
Короче - ищите то, что нравится и хватайтесь за это. А раз вы оказались здесь, значит вам нравятся AI и агенты, и нет более sexy области сейчас
Всех обнял 😘
LocalDesk 0.0.6 — Полный контроль без API-ключей
Йоу! Неделя выдалась жаркой
70+ коммитов, первые серьезные контрибьюторы и куча киллер-фич которые меняют правила игры
Что произошло
Пока я чинил баги с Telegram парсингом и TodoPanel, @abhaymundhara https://github.com/abhaymundhara принёс подарок 25 новых тулов без API-ключей
А @ChernovDev /channel/ChernovDev вообще красавчик допиливал софтину прямо внутри её же чата через Z.AI
Его вклад: интеграция Z.AI (reader + web search), рендеринг markdown таблиц, session-based todos, много-поточные задачи, отслеживание изменений через git, spell check, UI улучшения
Это именно то как должен развиваться опенсорс ребята приходят и делают то на что у тебя руки не дошли
Новые тулы
DuckDuckGo Search 3 тула для поиска без API ключей: search, search_news, search_images
Browser Automation 11 тулов: navigate, click, type, select, hover, scroll, press_key, wait_for, snapshot, screenshot, execute_script
Git Integration 11 тулов: status, log, diff, show, branch, checkout, add, commit, push, pull, reset
HTTP/Fetch 4 тула: fetch, fetch_json, download, fetch_html
Tool Groups включай только нужное
Все новые тулы по умолчанию выключены, в Settings появилась секция Tool Groups
Зачем? Меньше тулов в контексте = модель лучше выбирает нужный, экономия токенов, меньше галлюцинаций
Базовых тулов 14: файловые операции, execute_js, render_page, manage_todos, search_web
Tool Name Pattern
Проанализировал 4 топ кодовых агента (Cursor/Codex/Kilo/OpenCode), скормил опусу, пришел к паттерну именования
Название = Действие + Объект + Уточнение
Примеры: read_file, write_file, search_text, execute_js, manage_todos
Такой подход кратно увеличил качество выполнения тестов на qwen3-4b-instruct-2507
Комментарий от @silent_ai_cto: в структурном анализе бизнес функция всегда глагол или глагольный оборот "Подписать договор", "Проконтролировать качество"
Мои фиксы
Telegram: посты берутся с новейших, пофиксил fallthrough баг
Todos: не теряются между сессиями, dynamic system prompt — отключенные тулы скрыты от модели
Core: MIT лицензия, request timeout 5 минут, loop detector, broadcast статусов
Репо: https://github.com/vakovalskii/LocalDesk
Поиск без API-ключей для локального запуска, теперь можно поднять агента имея только vLLM/Ollama, ноль внешних зависимостей
Ставьте звёзды на репо если зашло!
(Скрины сервиса /channel/neuraldeepchat/33421)
Just For Fun!
Агент == Бизнес-функция. Инженерный подход к проектированию
Рассмотрим проектирование агента поиска товаров в маркетплейсе по бенчмарку Store с ERC3. Попробуем подойти к проектированию агента с точки зрения структурного анализа.
Сначала посмотрим на схему #1 — из каких компонентов состоит Агент. Не буду их описывать, думаю вы и так понимаете, что они означают… НО что-то это напоминает… хм…
Да это вылитая схема IDEF0 (см. схему #2 для понимания) по описанию бизнес-функций! Слева вход — запрос пользователя или другого агента, сверху инструкции, правила поведения и навыки, снизу инструментарий для выполнения бизнес-функции, ну а справа выход.
Если смотрели выступление Ильи у Валеры, то вспомните: он применил схему оркестратора с саб-агентами для решения бенчмарка store, и один из таких агентов был агент по поиску товаров, использующий ручку API /products/list (см. схему #3).
Давайте теперь опишем данного саб-агента с помощью методологии IDEF0:
1. Определим бизнес-функцию нашего агента как «Подобрать товар» — анализ каталога товаров и выявление позиции, соответствующей запросу.
Мы выбираем «Подобрать», а не просто «Найти» или «Сканировать», потому что агент выполняет сложную когнитивную работу: он не просто делает запрос в базу (как поисковик), а итеративно сканирует каталог, фильтрует результаты в памяти и валидирует их на соответствие нечетким критериям пользователя.
«поисковый запрос с критериями фильтрации» — текстовая строка на естественном языке, содержащая как намерение («найди»), так и ограничения («дешевле 500», «красный»). Пример: «Нужна игровая видеокарта не дороже 60000 рублей, желательно Asus».
Evaluation Dataset.get_product_list. В нашем случае это будет простая обертка вокруг API /products/list. Мы осознанно не упоминаем в механизмах LLM, так как это больше НФТ (нефункциональное требование), нежели бизнес-требование.
Важно: мы не отбираем у исследователей работу с промптом, но указываем в требованиях общие рекомендации.
Рекомендую сразу размышлять над негативными сценариями: как мы будем обрабатывать ошибки.
OpenAI добавляет рекламу в ChatGPT 😐
16 января OpenAI анонсировали что в ближайшие недели в ChatGPT появится реклама для free и Go (который $8/месяц) пользователей в США. Подписки Plus, Pro и Enterprise останутся без ads. И не-US пользователей это не касается - по крайней мере пока что 😎
Это важный момент, потому что даже самые идеологичные компании в итоге приходят к рекламе когда burn rate становится невыносимым 💀
Но давайте по порядку 😧
OpenAI потерял $11.5B только в Q3 2025, при этом у них $1.4 trillion commitments на AI инфраструктуру на следующие 8 лет. Это астрономические деньги которые нужно как-то окупать 😠
При этом только ~5% пользователей (35M из 700M weekly users) платят за подписки А вы кстати платите? 😂
Для сравнения Google делает $74B revenue от рекламы в квартал, Meta $50B - реклама это cash cow для примерно всего 😮
Как это будет работать? 🧠
Ads будут внизу ответов, контекст будет по диалогам - если спрашиваешь про кето-диету, увидишь рекламу авокадо масла, рецепт супа - доставку еды. На самом деле это отличный канал, потому что пользователь по сути сам говорит в чем он сейчас заинтересован. Информации пока мало, но потенциально для Aesty это интересная возможность, так как многие советуются про одежду 😏
Конечно тут есть огромные риски для OpenAI, связанные с прайваси 👋
Диалоги в ChatGPT бывают очень личные и hyper-targeting на основе этого может быть "uniquely unsettling" как говорил сам Альтман. Действительно, обсуждая например психологию последнее что я хочу увидеть в моменте - рекламу курсов по разрешению конфликтов или типа того 😅
Я думаю, что это еще один прецедент в копилку историй, где даже самые передовые AI продукты будут искать способы монетизации через рекламу, потому что compute costs астрономические, а большинство пользователей не хотят платить 😡
@neural_prosecco
LocalDesk Релиз 0.0.5
Из интересного, я наконец переехал на CC полностью
На 80 процентов релиз подготовлен CC (между звонками я редко следил за процессом, и проверял в ручную запуская сервис)
Прошел с ним полноценный цикл планирования разработки фичи(sandbox), разработка, сборка, тесты, релиз)
https://github.com/vakovalskii/LocalDesk/releases/download/v0.0.5/LocalDesk-0.0.5-arm64.dmg
Допом:
Пофиксил много багов с тулами
Изменил юзер флоу
Встроил js sandbox
Стабилизировал память
Отображение ошибок
Репо: https://github.com/vakovalskii/LocalDesk
Cowork-Local-LLM exe?
Очень осторожно выложил exe (баги точно будут)
https://github.com/vakovalskii/Cowork-Local-LLM/releases/download/v0.0.4/Agent.Cowork.0.0.3.exe
Cowork-Local-LLM
Вставлю еще 10 копеек своих в эту историю
Решил пару интересных задач
Как запустить на windows
Как перебить на openai-sdk
Как перебить на vllm/ollama
Как запустить на qwen3-30b-a3b-instruct-2507
Точно все будет криво так как для vLLM/ollama пришлось отказаться от Claude Agent SDK (будем исправлять)
https://github.com/vakovalskii/Cowork-Local-LLM
Поставить звезду не возбраняется