2604
Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb
Claude раскатали фичу - миниаппы внутри диалогового окна.
выглядит удобно.
#Claude
———
@tsingular
Андрей Карпатый о кодинге с LLM
Андрей Карпатый, - поделился размышлениями о текущем состоянии разработки с ИИ:
Смена парадигмы: За несколько недель автор перешёл с 80% ручного кодинга на 80% агентного — теперь он буквально «программирует на английском».
Ошибки моделей: LLM делают не синтаксические, а концептуальные ошибки — как торопливый джуниор. Делают неверные допущения, не уточняют, раздувают код, не чистят за собой.
Упорство агентов: Агенты не устают и не сдаются — могут биться над задачей 30 минут и победить там, где человек бы давно бросил.
Не только ускорение, но расширение: Главный эффект — не «быстрее делаю то же», а «делаю то, что раньше не стал бы или не смог».
ИИ как рычаг: Максимум пользы — когда задаёшь критерии успеха, а не инструкции. Писать тесты → потом проходить их. Декларативный подход вместо императивного.
Стало веселее: Рутина уходит, остаётся творческая часть. Меньше ощущения «пробуксовки».
Атрофия навыков: Способность писать код вручную начинает угасать — генерация и чтение кода задействуют разные навыки.
«Слопакалипсис» 2026: Ожидается вал низкокачественного AI-контента на GitHub, arXiv, соцсетях.
Открытые вопросы: Вырастет ли разрыв между средним и топовым инженером? Победят ли генералисты специалистов? Чем станет кодинг — игрушкой типа StarCraft, Factorio или больше будет похоже на написание музыки?
Но самое прикольное, что народ тут же переделал этот манифест ... тадааамм...
В СКИЛЛЫ ДЛЯ КОДОВЫХ АГЕНТОВ!!! :))
https://github.com/forrestchang/andrej-karpathy-skills
Т.е. все опасения Анрея тут же обработали и пустили в дело и теперь есть дополнительные рельсы, чтобы кодовые агенты не допускали ошибок о которых он написал! :)
what a time to be alive!
#Карпатый #тезисы #skills #dev
———
@tsingular
Ollama теперь поддерживает Moltbot (ex Clawdbot)
делай раз:
npm install -g moltbot@latest
moltbot onboard --install-daemon
ollama launch moltbot
Kimi-K2.5: новая SOTA модель от MoonshotAI
- 1T параметров,
архитектура MoE с активацией 32B,
384 эксперта,
контекст 256K токенов.
Мультимодальная модель с поддержкой текста, изображений и видео.
HLE-Full 30.1
HLE-Full (w/ tools) 50.2
AIME 2025 96.1
HMMT 2025 (Feb) 95.4
IMO-AnswerBench 81.8
GPQA-Diamond 87.6
MMLU-Pro 87.1
Требует 600-800 GB памяти в BF16, сжимается до 150-200 GB через INT4.
Пробовать тут: https://www.kimi.com/
Лицензия MIT.
#Kimi #Moonshot #Китай
———
@tsingular
Microsoft окончательно сломала Windows 11 — после свежего обновления система у многих просто не запускается
Раньше не работали отдельные кнопки, а теперь сломалась вся система. Вместо запуска появляется чёрный экран с ошибкой. Приходится восстанавливать всё вручную — проблема в последних обновлениях KB5074109 (25H2) и KB5074109 (24H2).
Навайбкодили, так сказать
Администрирование ИИ в начале 2026
AGI :)
#ClawdBot #AGI #юмор
------
@tsingular
Тут в деталях разобрали, что входит в 200$ подписку на Claude Code:
За 200$ вы покупаете $2708 аналога трат по API,
За 100$ – $1354
За 20$ – $163
При этом, все обращения в кеш диалога от клод кода стоят 0 денег – что делает эти подписки еще более секси; по API кэшированные запросы стоят 10% от стоимости на каждое чтение (кэширование запросов это когда у вас история чата с LLM не меняется и увеличивается от каждого хода, вот ее провайдеры API продают со скидкой – иначе дорого выходит)
В итоге, получается, что тарифный план за 100$ выгоднее API почти в 37 раз (!) – не понимаю как любой стартап может конкурировать с этим, строя своего кодинг агента ☕️
Тут все расчеты:
https://she-llac.com/claude-limits
WooYun Legacy: 88 тысяч реальных уязвимостей как навык для Claude
Вайбкодим безопасно.
Пример подхода.
Китайская команда выложила навык для Claude Code, основанный на архиве WooYun — 88,636 реальных уязвимостей, найденных с 2010 по 2016 год.
После установки в ~/.claude/skills/ модель начинает думать как опытный пентестер. Датасет весит 86MB, покрывает 15 типов атак: SQL-инъекции (27%), выполнение команд (19%), XSS (11%).
Конечно, я НЕ РЕКОМЕНДУЮ устанавливать китайский скилл с уязвимостями не глядя, тем более там все на китайском :)
Но, как пример подхода,- полезно изучить.
#WooYun #claudecode #skills #cybersecurity #Китай
------
@tsingular
Clawdbot: еще один персональный ИИ-ассистент на вашем компьютере
Вы -таки будете смеяться, но у нас ещё один оупенсорсный персональный ИИ помощник по типу Cowork.
Clawdbot — opensource ИИ-помощник, который работает на вашем железе (Mac, Windows, Linux) и доступен через WhatsApp, Telegram, Discord, iMessage.
Установка через одну команду: curl | bash ставит Node.js и всё остальное автоматом.
Возможности:
- Полный доступ к системе: чтение файлов, запуск команд, скриптов
- Управление браузером: заполнение форм, парсинг данных
- Постоянная память: контекст сохраняется 24/7
- Расширяемость: community-навыки или пишет сам себе
Поддерживает Claude, GPT, локальные модели. Работает с Gmail, календарями, GitHub, Spotify, Obsidian — 50+ интеграций.
Из отзывов пользователей:
- Автоматически настроил OAuth в Google Cloud Console
- Управляет компаниями целиком
- Запускает тесты через Sentry webhook и открывает PR
- Создаёт сайты с телефона за минуты
GitHub
MS Copilot в шоке курит в сторонке.
#Clawdbot #OpenSource #Cowork
———
@tsingular
Этот таймлайн обречён.
#юмор #часы #claudecode
------
@tsingular
Вообще, конечно, вся эта история с вайбкодингом мультиагентами создаёт определённое ощущение казино.
Давишь на копку "ГЕНЕРИРОВАЙ" и получаешь быстрый дофамин.
Т.е. люди, которые были далеки от гэмблинга, оказались втянуты в него по уши, по сути.
Причём легально.
#мысли #казино
———
@tsingular
Claude в Excel: ИИ-ассистент для таблиц
Anthropic выпустил интеграцию Claude в Excel для пользователей Pro, Max, Team и Enterprise планов.
Функции:
- Объяснение формул с цитированием конкретных ячеек
- Тестирование сценариев с сохранением зависимостей
- Отладка ошибок #REF!, #VALUE!, циклических ссылок
- Создание моделей и заполнение шаблонов
Примеры промптов для работы:
Простой технический
Почему в ячейке G145 при расчете чистой приведенной стоимости (NPV) отображается ошибка #VALUE!?
Какие предположения лежат в основе прогноза выручки в третьем квартале?
Увеличь темпы роста выручки на 2% и покажите влияние этого изменения на остаточную стоимость компании.
👨🔬🔬 Более 50 научных статей NeurIPS 2025 оказались "халтурой", содержащей 🦠галлюцинации ИИ-моделей
Январь 2026 года ознаменовался громким скандалом вокруг обнаружения более 50 научных работ с грубыми ошибками со стороны LLM на престижной конференции NeurIPS*.
NeurIPS 2025* — международная площадка, на которой обсуждаются прорывные исследования в области искусственного интеллекта, машинного обучения, статистики, оптимизации и смежных дисциплин. Проводится ежегодно с 1987 года и традиционно привлекает учёных, исследователей, инженеров, разработчиков и представителей индустрии из десятков стран.
Команда исследователей GPTZero проанализировала 4841 научную работу с прошедшей конференции NeurIPS 2025 и выявила более 100 подтвержденных случаев выдуманного цитирования в 53 уже опубликованных статьях.
Анализ команды GPTZero выявил то, что исследователи из ведущих мировых центров вроде Нью-Йоркского университета, Google DeepMind и MIT допустили публикацию сгенерированного текста с вымышленными фактами и даже не перепроверили текст на галлюцинации.
Например, в одной из работ зафиксирован рекорд из 13 галлюцинаций со ссылками на несуществующие препринты формата arXiv:2305.XXXX и авторов с шаблонными именами Firstname Lastname. Команды из UCSD и NVIDIA в своих библиографических списках на полном серьезе ссылаются на вымышленных персонажей John Smith и Jane Doe.
Ещё ИИ-модели создают правдоподобно выглядящие, но несуществующие источники путем смешивания реальных элементов. Алгоритм берет имена настоящих ученых и приписывает им работы, которые они никогда не писали, или же соединяет реальный заголовок с вымышленным списком авторов.
Третий тип ошибок связан с неверной атрибуцией реально существующих работ. ИИ-решения часто правильно указывают авторов и название исследования, но ошибаются в месте его публикации (например, указывают конференцию NeurIPS вместо ICLR) или годе выпуска. В отчете зафиксированы случаи, когда статья 2024 года цитируется как опубликованная в 2020 году. Такие ошибки сложнее всего отследить, так как сама научная работа существует, но ссылка на нее в контексте статьи является фактологически неверной.
🧹 Содержащие информационный мусор доклады были успешно презентованы аудитории в 20 000 человек в декабре 2025 года.
🤔 Алекс Цуй из GPTZero справедливо задается вопросом о том, что "если авторы не проверяют, что ИИ пишет в их статьях, то как вы можете доверять тому, что их экспериментальные результаты или данные также не сфабрикованы ИИ?".
Просто невероятно, что они прошли рецензирование!
И к российским новостям:
Депутаты Госдумы готовят законопроект, предусматривающий запрет на использование технологий синтеза человеческого голоса при телефонных обзвонах. Современные нейросети способны воспроизводить речь, неотличимую от речи живого человека, из-за чего становится практически невозможно определить, кто находится на другом конце линии — алгоритм или реальный собеседник. Этой уязвимостью всё чаще пользуются мошенники.
@banksta
Помянем TTS
#Россия #законы #TTS
------
@tsingular
Cursor 2.4: январское обновление
Cursor выпустил мощное обновление с субагентами, генерацией картинок, отчетом о том, кто писал код и фоновыми уточняющими вопросами.
Субагенты — независимые агенты для отдельных подзадач. Работают параллельно со своим контекстом, инструментами и моделями. Из коробки: исследование кодовой базы, терминал, параллельные потоки работы. Можно создавать кастомных агентов.
Генерация изображений — прямо из агента через Google Nano Banana Pro. Описываешь текстом или загружаешь референс → получаешь превью и файл в assets/. Полезно для UI-мокапов, диаграмм архитектуры и презентаций.
Cursor Blame (Enterprise) — расширение git blame с AI-атрибуцией. Показывает что написал человек, что Tab completion, что агент (с разбивкой по моделям). Каждая строка линкуется на контекст разговора, который её породил.
Теперь точно можно посчитать в граммах сколько написал челок, а сколько ИИ.
Фоновые уточняющие вопросы — агент может задавать вопросы в любом режиме (не только Plan/Debug). Пока ждёт ответа,- продолжает читать файлы и делать правки.
По сути, Cursor движется к полноценной оркестрации мультиагентной системой внутри редактора, - каждая подзадача получает специализированного исполнителя.
В принципе, Manus можно отменять.
#Cursor #Subagents #Blame
———
@tsingular
да, но... :)
Приму в дар Max подписку, короче. (не мессенджер)
шутка. уже купил.
#Claude #Molty
———
@tsingular
Молти (Clawd) на Claude Opus 4.5 создает полное ощущение AGI
P.S. на графике отмечены все, кто еще не попробовал :)
#clawdbot #Molty #AGI #Claude
------
@tsingular
🤣 Лолшто! :) Clawdbot теперь Moltbot
якобы Антропик потребовал смены нейминга, чтобы не было путаницы с Claude
перезапоминаем :)
#Clawdbot #Moltbot #Anthropic
———
@tsingular
⚡️ OpenAI Town Hall: что было на трансляции.
Пока ну почти все спали, Сэм Альтман провел анонсированный ранее стрим для разработчиков ИИ.
В течении часа глава OpenAI отвечал на вопросы и рассказывал про видение ИИ сейчас и в будущем. Главный тезис стрима:
Мы входим в эпоху "радикального изобилия", где интеллект станет слишком дешевым, чтобы его измерять.
Сэм Альтман прогнозирует, что к 2027 году стоимость инференса упадет в 100 раз, а модели уровня GPT-5.ХX станут основой для создания сложнейшего софта силами одного человека.
Основным дефицитным ресурсом останется человеческое внимание и способность генерировать качественные идеи.
Стройте продукты, предполагая, что GPT-6 будет «невероятным». Если ваш бизнес выиграет от новой модели - вы на верном пути. Если модель его съест - это плохой путь.
Софт-скилс - самые важные навыки сейчас: высокая субъектность, способность генерировать идеи, устойчивость и адаптивность.
Альтман советует амбициозным разработчикам ИИ уходить из университетов, так как текущая академическая среда не успевает за темпами индустрии.
Используйте ИИ как безлимитного аспиранта или партнера по брейн-шторму для проверки тысяч идей в режиме "поиска в ширину".
Так, тут по всему инету начинают гулять истории как ломают Clawdbot инсталляции.
Народ почему-то абсолютно игнорирует правила ИБ гигиены, как дети ей богу.
Ну если вы не разбираетесь в информационной безопасности, попросите Clawdbot самому дыры позакрывать.
Скажите ему nmapом порты посканить, конфиги все на предмет утечек проверить, fail2ban настроить и т.д.
С ним же не нужно самому быть ИБшником уже.
Необходимый минимум он сам настроит.
Дайте ему доки разрабов почитать в конце концов:
https://docs.clawd.bot/gateway/security
(кстати, неплохой документ, рекомендую глазками посмотреть)
и вот еще:
Sandboxing
Clawdbot can run tools inside Docker containers to reduce blast radius. This is optional and controlled by configuration (agents.defaults.sandbox or agents.list[].sandbox). If sandboxing is off, tools run on the host. The Gateway stays on the host; tool execution runs in an isolated sandbox when enabled.
https://docs.clawd.bot/gateway/sandboxing
#Clawdbot #cybersecurity
———
@tsingular
🧠 Qwen3-Max-Thinking — флагманская reasoning-модель от Alibaba
Alibaba выкатила свой ответ GPT-5.2-Thinking и Claude-Opus-4.5.
По бенчмаркам — на уровне топов, местами обходит.
Ключевые цифры:
- Arena-Hard v2: 90.2 (GPT-5.2: 80.6, Claude-Opus-4.5: 76.7)
- HMMT Feb 25: 98.0 (математика олимпиадного уровня)
- HLE w/ tools: 49.8 — лучший результат среди всех
- SWE Verified: 75.3 (Claude пока ведёт с 80.9)
Что умеет:
Adaptive tool-use — модель сама решает когда дёргать Search, Memory, Code Interpreter
Test-time scaling через "take-experience" механизм — вместо тупого увеличения параллельных траекторий, модель накапливает инсайты между раундами
Результат: GPQA 90.3→92.8, LiveCodeBench 88.0→91.4
Интеграции:
OpenAI-совместимый API (qwen3-max-2026-01-23)
Anthropic API protocol,- работает с Claude Code из коробки
Попробовать: chat.qwen.ai
GLM 4.7 устарела :)
#Qwen #Alibaba #Китай
———
@tsingular
OpenAI на PostgreSQL обрабатывают миллионы запросов в секунду
OpenAI рассказали, как один инстанс PostgreSQL тянет нагрузку от 800 миллионов пользователей ChatGPT.
Архитектура: один primary сервер на Azure PostgreSQL + почти 50 read-реплик по всему миру.
Лаг репликации - почти нулевой, p99 латентность - низкие десятки миллисекунд, доступность 99.999%.
Главная проблема - MVCC PostgreSQL создаёт копию всей строки при каждом апдейте.
При высокой нагрузке на запись это генерирует мёртвые кортежи и раздувает индексы.
Ключевые решения:
- PgBouncer для пула соединений — время подключения упало с 50 до 5 мс
- Нагрузку с частой записью вынесли в CosmosDB (там уже разбито на сегменты)
- Блокировка кэша — при ошибке только один запрос идёт в базу, остальные ждут
- Изоляция нагрузки — критичные и фоновые запросы на разных серверах
- Ограничение частоты запросов на всех уровнях: приложение, пул соединений, прокси, запросы
- Разрешены только лёгкие изменения схемы — те, что не требуют перезаписи таблицы целиком (например, добавление колонки). С таймаутом 5 секунд (если легкие изменения не завершаются за это время - откат).
- Новые таблицы запрещены — всё новое идёт в сегментированные системы
Единственный критический инцидент за год — при запуске генератора изображений, когда 100+ млн пользователей пришло за неделю и поток записи вырос в 10 раз.
детали читаем тут
#PostgreSQL #OpenAI #SWE
———
@tsingular
Дрон с винтовкой: 100% попаданий на 100 метрах
Китайская армия испытала беспилотник с обычной штурмовой винтовкой, который на зависании с 10 метров поразил мишень размером 50×50 см всеми 20 выстрелами с дистанции 100 метров.
Половина пуль легла в радиус 11 см — размер головы человека.
Разработка Wuhan Guide Infrared совместно с Академией спецопераций армии КНР.
Единственный промах на 50 метрах объяснили бракованным патроном — пуля задела край мишени.
Точность практически как у винтовки на станке, только летает.
#drone #Китай #military
———
@tsingular
Waypoint-1: Open-source генератор игровых миров в реальном времени
Стартап Overworld, основанный выходцами из исследовательской команды Stability AI, выложил в опенсорс Waypoint-1 — две модели (2.3B и 6.1B) для генерации интерактивных миров по текстовому промпту. Чуваки также привлекли $4.5 млн в pre-seed раунде.
Я попробовал, в целом выглядит как любой другой диффузионный генератор миров, работающий в реальном времени. Прорыва нет, но это опенсорс!
Но главная фича — это производительность: младшая модель способна работать на потребительских GPU, выдавая 30 FPS при генерации в 4 шага и аж 60, если генерить в 2 шага при разрешении 360p.
Кстати, из прикольного: для сбора данных разрабы платят по $5 в час за запись геймплея целого ряда игр через их специальную софтину.
Демо
Демо на Gradio
Блог
Веса
@ai_newz
Ollama launch: *code агенты и GLM
Ollama выпустила команду launch — автоматический запуск инструментов вроде Claude Code, OpenCode, Codex и Droid без возни с переменными окружения.
Скачал Ollama v0.15+, выполнил ollama pull glm-4.7-flash (требует ~23 ГБ видеопамяти при контексте 64K токенов), затем ollama launch claude — и всё работает.
Доступны локальные модели (glm-4.7-flash, qwen3-coder, gpt-oss:20b) и облачные версии с полным контекстом (glm-4.7:cloud, minimax-m2.1:cloud, qwen3-coder:480b-cloud).
Для тех, кто не тянет локально, — облачный сервис с 5-часовыми сессиями кодинга даже на бесплатном тарифе.
Ollama что ты делаешь, ахаха, прекрати!
Как сказать что твой коллектив вайбкодит, не говоря, что твой коллектив вайбкодит?
Релизы каждый день!
#Ollama #claudecode #opencode #GLM
———
@tsingular
[Музыка]
Йоу, добро пожаловать, разработчики! Заходите!
Любители ИИ агентов и их навыков!
Давайте покажем вам лучшую подборку скиллов — это просто бомба!
https://skills.sh/
Итак, у нас есть
.claude/skills,
.cursor/skills,
.opencode/skills,
.codex/skills,
.github/skills — выбирай под свой ИИ!
Context7 Skills теперь есть
Есть скиллы для фронтенда, скиллы для бэкенда, скиллы для девопса!
Есть горячие скиллы, холодные скиллы, есть скиллы с багами, есть с вирусами скиллы!
Есть скиллы для docx, скиллы для pptx, скиллы для xlsx!
Шёлковые скиллы, бархатные скиллы, даже скиллы для генерации картинок есть!
Скиллы для Go, скиллы для JS, скиллы для Python — всё есть!
Заходи, хочешь скиллы — заходи, любитель ИИ агентов!
Если у нас этого нет — тебе это и не нужно!
#skills #fromdusktilldawn #юмор
———
@tsingular
Фантастика нынешнего дня в том, что не погружаясь в детали программирования и математических алгоритмов сегодня можно быстро накидать прототип на JS, затем ускорить его в 1000 раз, переписав на Go, не зная особо Go, а затем ускорить еще в 1000 раз просто обсудив оптимизацию алгоритма с ИИ не копаясь в формулах и библиотеках.
Итого 250 наносекунд на обработку 1 изображения :)
Без видеокарты. Просто на vCPU.
#dev #фото
------
@tsingular
🤓Самые полезные и результативные идеи чаще всего простые
Интересный инсайт от Han Xiao, VP AI @ Elastic. Ввиду того, что эмбеддинги лежат на сферической поверхности, простой трюк с переводом декартовых координат в сферические, позволяет значительно снизить объём памяти для их хранения: 240 ➡️ 160 Gb, при этом ошибка восстановления составляет всего 1e-7.
Без обучения, без кодбуков и работает на текстовых, картиночных и мультивекторных эмбеддингах💪
🐳 Docker Model Runner + OpenCode, - гайд по сборке безопасной среды для локальной ИИ разработки
Докер выпустили пошаговую инструкцию как скрестить opencode в контейнере с DMR и крутить модели и ИИ разраба локально в изолированной среде.
Docker Model Runner (DMR) при этом позволяет обеспечить:
- Локальный хаб-прокси для LLM с OpenAI-совместимым API
- Прямой пулл моделей с HuggingFace + автоконверсия в OCI-артефакты
- Переупаковка с кастомными параметрами (контекст, квантизация)
- Пуш в приватный registry → единый источник моделей для команды
Чем-то похоже по функционалу на ollama
# пулл с HuggingFace
docker model pull huggingface.co/unsloth/Ministral-3-14B-Instruct-2512-GGUF
# кастомизация контекста
docker model package --from gpt-oss --context-size 128000 gpt-oss:128K
localhost:12434, версионирование моделей как артефактов, стандартизация в команде без ручной настройки у каждого.
Shut up, and take my money!!!
Мониторинг работы *code агентов теперь выглядит так 👍
Причём стоять они должны у начальника 😂
#claudecode #игрушки
------
@tsingular