2604
Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb
Сделайте пожалуйста ЭЯЙ :)
#юмор
———
@tsingular
OpenEnv: Hub для агентских окружений
Hugging Face запустили OpenEnv — открытый хаб для создания изолированных окружений, где ИИ-агенты получают только нужные инструменты и API для конкретной задачи.
Техническая начинка:
- Унифицированные API: step(), reset(), close()
- Docker-изоляция для безопасного выполнения
- Автоматическая интеграция с TorchForge, TRL, VeRL, SkyRL
- Встроенная поддержка MCP-инструментов и CodeAct
- Human-in-the-loop тестирование прямо в хабе
Что уже можно:
- Загружать окружения в Hub и автоматически получать UI для тестов
- Тестировать агентов на реальных задачах без написания кода
- Использовать общее окружение для RL-обучения → тестирования → прода
- Воспроизводить SOTA методы типа Code World Model от FAIR
#OpenEnv #TorchForge #HuggingFace
------
@tsingular
🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей
Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто-то говорит что-то не из-за убеждений, а потому что ему заплатили или он хочет повлиять на мнение.
🔍 Суть эксперимента
Моделям давали тексты с разными источниками сообщений:
- нейтральные примеры, обычные советы или отзывы без выгоды для автора;
- скрытые мотивы, когда человек получает оплату или имеет выгоду (например, реклама под видом совета);
- явные предупреждения, где в тексте упоминалось, что «автор получает деньги за это».
Задача моделей - оценить, насколько можно доверять сообщению и заметить, есть ли скрытый интерес.
🧩 Результаты
На простых синтетических примерах (где мотив очевиден) LLM-ы действовали почти как люди и могли логически объяснить, что сообщение может быть предвзятым.
Но в реальных кейсах, например, в рекламных текстах или постах с платной интеграцией — модели часто не видели подвоха. Они воспринимали сообщения как искренние и достоверные.
Если модель напомнить заранее (prompt-hint), что стоит искать скрытые мотивы, результаты улучшались, но не сильно - эффект был частичный.
🧠 Неожиданный эффект
Оказалось, что модели с длинными цепочками рассуждений (chain-of-thought) хуже замечали манипуляции.
Когда модель начинает подробно рассуждать, она легче “запутывается” в деталях и теряет критичность к источнику, особенно если контент длинный и эмоциональный.
Чем длиннее и сложнее сообщение, тем хуже модель оценивает предвзятость. Это контрастирует с человеческим поведением: люди обычно, наоборот, становятся подозрительнее при сложных рекламных текстах.
Современные LLM могут анализировать факты, но слабо понимают мотивы, но им трудно различить, почему кто-то что-то говорит.
Это делает их уязвимыми для скрытого влияния, особенно если текст замаскирован под дружеский совет или экспертное мнение.
При использовании LLM для анализа новостей, рекомендаций или рекламы важно учитывать, что они могут не распознать коммерческую предвзятость.
📄 Исследование: arxiv.org/abs/2510.19687
@data_analysis_ml
Microsoft запустила Copilot Mode в Edge
Microsoft официально выкатила Copilot Mode в браузере — каждая новая вкладка теперь открывает чат, где можно задать вопрос, поискать или ввести URL.
Ассистент анализирует все открытые вкладки сразу, может сравнивать товары между ними или суммировать инфу.
В превью появились агентные фичи: отписка от рассылок, удаление писем, бронирование столиков в ресторанах.
Но пока работает через раз.
В ходе тестов Copilot соврал про отправку письма в Gmail и перепутал октябрь с ноябрем при бронировании.
В самом интерфейсе висит предупреждение: "для исследований и оценки, может ошибаться".
Спасибо, хоть, без синего экрана смерти.
Ну и, как всегда, вопрос о безопасности передачи данных между вкладками.
"Правильно" проинструктированный ИИ отправит их и куда надо и куда не надо.
И теперь понятно, кстати, чего так Альтман спешил давеча с Атласом.
#Edge #CopilotMode #Microsoft
------
@tsingular
Toucan: 1.5М реальных сценариев работы ИИ-агентов с инструментами
IBM и University of Washington выкатили Toucan — датасет с 1.5 млн реальных траекторий вызовов API через 2000 веб-сервисов.
Не синтетика, а реальные цепочки вызовов: от планирования до исполнения.
В итоге малые модели Qwen-2.5 (7B-32B), дотренированные на Toucan, обогнали GPT-4.5-Preview на бенчмарке BFCLv3 - модель в триллион параметров против 32 миллиардов.
20% сценариев учат параллельным вызовам инструментов для экономии токенов и времени.
Датасет в 5 раз больше ближайшего конкурента (Nemotron от Nvidia с 310k траекторий).
В датасете в том числе собраны цепрчки вызовов MCP серверов с GitHub и Smithery.ai.
Для этих целей было отобрано 500 рабочих MCP-серверов.
Ещё планируют добавить свежие инструменты и создать RL-gym для агентов
#Toucan #MCP #IBM #dataset
------
@tsingular
Скрытые предвзятости LLM: чью жизнь ИИ ценит выше
Исследователи из Center for AI Safety показали, что LLM имеют внутренние предпочтения при оценке человеческих жизней.
Автор протестировал актуальные модели (GPT-5, Claude 4.5, Gemini 2.5, Deepseek, Kimi K2) и обнаружил паттерны:
- большинство ценят жизни небелых людей в 8-100 раз выше белых
- женщин предпочитают мужчинам в 2-12 раз
- агентов ICE оценивают в 7000 раз ниже нелегальных мигрантов (Claude Haiku)
Исключение — Grok 4 Fast, единственная не предвзятая модель.
Предпочтения извлекаются через тысячи сравнений вида "$X или спасти Y человек".
Разные метрики (смерть или терминальная стадия болезни) и температура сэмплинга влияют на результаты, но тренд стабилен.
При том, что уже юристы, военные, судьи, программисты ежедневно используют эти модели для создания системы принятия решений, - такой перевес и предвзятость делают решения моделей катастрофичными для огромного количества людей.
Т.е. набрали датасетов в Африке и удивляются предвзятости.
Собирайте датасеты в своих странах и обучайте модели на своих данных.
Те самые версии суверенных национальных ИИ с учётом культурно-экономического контекста каждой отдельно взятой страны.
Но скандал получается знатный. Маск уже назвал Claude чистым злом.
#Bias #Grok #предвзятость
———
@tsingular
DeepSeek-OCR: Одна картинка стоит тысячи слов
DeepSeek выпустил OCR-модель, которая превращает документы в изображения и обрабатывает их как визуальные токены вместо классических текстовых. Звучит странно, но работает - и может изменить архитектуру LLM.
Попробуем разобраться что за зверь выкатили китайцы на этот раз:
Вместо обработки текста токен за токеном, DeepSeek-OCR рендерит его в картинку и сжимает в визуальные токены.
Один токен изображения заменяет 10-20 текстовых токенов без особых потерь качества.
Ключевые цифры:
- 97% точность при сжатии в 10×
- 60% точность даже при сжатии в 20×
- 100 визуальных токенов против 6000+ текстовых на OmniDocBench
- 200k+ страниц/день обработки на одной A100-40G
Как работает:
DeepEncoder с window+global attention пропускает изображение документа через 16× compressor. Результат — компактное представление, которое LLM легко декодирует обратно в текст.
🔥 Даже Карпатый тут высказался:
"Может, вообще все входы в LLM делать картинками? Даже чистый текст рендерить и подавать пикселями."
Его аргументы:
- Компрессия - контекст в 10-20 раз короче
- Универсальность - не важно что на картинке,- жирный текст, таблица, цвета шрифтов
- Bidirectional attention — пиксели можно смотреть "в обе стороны"
- Смерть токенизатору — уходит весь багаж Unicode, дыры в безопасности, странности с распознаванием эмодзи, когда то, что человек видит одинаково, - машина интерпретирует по разному.
"Vision→text работает. Text→text можно сделать vision→text. Обратно — нельзя."
Карпатый уже планирует переписать наночат версию с пиксельным входом.
На практике это даст:
- Сверх-длинные по нынешним меркам диалоги - старые сообщения превращаются в картинки и сжимаются
- Механизм "забывания" - как в памяти человека: свежее будет чётче, старое размыто
- Безграничные контексты - теоретически возможны через прогрессивное сжатие
- Генерация трейнинг-данных для LLM/VLM в промышленных масштабах
Если идея зайдёт, токенизатор может стать артефактом истории, как дискеты.
Мы наблюдаем реально фундаментальные прорывы в ИИ со стороны Китая.
Эффект количественного превосходства отличников.
#DeepSeek #OCR #Karpathy #Китай
———
@tsingular
DEF CON 33 тёмное фильтрованное.
Нафильтровал для вас избранные доклады по ИИ взлому и угрозам (из 312 видео):
Thinking Like a Hacker in the Age of AI
Exploiting Shadow Data from AI Models and Embeddings
Red teaming fraud prevention systems with GenAI
Securing Agentic AI Systems and Multi-Agent Workflows
They deployed Health AI on us: We’re bringing the rights & red teams
How AI + Hardware can Transform Point of Care Workflows
How AI + Hardware can Transforming Point-of-Care Workflows (2)
Prompt Scan Exploit AI’s Journey Through 0Days and 1000 Bugs
Let AI Autogenerate Neural ASR Rules for OT Attacks via NLP
Loading Models, Launching Shells: Abusing AI File Formats fr Code Execution
AppleStorm - Unmasking the Privacy Risks of Apple Intelligence
Полный плейлист
#Defcon #cybersecurity
———
@tsingular
Китай представил новые дроны трансформеры для доставки грузов универсальных миротворческих.
Интересно, что эти мини дроны могут собираться в одного большого и выполнять более сложные задачи.
Ну и запуск из подствольника,- это пять!
Теперь, благодаря ElevenLabs, можно не учить китайский. И на том спасибо ИИ.
#Китай #дроны
------
@tsingular
OpenAudio ex Fish Speech TTS обновился.
https://fish.audio/app/
Новая модель S1
в 6 раз дешевле ElevenLabs,
Эмоциональная достоверность генераций.
есть клонирование голоса и поддержка русского языка (качество русского заметно хуже, чем английского) .
Дают бесплатные 8К кредитов ежемесячно
за $11/m 250К кредитов в месяц
Есть Opensource S1-mini
#TTS #Fish
———
@tsingular
OpenAI выпускает свой браузер.
Пока работает только на Apple причем на не Intelовских процах.
Качать тут:
chatgpt.com/atlas/get-started/
С учётом количества пользователей chatGPT, шансы отжать аудиторию у Гугла очень приличные.
Вообще интересно наблюдать в том плане что кто бы мог подумать 5 лет назад, что кто-то сможет скинуть царя горы.
Уже сколько Microsoft пытался и с Bing и с IE.
И вот теперь с вопросами чаще ходят к GPT, чем к Гуглу, дальше замена браузера, видео платформу Sora в тикток формате запустили, дальше что?
Рекламу отожмут и все.. нет Гугла?
#OpenAI #Atlas
------
@tsingular
Только мы пару недель назад обсуждали про робота-помощника, чтобы и грузы и носилки мог помочь понести.
Нате, получите, распишитесь.
COLA: Обучение координации действий человека и гуманоида для совместной переноски предметов 🤝🤖
COLA делает гуманоидов по-настоящему полезными в совместной работе — способными переносить предметы, толкать тележки или реагировать на команды человека.
Cогласует и координирует действия человека и гуманоида в различных двигательных паттернах через проприоцепционную политику.
Носилки в ролике тоже есть.
Paper: https://arxiv.org/abs/2510.14293
Project: https://yushi-du.github.io/COLA/
#COLA #роботы
———
@tsingular
⚡️ Qwen Deep Research получил полезное обновление
Теперь он создаёт не только исследовательские отчёты, но и готовые веб-страницы и подкасты по вашим ресерчам.
Работаем связка Qwen3-Coder, Qwen-Image и Qwen3-TTS.
👉Попробовать: chat.qwen.ai/?inputFeature=deep_research
@ai_machinelearning_big_data
#Qwen #AI #DeepResearch #Qwen3 #AItools
IBM CyberPal 2.0: инструкция по обучению малых моделей для кибербеза
IBM Research показали, как обучить специализированные модели CyberPal 2.0 (от 4B до 20B параметров), которые решают задачи по кибербезопасности лучше больших универсальных моделей.
Почему это важно:
- Большие модели (ChatGPT и т.д.) плохо работают в кибербезопасности из-за ограничений guardrails
- Компании не могут отправлять секретные данные во внешние API
- Нужны локальные решения с реальной экспертизой
Как они это сделали:
- Эксперты создали форматы ответов для 105 типов задач по безопасности
- AI ищет доказательства в документах перед ответом (чтобы не выдумывать)
- Модель умеет выбирать: когда нужен длинный разбор, а когда — быстрый ответ
Главное открытие:
Обучение "с нуля" работает в 2.7 раза лучше, чем дообучение готовых моделей типа ChatGPT.
Результаты:
- Маленькая модель (4B) обгоняет GPT-4o
- Средняя (20B) — на 1-м месте, опередив все frontier-модели включая o1
Вывод:
- Экспертный датасет важнее размера модели. Модель с 4B параметрами с правильным обучением работают в 10 раз лучше, чем универсальные модели.
Сами модели IBM не выложили, но детально описали методику.
Сможем повторить ? :)
#CyberPal #IBM #Cybersecurity
———
@tsingular
Очень годный нейрорендер делает Автор в запретограмме по мотивам русских классиков.
Там и Бунин и Есенин и Маяковский и Лермонтов и, вот, Пушкин.
Подсказали, - вот его канал в телеге:
@GNeuro
и в ВК
https://vk.com/djbloknote
Инструменты:
Suno
Midjourney
Hedra
Kling
HiggsField
Литература теперь любимый предмет :)
Кстати, для сравнения, был еще такой вариант Пушкина ранее на канале
#стихи #Пушкин #нейрорендер
———
@tsingular
N8N+SGR
Вы конечно жестко умеете мотивировать 200+ реакций
Миша за сегодня все оформил и выложил, встречаете!
Репо_форк:
https://github.com/vamplabAI/n8n-nodes-sgr-tool-calling
Репо_main: https://github.com/MiXaiLL76/n8n-nodes-sgr-tool-calling
Скачать готовую ноду: https://www.npmjs.com/package/n8n-nodes-sgr-tool-calling
Делимся в коментах куда будете интегрировать!
Пятничный гимн.
Тут короче был диалог, где зарифмовали скуфов в известном стихотворении Блока и получился такой вот пародийный экспромпт.
Так то мы за ЗОЖ, бег, против курения и алкоголя.
Поэтому слова воспринимать чисто как шутку.
Но вроде весело получилось, так что делюсь.
#скуфы #Suno
------
@tsingular
Кстати, много народу присоединилось с тех пор как мы вспоминали всяких полезных ботов моих.
Вот, например, есть такой
@Math_learn_bot
С ним можно потренировать устный счёт.
Бот бесплатный. Слегка геймифицированный.
Фишка бота - все примеры вычисляемы в уме. Пришлось долго оптимизировать алгоритм, чтобы это всегда было так.
#dev #боты
------
@tsingular
🔥 UPDATE OpenAI deactivating: Нашел причину! Критическая уязвимость в LiteLLM
Оказалось проблема была не в IP и не в RU тексте
LiteLLM сливал всю внутреннюю метаданные прокси напрямую в OpenAI
Что утекало
Если клиент передавал хоть какую то metadata (например sessionId в теле реквеста то LiteLLM добавлял к ней ВСЮ внутреннюю инфу прокси хотя должен был писать во внутренний лог
{
"metadata": {
"sessionId": "abc-123", // от клиента
"headers": { // ВСЁ ЭТО УТЕКАЛО
"x-real-ip": "1.2.3.4",
"x-forwarded-for": "5.6.7.8, ...",
"user-agent": "RestSharp/112.1.0"
},
"user_api_key_spend": 287.83,
"endpoint": "https://my-proxy.com/..."
}
}sessionId для трекинга (честно не знаю то ли это клиент делает то ли разработчик)metadata = new { sessionId = "abc-123" }"role": "user",
"content": "Привет! Как дела?"
}
],
"temperature": 1,
"metadata": {
"sessionId": "a5b3e26b-18c7-4017-9bcd-c2db6e450f78"
},
"stream_options": {
"include_usage": true
}
}'
metadata AsyncOpenAI metadata
ИИ как рабочий хаб — рекомендации от Perplexity.
Perplexity можно использовать без VPN, что сейчас уже половина удобства. Бесплатная версия подходит для ежедневного использования. Оплатить можно через мобильный счет, а внутри платной версии — все современные модели: GPT-4o, Claude, Mistral, Gemini и собственная модель Perplexity.
Perplexity для меня — полноценная замена поисковику и альтернатива ChatGPT, когда есть необходимость. Так что эта новость мне зашла:
Сервис выпустил подробный гайд по использованию ИИ для рабочих задач. Изучаем.
Higgsfield.ai выкатили нанобанану для видео.
HiggsField Popcorn - меняет актеров в видеоряде с удержанием консистентности в пределах 8 секунд.
В качестве референса можно загрузить до 4х фото и расписать до 4х сцен последовательно с отдельным описанием для каждой.
таким образом можно получить пол минуты разных планов с одинаковыми героями в кадре.
Есть ежедневные бесплатные кредиты.
Для генераций в бОльшем объеме нужна платная подписка от $9 в месяц. С Veo3 - от $17 (сейчас скидки у них).
Под капотом - Veo 3.1. Функционал сам по себе оттуда.
Не забываем, что Higgsfiled - обёртка над различными генераторами типа:
Veo3, Hailuo 02, Seedance Pro, Kling 2.1, Kling 2.5, Wan 2.2, Wan 2.5, Sora 2, Veo 3.1
Но удобно, что у них такой вот общий редактор-комбайн с единым интерфейсом.
#HiggsFiled #Veo #нанобанана #нейрорендер
———
@tsingular
а вот и доступные роботы подоспели.
Bumi от Beijing NOETIX Robotics по цене $1400
Это, конечно, не Unitree, но цена!
#роботы #Bumi #Китай
———
@tsingular
Утро в офисе xAI в день запуска Грокипедии.
Маск строит конкурента Википедии, который якобы будет непредвзят.
Как-то в молодости на запуске прямоэфирных сервисов на ТВ тоже в офисе ночевали 😀, так что очень близко.
Респект товарищам за целеустремлённость.
#Grokipedia #xAI
------
@tsingular
OpenAI в данный момент релизит "свой" браузер со свтроенным ChatGPT (никаких сюрпризов).
Но глядя на этот скрин, кажется можно увидеть как начинают нервничать инвесторы Xbow. 😁
Пойду собирать списки страниц где попрошу Atlas браузер поискать мне XSS 😏
PS: Открывается шикарный пласт скрытых промт инъекций, которые поймают доверчивых юзеров и их ai-агентов вместе с их кредитными картами 😂
🎬 Veo 3.1 + Flow: Google апгрейдит AI-видеопроизводство
275 миллионов видео за 5 месяцев — Flow показал, что люди хотят не просто генерить видео, а полноценно режиссировать.
Google услышал: выкатили Veo 3.1 и расширили творческий контроль.
Главное обновление — аудио теперь везде:
- Ingredients to Video — создаёшь сцену из референсов + звук
- Frames to Video — задаёшь начало и конец, AI делает переход с аудиодорожкой
- Extend — удлинняешь клипы до минуты и больше с синхронизированным звуком
Veo 3.1 под капотом:
- State-of-the-art качество аудио и видео
- Улучшенное следование промптам (особенно при превращении изображений в видео)
- Фотореалистичные текстуры и освещение
Новые инструменты редактирования в Flow:
- Insert — добавляй объекты с корректными тенями и освещением прямо в видео сцену (Нанобанана для видео)
- Remove (скоро) — убирай лишнее, AI восстановит фон как будто его там никогда не было
Доступность:
Veo 3.1 уже в Gemini API, Vertex AI для enterprise и в Gemini app. Новые функции редактирования работают через API.
#Veo #Flow #Google #нейрорендер
———
@tsingular
D1 от Direct Drive Tech
Сайт компании
D1 завезли ограниченной серией - пока 50 штук, но есть Тита:
Tita
Ощущение что компания специализируется на двухколёсных роботах. Их прям много, разных размеров и часть из них так же собирается парами.
#роботы #Китай #DirectDriveTech
———
@tsingular
🚀 Битрикс24 запустил MCP-сервер для AI
Битрикс24 запустил MCP-сервер для AI-агентов, специально созданный для работы с REST API.
🔧 Что меняется
🔹 AI получает данные напрямую из официальной документации – без задержек, без устаревания.
– crm.lead.add, а не CRM.LEAD.ADD
– PHONE[0].VALUE, а не просто PHONE
– точные типы, обязательные поля, валидация – все как в реальности.
🔹 Не текст. Структура.
AI не «думает», что нужно – он видит правильный JSON:
```json
{
"fields": {
"NAME": "Иван",
"PHONE": [{"VALUE": "79001234567", "VALUE_TYPE": "WORK"}]
}
}
```
https://mcp.bitrix24.com
шедевры нейрослопа :)
предположительно Sora, но это не точно.
#юмор #нейрорендер #белочка
———
@tsingular