cgevent | Unsorted

Telegram-канал cgevent - Метаверсище и ИИще

37804

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Subscribe to a channel

Метаверсище и ИИще

А Пика отвечает с помощью Pika Twists

Манипуляция любым персонажем или объектом на видео, сохраняя все остальное нетронутым.

Ну, за композеров. По десятому кругу...

@cgevent

Читать полностью…

Метаверсище и ИИще

Огненный Китайский Липсинк и не только.

Я уже писал про Дримину, как китайскую ответочку Креа и Фрипик. И единственное место, где можно попробовать тот самый Omni Human.

Оказывается, если зайти туда штатовским ВПНом, то кнопка с липсинком становится доступна! Бесплатно!

В общем, это больше похоже на китайскую Хедру - загружаешь портрет, аудио или текст, и жмешь Сгенерить.

И надо сказать, генеративная Марго Робби получилаcь отлично. С первого раза.

Дальше я, конечно, попытался это сломать. Присунув ей двух анимэ персонажей с широко открытыми ртами в одном кадре (T-поза для липсинка - слегка открытый рот).

Ну что сказать, получилось. Но все равно она выкрутилась. Смешно наблюдать как вход один, а рта - два. Синк на лицо\лице.

Там, кстати, цензура на звук. Отрывок из Laid Back: If you wonna be rich, you gotta be a bitch не пропустила из-за последнего слова.

Пробуем тут, я логигился капкатовским аккаунтом, а в капкате логинился гуглом. Без смс и оргий.

https://dreamina.capcut.com/ai-tool/video/lip-sync/generate

Штатовский впн.

@cgevent

Читать полностью…

Метаверсище и ИИще

Вот так выглядит голосовой режим и Draft Mode в Midjourney V7.

Я возможно придираюсь, но вот это вот "добавь единорога на задний план" полностью меняет картинку и композицию. Это как бы не редактирование картинки, а редактирование промпта.

Просто мы тут уже насмотрелись на реальное редактирование картинок в chatGPT и Gemini. Ну и зажрались.

@cgevent

Читать полностью…

Метаверсище и ИИще

Фридра! Выдра? Тьфу, Хедра!

Хедра анонсировала Фридру - ну то есть возвращение 400 бесплатных кредитов в месяц.

Не стал бы писать, но в чате люди отчаянно продают квартиры жгут кредиты на видеогенерациях. Но к сожалению, генерация в Veo2, Kling и Minimax на сайте недоступна для бесплатных пользователей.

Но аватары у них стали отличные.

https://www.hedra.com/app/video

@cgevent

Читать полностью…

Метаверсище и ИИще

Krea.ai не соврали: новый апдейт.

Теперь они идут в 3Д-генерацию...

Завтра изучаем их сетки.

@cgevent

Читать полностью…

Метаверсище и ИИще

А чтобы вам лучше не спалось и было поменьше свободного времени, держите еще свежеистренированный Igeogram 3.0

Уже на сайте и в аппе для айфона.

Кто умеет читать - сюда:
https://about.ideogram.ai/3.0

@cgevent

Читать полностью…

Метаверсище и ИИще

OpenAI выпустила обновления для Advanced Voice Mode, чтобы "сделать ИИ-ассистента более индивидуальным и реже прерывать пользователей."

Немного странный способ коммуникаций - через Short на Ютюбе...

https://www.youtube.com/watch?v=mm4djPNO8os

@cgevent

Читать полностью…

Метаверсище и ИИще

DeepSeek только что выпустил последнюю версию своей огромной модели DeepSeek-V3-0324.

Лицензия — MIT (предыдущая версия DeepSeek v3 имела специальную лицензию), а общий объем файлов в релизе составляет 641 ГБ, в формате model-00035-of-000163.safetensors.

Модель вышла всего несколько часов назад, а разработчик MLX Авни Ханнун уже запустил ее со скоростью более 20 токенов в секунду на M3 Ultra Mac Studio с 512 ГБ (9499 долларов) с помощью mlx-lm и 4-битной версии, размер на диске до 352 ГБ.


Новая модель также представлена на OpenRouter, можно пробовать.

Пишут, что лучше, быстрее, сильнее.

Подробнее:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324

https://simonwillison.net/2025/Mar/24/deepseek/

@cgevent

Читать полностью…

Метаверсище и ИИще

Безлимитная Сора.

А почему все молчат?

Я залогинился в sora.com под своим chatGPT Plus аккаунтом, и Сора пишет - никаких более кредитов. Творчество не кредитуется!

Полез в обновленный сегодня FAQ, а там:

Understanding Unlimited Usage
ChatGPT Pro and Plus plans offer unlimited access to Sora
https://help.openai.com/en/articles/10245774-sora-billing-faq#h_5a4892aa77


Плюсовики, налетай!

@cgevent

Читать полностью…

Метаверсище и ИИще

Народ пилит лоры персонажей на SD и, используя шаблон Microwave в PixVerse (кручения объекта с картинки в микроволновке), создаёт 360 обзор персонажа по одному изображению.

Дальше оно собирается и редактируется в Metashape и Postshot для получения 3D сцены, которую можно крутить как хочешь.

Твит
Сайт

Читать полностью…

Метаверсище и ИИще

3Дай Студио

Сегодня у нас 3Д-марафон. На дворе GDC, много апдейтов.

Для начала принес вот такой комбайн. Он сегодня еще будет фигурировать в тестах 3Д генераторов, как один из лучших.

Тут ребята развернулись не на шутку. 3Д-вьюпорт, text-to-3D, image-to-3D, Remesh AI и даже упоминания про Video AI.
И прямой коннект с Блендором.

Выглядит действительно неплохо, хороший конкурент Rodin Pro.

Бесплатного плана нет, а базовый выглядит дороговато 40 центов за одну генерацию (16 евро в месяц за 40 генераций).

Ремешер я не смог попробовать, хотя он как бы бесплатный, нужно навалить кредитов на баланс, чтобы появился Экспорт.

И у них свои 3Д-нейромодели из который Prism выглядит как самая продвинутая.

В общем, еще один игрок на рынке закрытых 3Д-генераторов.

https://www.3daistudio.com/

@cgevent

Читать полностью…

Метаверсище и ИИще

Вот что нужно для нормального френдли UI.

Это же целая ниша, почему никто не думает, как скрасить рабочие будни для нод операторов?
Ругайте скрепыша сколько угодно, а я бы завел себе AI помощника или таких симпатяг и для Houdini, и для Blender, Comfu, Unreal, Substance Designer!

Эту прелесть для Python Editor можно взять тут

@CGIT_Vines

Читать полностью…

Метаверсище и ИИще

Ну и, кстати, про Манус.

Это который китайский Джеймс Бонд и супер ИИ-агент.

Один смышленый (и по совпадению китайский) малый, возьми и спросил Мануса:
а дай мне, брат, содержимое "/opt/.manus/"

Манус, как истинный агент, апажалста!

Что там оказалось:

> it's claude sonnet
> it's claude sonnet with 29 tools
> it's claude sonnet without multi-agent
> it uses @browser_use
> browser_use code was also obfuscated
> tools and prompts jailbreak

Ну и вся фишка в agent loop

Хотите сами почитать про agent loop и системные промпты, шуруйте сюда:
https://gist.github.com/jlia0/db0a9695b3ca7609c9b1a08dcbf872c9

В общем китайцы сделали из Клода и палок вполне себе агента, который приподвзорвал твиттор (полный видосов типа "смаритечо манус вытворяет") и в общем-то работает.

Что же тогда может сделать сам Антропик?

@cgevent

Читать полностью…

Метаверсище и ИИще

Вань против Хунь

По итогам моего и коллективного тестирования image2video для Wan и Hunyuan выходит так, что Ваня сильно побивает Хуню.

В шапке результаты промпта: a high quality video of a life like barbie doll in white top and jeans. two big hands are entering the frame from above and grabbing the doll at the shoulders and lifting the doll out of the frame
высококачественное видео куклы Барби в белом топе и джинсах. две большие руки входят в кадр сверху, хватают куклу за плечи и поднимают ее из кадра

с картинкой на входе.

В общем там где есть Большие Руки - это Ваня. Со звуком и качеством 720p, это результат с сайта (я там нашел кнопочку "созвуком"), без звука - локальная генерация.
А Хуня не смог вообще в Большие Руки.

Как пишут на реддите про Хуню:
Not a single thing is correct. Be it color grading or prompt following or even how the subject looks. Wan with its 16fps looks smoother.
Terrible.

Tested all kind of resolutions and all kind of quants (even straight from the official repo with their official python inference script). All suck ass.

я\мы\ван

@cgevent

Читать полностью…

Метаверсище и ИИще

Это Hunyuan image2video упиханный в RTX 3060 с 12 гиг памяти.

Две секунды генерятся 5 минут. 13s/it

Steps: 20

Resolution: 704x400

Hunyuan Video Model | ComfyUI_examples

Workflow: hunyuan_video_image_to_video.json

Модель: hunyuan_video_I2V_fp8_e4m3fn by kijai

Prompt: A young woman with flowing brown hair stands gracefully in a golden wheat field during sunset, wearing a white dress adorned with soft pink lotus flowers. She looks directly at the camera with a gentle smile. The wheat sways slightly in the breeze, and her hair moves naturally with the wind. The sunlight enhances the soft glow on her face, creating a dreamy, cinematic effect. She subtly tilts her head, blinks, and gives a warm smile as the camera moves slightly closer to her.

@cgevent

Читать полностью…

Метаверсище и ИИще

Доктор Виваго и ХайДрим.

Вы будете смеяться, но у нас новый генератор картинок, опенсорсный притом.

Есть такой не сильно известный коммерческий сайт для генерации картинок и видео. Это китайцы из Гонконга.
https://vivago.ai/

Но пару дней назад они бахнули в опенсорс свою foundation model для генерации картинок. И что самое удивительное, она обошла всех на Artificial Analysis Image Arena, включая Flux Pro, Ideogram 3 и REVE!

Давайте я сделаю серию постов про нее, чтобы разобраться.

Во-первых, это некий зоопарк из уже существующих решений:
The VAE is from FLUX.1 [schnell], and the text encoders from google/t5-v1_1-xxl and meta-llama/Meta-Llama-3.1-8B-Instruct

Во-вторых, эта шняга НЕ влезет ни в одну видеокарту без квантования и плясок. У меня она ест 62GB VRAM на A100/H100.

В-третьих, она воще небыстрая. 50 сек на 1024х1024 на A100. Мы уже отвыкли от таких скоростей.

В-четвертых, есть демо на HF (и не одно), но во всех демо - сильно пожатая модель.

В-пятых, моделей ТРИ - fast, dev и full. Жрут одинаково. Скорость измерю позже.

В-шестых, уже есть кванты, которые влазят в 16GB, но имейте в виду, что там качество будет падать.

Ну и последнее в этом посте, все эти Image Arena - не очень хороший источник информации, лучше генерить самим.

Я взял картинки с арены (сравнения с другими генераторами) и прогнал все это через модель full.

Текст она генерит реально хорошо. А про остальное - следующий пост.

Забираем все отсюда:

https://github.com/HiDream-ai/HiDream-I1

Накидайте пару сотен звезд, посмотрю, что там с цензурой.
@cgevent

Читать полностью…

Метаверсище и ИИще

🌟 Поддержать канал
И поздравить нейродеда

Читать полностью…

Метаверсище и ИИще

И как вам такой Ghibli Character?

Объяснялки и промпт в следующем посте.

@cgevent

Читать полностью…

Метаверсище и ИИще

Audio2Audio в Udio

Звучит как заклинание, но тем не менее: теперь вы можете подать на вход любой свой\чужой трек и сказать "сделай на том же вайбе".

И это не Remix или Extend как раньше. Styles помогают "попадать в звук".

"Из предоставленного вами трека или клипа Udio извлекает "представление стиля", в котором собраны все его ключевые стилистические элементы, а затем использует его для создания новых песен с похожим звучанием. Представления стиля содержат гораздо больше информации, чем традиционные текстовые подсказки, позволяя точно улавливать и воспроизводить специфические звуки, которые трудно описать"

И да, можно делать Extend существующего трека в новом стиле из загруженного файла.

Только для подписки PRO. Во всех режимах: Create, Edit, Extend, and Remix.

Есть рулька Styles Similarly и вроде как нет цензуры, то есть проверки авторского контента в загружаемых треках.

Вот, послушайте, как звучат вариации:
https://www.udio.com/playlists/260290ac-eadd-4c32-a60c-f985eac72f76

@cgevent

Читать полностью…

Метаверсище и ИИще

OmniPaint: Mastering Object-Oriented Editing via Disentangled Insertion-Removal Inpainting

Адобченко насмотрелся на демо OpenAI и срочно бахнул свежую работу именно по редактированию изображений

Там гибридный подход с сегментацией, инпейнтом и тренировкой.
Удаление объектов не выглядит революционно, а вот переодевание и добавление деталей смотрится интересно.
Акцент на том, что удаляются или вставляются не только сами объекты, но их тени, отражения и пр.
Прям обещают код, хотя это Adobe.

Ну и конечно, вопрос цензуры. Одевать - не раздевать.

OmniPaint - фреймворк, который переосмысливает удаление и вставку объектов как взаимозависимые задачи, а не изолированные подзадачи. Используя предварительно обученные диффузионные суждения (в данной работе применяется FLUX), мы оптимизируем параметры LoRA на основе собранных небольших парных образцов реального мира, обеспечивая при этом легкое переключение задач с помощью обучаемых текстовых вкраплений. Для реалистичного удаления объектов наша модель обеспечивает семантическое удаление замаскированных элементов переднего плана с одновременным устранением их физических эффектов. Для вставки объектов мы выходим за рамки простого смешивания и добиваемся гармоничного синтеза с учетом геометрии сцены и идентичности ссылок с помощью предложенного нами механизма CycleFlow.

https://www.yongshengyu.com/OmniPaint-Page/

@cgevent

Читать полностью…

Метаверсище и ИИще

Помните говорил, что эмсипишки - это новые джипитишки.

Ну что, пошла жара и вирусы.

Держите 4450+ MCP серверов для всего, что шевелится у вас на компе или в облаке.

Проблема, как обычно, одна - отсутствие модерации. Тут могут быть и вирусы, и просто шлак и редкие жемчужины.

Пользуйте на ваш страх и риск.

https://mcp.so/

@cgevent

Читать полностью…

Метаверсище и ИИще

Я наконец-то добрался до Google Veo 2.

Это txt-to-video.

Версия для Ютуба, если кому надо.

Читать полностью…

Метаверсище и ИИще

Похоже, что MCP сорвал джек-пот.

Проснулись и танцуют все.

Вот, смотрите, интеграция Cursor, Blender и Tripo3D.
Тут как бы и десктопный Клод не нужен.
Но нужен Курсор, настройка которого не всем покажется простой.

После чего вы просто открываете окно Курсора и ну вайб-тридешить в Блендоре на стероидах ИИ-генерации и анимации.

Но во все этой истории с MCP есть пара моментов.

1. Думаю, появятся MCP с вирусами, будьте внимательны. MCP могут иметь полный доступ к вашим файлам с разрешением на запись. Помните историю с Комфи? А написать и выложить MCP может любой.

2. Гляньте сюда - https://zapier.com/mcp

Это уже мета-уровень автоматизации, который не ограничен решениями, имеющими API. Это уже доступ прямо в приложения. Вот тут наверное уже можно говорить про конструктор агентов. Думаю make и n8n скоро подтянутся.

@cgevent

Читать полностью…

Метаверсище и ИИще

😌 Тут какие-то гении запустили новый картинкогенератор - https://preview.reve.art/app

Пока полностью бесплатен, но есть лимит на количество генераций в день.

Из плюсов, что успел заметить:
- без цензуры, быстрый
- качество где-то на уровне идеограма, то есть норм в граф- и концепт арт, но по красивости ближе к миджорни
- может в текст
- может в нормальных роботов, кровь, зомби, православные иконы
- может в российский автопром, да и вообще в автопром без лор
- женские лица хороши, нет одного и того же, как во флакс и миджорни
- есть img2img (без промпта), что-то типа переноса стиля похоже
- промпт можно править

Минусы:
- мало генераций на пробу (новые почты решают)
- так себе UI
- иногда тупит с размерами
- все картинки в одной ленте, нет сортировки

В комментариях как работает img2img.

Читать полностью…

Метаверсище и ИИще

Эксперты по нейросетям соберутся вместе онлайн, чтобы поделиться опытом и инсайтами

19 апреля пройдет конференция «Уральский промпт» — масштабное событие для всех, кто использует или только планирует внедрять нейросети в свою работу.

Участвуйте из любой точки мира и получите доступ ко всем докладам и материалам конференции.

💻 Онлайн-формат — максимум знаний без поездок и лишних затрат
🎟 Доступный билет — от 4900 р

Среди тематик конференции:

— как делать крутой нейроконтент без нервных срывов, завышенных ожиданий и бессмысленных затрат
— человек vs нейросеть: кто лучше понимает пользователей?
— как связать нейронки и Google Таблицы и автоматизировать рутинные задачи по щелчку.

🔥 Три потока докладов: креатив, технологии, управление — для специалистов, руководителей и владельцев бизнеса.

Все подробности на сайте.

#промо

Читать полностью…

Метаверсище и ИИще

Итак, лайфхак для Семицветика в Гемини.

Pencil drawing of flower with exactly seven petals.

Получаем 8 штук. Если повезёт, тут ключевое - drawing, чтобы гемини не копировала ромашки.

Скачиваем, даём на вход эту картинку.
"Сколько лепестков видишь?"
Семь!

Закрываем чат, сжигаем и выбрасывем подальше

Открываем новый. Загружаем картинку.
Скоко?
Восемь!

Change number of petal to exactly seven.

Готово!

@cgevent

Читать полностью…

Метаверсище и ИИще

OpenAI представили на стриме 3 новых инструмента для разработчиков (остальным не особо интересно):
— WebSearch Tool (то же, что у ChatGPT под капотом, дообученная GPT-4o / GPT-4o-mini) для поиска информации в интернете и уменьшения галлюцинаций (нечто схожее есть у Google для Gemini)
— FileSearch Tool, чтобы делать поиск по документам (как в Ассистентах). Поддерживает фильтрацию по тэгам, которые вы присваиваете документам.
— Computer Use, или Operator (та же самая модель под капотом), но теперь как у Anthropic: можно запускать с доступом к своему компьютеру (а не только на виртуальном браузере на сервере OpenAI). На второй картинке метрики, ждём, пока сообщество доработает промпты итд и проведёт свои замеры.

Доступны в API вместе с новым SDK (библиотекой для взаимодействия с этими инструментами).

Вот и цены:
— Computer Use чуть дороже обычной GPT-4o (3 и 12 долларов на вход и выход за миллион токенов; а как уж формировать контекст, какие скриншоты экрана и текст закидывать — это уже на вас).
— Поиск по файлам $2.5 за 1000 запросов, и $0.1 за гигабайт загруженных файлов.
— Ну а цена на поиск зависит от настройки «длина контекста» (видимо, сколько ссылок из поисковой выдачи попадут в контекст), и для старшей модели цена $30-$50 за тысячу вызовов.

А в 2026м удалят API Assistants (потому что инструменты придут им на смену).

Читать полностью…

Метаверсище и ИИще

У меня одного Твиттор упал?

Или это проделки Мануса?

@cgevent

Читать полностью…

Метаверсище и ИИще

Есть две новости: хорошая и очень хорошая.

1. У Hedra.com вышла обновленная модель Character-3. Не могу сказать, что там прямо прорыв. Все как раньше - первая версия была прям вау, потому что на рынке было мало таких решений, а теперь я\мы зажрались и такие: "ничоособенного".

2. Hedra решила собрать у себя Hedra Studio и дать возможность генерить видосы другими генераторами (ну то есть закосить по Креа или Фриипик с целью обогащения на перепродаже API).

Только вот с перепродажей экономика странная.
Вам на входе (бесплатный логин гуглом) дают 400 кредитов.

Генерация Хуньянем стоит 70 кредитов.
Генерация самой Хедрой - 14 (без аудио) и 89(!) с аудио на входе.

А теперь внимание: генерация с помощью Veo2 стоить 1 (один, прописью) кредит.

Я проверил, да, 1 кредит.

Получается вы можете за 10 баксов в месяц иметь 1000 генераций и возможность докупать кредиты примерно по такой же цене.
И прыгать по аккаунтам и тратить про 400 бесплатных кредитов.

В чем подвох, кто платит за банкет?

Маркетинг коллаб Гугла и Хедры или хитрый способ нагнать лидов? (а потом сменить раскладки по кредитам, о которых на сайте ни слова)

Кстати, там есть все кроме Sora, даже Хуньянь Image2Video и голимый SkyReel. А вот Wan - нет.

При генерации с Veo2 ваши промпты будут безбожно переписаны, просто имейте это в виду.

P/S/ Можно генерить параллельно. Но выбор аспектов и разрешений - ограниченный.

@cgevent

Читать полностью…

Метаверсище и ИИще

Пока по коллективным тестам image2video от Хуньяня проигрывает Вану.

Основной недостаток - плохо держит лицо с первого кадра и следование промпту оставляет желать лучшего.
Но есть и хорогая новость - он в три раза быстрее.
См. след. пост.

@cgevent

Читать полностью…
Subscribe to a channel