cgevent | Unsorted

Telegram-канал cgevent - Метаверсище и ИИще

37800

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Subscribe to a channel

Метаверсище и ИИще

Nijijourney: версия Midjourney, натренированная на аниме и манге, теперь тоже генерирует видео.

Опенинг в посте сгенерирован целиком в Niji. То, что они повторно использовали пару фрагментов в видео намекает на уровень черрипикинга. Madhouse и MAPPA пока могут спать спокойно.

В целом всё равно выглядит годно. Качество картинки, планы, динамика и переходы действительно анимешные.

Чтобы начать, заходите на их сайт. Нажимаете Create, генерите/загружаете картинку, пишете промт, и вперёд.

Стиль изображения влияет на анимацию. Если картинка в стиле ТВ аниме, она будет иметь ТВшные движения. Если вкинуть реалистичный 3D рендер, движения будут отражать объём и реализм.

Правила написания хорошего промта:

* Описываем то, что можно увидеть, а не то, что персонаж чувствует.
* Описываем основное действие (что происходит)
* Описываем фоновое действие (происходящее вокруг в результате основного действия)

На выходе также 480p длиной в 5 сек. Если у вас есть подписка Midjourney, она тут тоже работает.

PS: осталось генерить сразу на рутрекер с сабами и голосами любимых актёров озвучки.

Сайт
Анонс

Читать полностью…

Метаверсище и ИИще

Все, что вы хотели знать про Комфи.

Не прошло и трёх лет, как туда завезли ноду для сравнения параметров, аналог хорошо известной PlotXYZ в А1111 и Форже.

Она называется "Comfyui-lumi-batcher".

Внимание, у нее китайский интерфейс.

В этом весь Комфи.

@cgevent

Читать полностью…

Метаверсище и ИИще

Minimax M1 - Джеймс Бонд в мире агентов.

(это пост НЕ про видеогенерацию)

Тут вот интернетик нам несет весть, что тот самый наш любимый Minimax выпустил открытую ризонинг модель M1.

Контекст - 1 миллион токенов на вход (это ОЧЕНЬ МНОГО) и 80 тысяч токенов на выход.


По всяким-разным бенчам M1 побивает или топчется рядом с Gemini 2.5 Pro, DeepSeek-R1, Qwen3-235B и другими.

Но это не главное, как и то, что он в опенсорсе лежит:
https://github.com/MiniMax-AI/MiniMax-M1

А главное это то, что вы получаете этакого Мануса на максималках с конским контекстом, который умеет все!
Это прям агентагент.

Я сдуру кинул в него вот такой промпт:

generate short movie about little cat. Generate it using your video generation capability, combine it with the story text, and present the entire thing to me as a webpage.


Он пошуршал минут 10 - это отдельное удовольствие наблюдать за линукс командами и рассуждениями - и выдал мне вот такую страницу:

https://vbzj9owyu5.space.minimax.io/ - покрутите вниз и не цепляйтесь к видео, оцените сам факт того, что произошло.

Обратите внимание, что видос он сделал без вотермарка, хотя в логах я нашел "Now I'll generate the video using the minimax video generation tool"

Логи и чат тут: https://agent.minimax.io/chat?id=280996799635639

Ну и не надо оценивать видеогенерацию, или картинку на заставке с логосом alamy - оцените РАБОТУ, которую он проделал.

Я не знаю, насколько хватит серверов Минимакса, но пока это выглядит как какая-то вселенская агентсткая халая на миллион токенов на входе.

Го тестировать вот сюда: https://agent.minimax.io/
Пока бесплатно.

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Основная цель была сделать фотофильную картинку с понятным сюжетом.
в reve генерировал изображения
в Kling Ai анимация
veo2 шот с ногами
Немного поста и рисования в Фотошопе


Интересный момент. Идея пришла после того как в чате упомянул стих из брат 2, я подумал сделать битву иишек, типа Open AI мочит Google и Grok, ну или наоборот. В процессе написания сценария придумал объединить их против кожаных. Стих переписал сам, chat GPT не смог помочь совсем.
Генерировал в Reve изображения, с 2х аккаунтов, что бы хватило бесплатных кредитов. После sora с ним было сложно получить то, что нужно. В итоге просто дорисовывал, недостающие детали в Фотошопе.
Анимацию делал в Kling 1,6 и половину в 2,0. Потратил на ролик 2000 кредитов.
Озвучивал сам, потом прогнал через adobe podcast и в cap cut изменил голос немного.
Ролик делался 2 дня, еще на звук и озвучку потратил несколько часов.


@cgevent

Читать полностью…

Метаверсище и ИИще

Ну, за Gaussian Splatting!

История ходит по кругу. Наигрались с этими полупрозрачными эллипсами, пора и честь знать и вернуться к старым добрым треугольникам.

Встречайте: Triangle Splatting for Real-Time Radiance Field Rendering

И это не китайския студенты, это DeepMind, Оксфорд и прочие взрослыя мальчики. И 2 400 кадров в секунду

Triangle Splatting позволяет добиться высококачественного синтеза новых ракурсов и быстрого рендеринга (также как и Gaussian Splatting), но представляя сцены с помощью треугольников. В отличие от этого, присущая гауссовым примитивам мягкость часто приводит к размытию и потере мелких деталей, (см пример под скамейкой или у двери в комнату), в то время как Triangle Splatting сохраняет резкие края и точно передает мелкие детали.

Для гиков (для нормальных ниже): В области компьютерной графики произошла революция благодаря таким моделям, как Neural Radiance Fields и 3D Gaussian Splatting, которые вытеснили треугольники с позиции доминирующего представления в фотограмметрии. В этой статье мы выступаем за возвращение треугольников. Мы разработали дифференцируемый рендер, который напрямую оптимизирует треугольники с помощью сквозных градиентов. Мы достигаем этого путем рендеринга каждого треугольника в виде дифференцируемых сплатов, сочетая эффективность треугольников с адаптивной плотностью представлений, основанных на независимых примитивах. По сравнению с популярными 2D- и 3D-методами гауссовых сплатов, наш подход обеспечивает более высокую визуальную точность, быструю сходимость и повышенную пропускную способность рендеринга.
Треугольники просты, совместимы со стандартными графическими стеками и аппаратным обеспечением GPU и очень эффективны: для сцены "Сад" мы достигли более 2 400 кадров в секунду при разрешении 1280×720, используя готовый mesh-рендерер. Эти результаты подчеркивают эффективность и действенность представлений на основе треугольников для высококачественного синтеза новых видов. Треугольники приближают нас к оптимизации на основе сетки, объединяя классическую компьютерную графику с современными дифференцируемыми фреймворками рендеринга.


Мне кажется ребята дали вторую жизнь пиксаровским микрополигонам: Для рендеринга изображения мы накапливаем вклад всех проецируемых треугольников, используя альфа-смешивание в порядке глубины от переднего к заднему краю. Поскольку все шаги дифференцируемы, мы можем оптимизировать параметры треугольников с помощью градиентного обучения.

Также любопытно посмотреть, как это будет совместимо с UE и Nanite.

Ведь они напрямую пишут:

Triangle Splatting объединяет дифференцируемую оптимизацию сцены с традиционными графическими конвейерами. Треугольный набор совместим с любым mesh-based рендерером, что обеспечивает бесшовную интеграцию в традиционные графические конвейеры. В игровом движке мы рендерим с частотой 2400+ FPS при разрешении 1280×720 на RTX4090.

Фотограмметрия сделала круг и вернулась к истокам.

Код?
Апажалста: https://github.com/trianglesplatting/triangle-splatting

@cgevent

Читать полностью…

Метаверсище и ИИще

Krea бахнула свою модель для генерации картинок.

И назвала ея Krea 1.

Вот что они пишут:

Krea 1 - это наш ответ на проблему "типичного внешнего вида AI".

Большинство моделей AI страдают от мягких текстур, чрезмерной контрастности и создают скучные композиции или стили.

Krea 1 обеспечивает высокореалистичные, четкие текстуры, широкий выбор стилей и глубокие художественные знания - благодаря этому изображения AI больше не выглядят не AI.


Черрипики, естественно, выглядят леденцово-хрустящими, текстуры хрустально-детальными, а цвета вырвиглазными.

Остаётся вопрос: ашозамодель?

Неужто свою натренировалили?

Моя гипотеза: подобно Фрипику, это увешанный лорами и улучшайками Флюкс.

То бишь крутой пайплайн, файнтюн с обвязкой, но не cвоя архитектура/модель.

Пока в бете, дают записаться и попробовать бесплатно вот тут:

https://www.krea.ai/krea-1

Там же черрипики

Через недельку выкатят в на сайт.

И нет, никакого кода, это вам не опенсорс.

@cgevent

Читать полностью…

Метаверсище и ИИще

Subgraphs в Комфи!

Не прошло и пары тысяч лет, как в Комфи завезли Subgraph-ы.
И это вам не Груп Ноды, это сворачиваемые графы в одну Ноду со своими входами и выходами, как у взрослых мальчиков.
Грузовик стоит у ворот, раскатят на след неделе.
Наконец то этот адище можно будет скомпоновать именно по смыслу.

@cgevent

Читать полностью…

Метаверсище и ИИще

Open AI model Guide от Андрея Карпатого.

Он приводит примеры того, в каких случаях он использует ту или иную модель.

Перевел для вас, мне кажется полезно.

Исходник тут.

Я до сих пор сталкиваюсь со многими, многими людьми, которые не знают что:

- o3 - это очевидная лучшая вещь для важных/трудных вещей. Это модель рассуждений, которая намного сильнее, чем 4o, и если вы профессионально используете ChatGPT и не используете o3, то вы - ngmi.

- 4o отличается от o4. Да, я знаю. 4o - хороший "ежедневный драйвер\daily driver" для многих простых и средних вопросов. o4 пока доступен только в виде mini, и он не так хорош, как o3, и я не уверен, почему он вышел именно сейчас.

Пример базового "выбора модели" в моем личном пользовании (см картинку):

- Любой простой запрос (например, "в каких продуктах много клетчатки"?) => 4o (около ~40% моего использования).

- Любой сложный/важный запрос, где я готов немного подождать (например, "помогите мне разобраться в налоговых вопросах...") => o3 (около ~40% моего использования)

- Когда я занимаюсь вайб-кодингом (например, "измените этот код так, чтобы...") => 4.1 (около ~10 % моего использования)

- Я хочу глубоко разобраться в одной теме - я хочу, чтобы chatGPT ушел на 10 минут, просмотрел много-много ссылок и подытожил тему для меня, (например, "помогите мне понять взлет и падение Luminar") => Deep Research (около ~10 % моего использования).

Обратите внимание, что Deep Research - это не версия модели, которую нужно выбрать в списке моделей (!!!), это переключатель внутри Tools. Под капотом он основан на o3, но я считаю, что он не полностью эквивалентен простому запросу в o3, но я не уверен.

Все это только в рамках вселенной моделей ChatGPT. На практике я использую более сложные модели, потому что мне нравится переключаться между всеми: ChatGPT, Claude, Gemini, Grok и Perplexity в зависимости от задачи и исследовательского интереса.


@cgevent

Читать полностью…

Метаверсище и ИИще

Как ворваться в ТОП без бюджета🚀

SEO — это вечная борьба. Ты годами оптимизируешь контент, закупаешь ссылки, настраиваешь рекламу… а результат? Трафик стоит на месте, позиции не растут, конкуренты давят.

Но что, если есть способ обмануть систему — причём легально?

Что делает Умный сервис

Это не просто сервис, а умный алгоритм, который:
🔹 Запускает "невидимых ботов" — они имитируют поведение реальных пользователей: заходят из поиска, листают страницы, кликают на кнопки.
🔹 Поисковики "видят" — ваш сайт нравится людям (хотя это ИИ) и поднимают его в выдаче.
🔹 Работает точечно — можно выбрать конкретные ключи, по которым нужен рост.

Почему это лучше рекламы?
✔️ Без бюджета на клики — трафик органический, а не платный.
✔️ Без риска бана — это не накрутка, а имитация живых посещений.
✔️ Без воды — только ваши ключевые запросы.

Как попробовать?
🎁Сервис дает 5 дней бесплатно — чтобы вы сами убедились в результате
Запустить Умный Сервис 👉 /channel/umnii_servis_bot?start=3707

Если ваш сайт буксует — это ваш шанс прорваться в ТОП📈

#промо

Читать полностью…

Метаверсище и ИИще

Антропоцентричный липсинк

Тут вот HunyuanVideo-Avatar агрессивно пиарится в твитторе.

Я помню, что когда еще в первую Хедру присовывал медведей (они хорошо канают за человека, ИИ распознает лэндмарки типа глаз, носа и рта), то медведи лихо пели пестни, но их оскал был гордостью лучших кожаных дантистов. Зубы и язык были человеческими.

В последнее время вирусятся вот такие ролики "мы научили тварей говорить". Но если посмотреть дареному коту в зубы, то они там по прежнему человеческие, и язык тоже.

В старом фильме Кошки против Собак делали все ручками, но зубы были родные - собачьи и кошачьи.
https://youtu.be/Pnfv4g4D28A

Ждем Лоры на кошачьи пасти.

@cgevent

Читать полностью…

Метаверсище и ИИще

Снова за 3Д: Tripo AI продолжают делать Майю вокруг своего генератора.

Бахнули Tripo Studio Beta, но только для платных подписчиков.

Там и сегментация моделей на части, и Лоу Поли генерация(!), и magic brush для текстур, и, конечно, авториг.
Амбиции по созданию 3д-пакета налицо.

Поглядите их твиттор, много видосов про это:

https://x.com/tripoai/status/1925990677512339964

@cgevent

Читать полностью…

Метаверсище и ИИще

Не удастся отдохнуть.

Veo 3 раскатывают на 71 страну(не только штаты).

Pro юзерам (как я, 20 баксов в месяц) выдают 10 вео3-видосов в месяц.

Олигархам с подпиской Ультра повышают лимит с 83-х до 125-ти генераций в месяц.

Все это доступно через
https://gemini.google.com/app
Но пока только на десктопе(на телефоне позже)..

Скоро вонзятт вео3 на креа и фрипик (по конским ценам)

А пока думаем, как сжечь 10 генераций с умом.

Now, we’re excited to announce:
+ 71 new countries have access
+ Pro subscribers get a trial pack of Veo 3 on the web (mobile soon)
+ Ultra subscribers get the highest # of Veo 3 gens w/ refreshes

How to try it…

➡️ Gemini (http://gemini.google):
* Great for everyone - click the Video chip in the prompt bar, and just describe your video
* Pro subscribers now get a 10-pack so you can try it
* Ultra: MAX limits, daily refresh!

➡️ Flow (http://flow.google):
* Great for AI filmmakers
* Pro: 10 gens/month
* Ultra: Now 125 gens/month (up from 83)!

@cgevent

Читать полностью…

Метаверсище и ИИще

Кстати, скоро будет версия Imagen4(который уже сейчас живёт в приложении Gemini), которая будет в 10 раз быстрее Imagen 3.

@cgevent

Читать полностью…

Метаверсище и ИИще

Это вам за то, что не молитесь.

Читать полностью…

Метаверсище и ИИще

Нейродедовость

Промпт: A stylized figure of a [SUBJECT] made of glowing, abstract red and orange energy particles, with radiant and bright illumination effects, set against a deep, dark background. The subject appears translucent and ethereal, with dynamic lighting, shimmering, and a sense of cosmic elegance in portrait mode

Подставляете вместо subject любую нейрохрень. Можете потом забрать раскучерявленный промпт из chatGPT и кормить его в другие генераторы.

Фас - Gemini\Imagen3
3/4 - chatGPT

Люблю частицы.
И большого Лебовскаго.

@cgevent

Читать полностью…

Метаверсище и ИИще

Теперь официально: Minimax 02 релизнулся.

До 10 секунд.

Нативно в 1080р.

Дешевле, чем Клинг

И точно дешевле, чем Veo3.

Завтра смотрим генерации.

@cgevent

Читать полностью…

Метаверсище и ИИще

Minimax M1 - бесплатная генерация видосов на халяву (пока).

В общем я взял промпты из MovieBench и стал их пихать в свежий агент Minimax M1, о котором сегодня с восторгом писал.

Генерит как миленький. Бесплатно.

Пруф: https://agent.minimax.io/chat?id=281006706552925

Пробуем: https://agent.minimax.io/

@cgevent

Читать полностью…

Метаверсище и ИИще

PartCrafter: Structured 3D Mesh Generation via Compositional Latent Diffusion Transformers

И следом очень похожая работа от Bytedance (вчера пел дифирамбы которой).

Тут тоже на входе картинка, а на выходе составная модель с 3Д-объектами.

Авторы клянутся, что не сегментируют входную 2Д-картинку, а используют кошерное машинное обучение, чтобы определять части уже в латентном пространстве. Для чего прошерстили огромные датасеты.

Демо нет, код будет до 15 июля.

@cgevent

Читать полностью…

Метаверсище и ИИще

Нуар-нейропрожарка

Подписчик Тимур прислал свой любопытный эксперимент. Клипов мы уже насмотрелись, пора пойти в арт-хаус трейлер будущего видео комикса

Итак:
Идея создать что-то в нуар стиле родилась как-то сама собой, когда я пару месяцев назад начал пробовать работать с генерацией видео.
Как-то еще ранее в течение года я игрался с миджорни, увлекся генерацией реалистичной черно-белой фотографией. Поэтому создавая стартовые кадры для видео по инерции сделал их черно-белыми, а потом сформировался окончательный формат: черно-белый нуарный видео комикс, так я это называю. Я начал создавать картинки в миджорни именно в комиксовой рисовке, выдерживая атмосферу - все, что связанно с нуаром: дождь, глубокие тени и другие элементы.
Пробуя разные сервисы по генерации (оригинальные или агрегаторы) насоздавал несколько роликов и решил сделать из них трейлер будущего видео комикса. Главное для меня было передать атмосферу и создать интригу. Меньше внимания уделял качеству видео картинки.

Так как я пробовал разные сервисы, мне хватало их бесплатных генераций: стартовых пакетов либо ежедневных бесплатных генераций. В итоге я попробовал много сервисов: Kling, Hailuo, Wan, Krea, Videomaker. Иногда я использовал их для генерации картинок, но в основном для этого использовал миджорни. Это не было самоцелью, но получилось, что за видеогенерации я не платил, оплатил лишь миджорни (30 USD).

Музыку я не генерил, использовал трек любимой группы Apocalyprica (первая часть), во второй части видео звучит звуковая дорожка из трейлера к фильму Прибытие (Arrival, 2016).

Для монтажа использовал бесплатную версию VN. Формат выбрал вертикальный 9:16, чтобы удобно смотреть на телефоне, ибо выкладываю свои видео на канале в инстаграм.

Интересно узнать отзывы, получилось ли передать атмосферу. Захотелось ли посмотреть сам фильм. Первая часть уже почти закончена.


@cgevent

Читать полностью…

Метаверсище и ИИще

Писал вчера про опенсорсный апскейлер видео SeedVR2, ответочку Топазу, причем для произвольных разрешений.

ByteDance бахнула код 4 часа назад, причем всех запутала.

Код находится в репе старого (январского) проекта SeedVR, а не SeedVR2:
https://github.com/ByteDance-Seed/SeedVR
(Хотя там ссылка на старую статью)

Новый проект https://github.com/IceClear/SeedVR2 - пустой
но там ссылка на правильную статью
https://arxiv.org/abs/2501.01320

И да, есть еще одно репо с таким же именем и авторами:
https://github.com/IceClear/SeedVR

Короче, код по первой ссылке, но не спешите радовацца:
GPU Requirement: Нужна одна H100-80G для 100x720x1280.
или
4 H100-80G further support 1080p and 2K videos.

Пойду на immers.cloud размораживать H100

@cgevent

Читать полностью…

Метаверсище и ИИще

Метаверс все ближе. Вместе с чорным зеркалом.


Судья пришел на сцену преступления в виртуальной реальности.

Впервые судья из Флориды использовал в суде гарнитуру виртуальной реальности, чтобы рассмотреть иск о самообороне с точки зрения обвиняемого.

Никаких рисунков. Линий на асфальте. Никаких слов.
Только погружение в происходящее - вживание в сцену, как она разворачивалась.

Защита создала подробную VR-симуляцию.
Судья надел Oculus Quest 2.
И зал суда увидел, как может выглядеть будущее правосудия.

Дальше много вопросов. Пока это просто болваны в недометаверсе. А в будущем защита и обвинение будут биться за голоса присяжных эмоциями, озвучкой, жестами, колоркоррекцией в конце концов!!

Готовы судиться в симуляции?

@cgevent

Читать полностью…

Метаверсище и ИИще

OpenAI анонсировала новую функцию "Recording" (кодовое название "Hive"), которая позволяет записывать любые встречи или разговоры.

Сразу после этого запись будет транскрибирована в структурированный документ Canvas.

Фича будет доступна для бизнес-аккаунтов

@cgevent

Читать полностью…

Метаверсище и ИИще

У Топазика новый апскейлер картинок.

Не видео, а картинок.

Идея в том, чтобы сделать "уровни креативности", 5 штук, от "еле-еле (subtle) до "за всю мазуту(Max)". На каждую попытку - выдает 4 картинки.

В принципе тут Топаз топчется на уже истоптанной поляне опенсорсных решений от SUPIR до Ersgan. И на коммерческой поляне с Креа и Фрипик. Не очень понятно, как они будут убеждать пользователей заносить деньги. Кроме того, креативные апскейлы - дело нервное, они постоянно немного меняют лица и другие образы.

На сайте пока пусто, а бесплатные приглосы в новый апскейлер раздают тут:

https://x.com/topazlabs/status/1929566831863365817

Как и обещал Андрею, слежу за продуктами.

@cgevent

Читать полностью…

Метаверсище и ИИще

В пятницу у меня на Хабе выступал Андрей Себрант.

Для тех, кто в танке:

Андрей Себрант. Один из первых деятелей рунета, российский учёный, директор по стратегическому маркетингу «Яндекса», автор великолепного телеграм-канала TechSparks, колонки Forbеs и подкаста "Трёп Себранта".

Обсудили массу интересных вопросов:
Какие воспоминания из эпохи раннего интернета актуальны в эпоху раннего ИИ?
Зачем нужны велосипеды на паровом ходу?
Надо ли следить за ежедневными обновлениями моделей?
Почему модели мира интересней языковых?
Зачем нам столько человекоподобных роботов?
Пора ли забыть слово copilot?
Как дела у агентов с агентностью?
Почему бесполезно задавать вопросы об отмирающих профессиях?
Что творится с образованием и с рынком труда?

Начали в 19:00, закончили в 23:30, полностью опустошив бар.

Одним из самых интересных вопросов был про: самосовершенствующийся ИИ.

И на эту тему, я сделаю следующий пост.

А еще мы с Андреем мерялись хвостами. И вспоминали Дениса.

Меня также зацепил слайд Андрея "Не следите за технологиями, следите за продуктами".

И действительно, ИИ-статей и работ стало настолько много, что приходится просеивать их лопатами, 90% - это очередная солянка из имеющихся опенсорсных библиотек, которая, как правило не доходит до продукта или в продукт. И постить про очередной 3Д-генератор в виде репы на гитхабе становится бессмысленно. Для этого есть твиттор. А вот выбирать из этого ацкого потока жемчужины, имеющие продуктовую перспективу и становится хорошей задачей для Нейродеда.

Выходные удались, всех с понедельником.

@cgevent

Читать полностью…

Метаверсище и ИИще

Kling: обновили свой видеогенератор Kling до V 2.1. Изменения коснулись обычной модели и master. Что нового:

Kling 2.1
* Генерация видео в стандартном режиме — 720p, в профессиональном — 1080p
* 5 сек в стандартном режиме стоят 20 кредитов, в профессиональном 35 кредитов
* Работает пока только в image-2-video, позже подрубят text-2-video

Kling 2.1 Master
* Улучшена динамика и следование промту
* Выдаёт 1080p по умолчанию

Сайт
Анонс
Твит

Читать полностью…

Метаверсище и ИИще

Неплохой монтаж из Veo3

Для репортажной съёмки отлично подходит, по свету не сильно палится и озвучка огненная.

Вопрос фейк-ньюс закрыт. Видел уже телевизионные новости из вео3, игровые стримы, интервью на улицах.

Наверное можно выпить за документальную съёмку.

@cgevent

Читать полностью…

Метаверсище и ИИще

За Липсинк.

Помните, что если скормить какому-нибудь сервису аудиофайл и картинку с НЕСКОЛЬКИМИ персонажами, то они все начинают говорить одновременно и одинаково.
Хедра решила побороть этот вопрос довольно лобовым способом. Просто добавили возможность нарисовать рамочку вокруг персонажа.
Кто в рамке - тот и говорит.
И пусть вас не обманывает сцена с двумя персонажами. Сначала генерится видео с одной говорящей головой (вторая моргает и кивает), потом загружается аудио, делается новая рамка, генерится, а клипы сшиваются после этого.
А могли бы как в Суно ввести разметку в тексте. Ибо задолбаештся делать диалог с десятком реплик.

hedra.com

@cgevent

Читать полностью…

Метаверсище и ИИще

Кстати, для Блендора есть новый плагин для текстурирования объектов или целых сцен с помощью SDXL\Flux.

Он, правда, требует ComfyUI для локального запуска, но выглядит очень нарядно.
Код здесь: https://github.com/sakalond/StableGen
А больше информации и инструкций вот тут.

@cgevent

Читать полностью…

Метаверсище и ИИще

https://openai.com/index/introducing-codex/

— Codex — AI-агент-программист у вас в браузере
— может работать над несколькими задачами
— под капотом модель Codex-1 , основанная на o3
— можно подключать свой GitHub аккаунт, чтобы давать доступ агенту
— Plus юзеры пока не получат доступ, выкатят скоро.
— For developers building with codex-mini-latest (МИНИ), the model is available on the Responses API and priced at $1.50 per 1M input tokens and $6 per 1M output tokens, with a 75% prompt caching discount.

Читать полностью…

Метаверсище и ИИще

А вот и первые ласточки применения ИИ в новой нормальной рекламе.

Гугл кормит свои видосы в Гемини.
Она смотрит, где юзер больше всего залипает, так называемые Пиковые Точки.

В каждом видео есть моменты, которые требуют наибольшего внимания, и зрители часто переходят сразу к этому разделу или вскоре уходят. Эти моменты также были бы самым идеальным местом для показа рекламы и получения наибольшего охвата, поэтому YouTube вводит «Peak Points».

Гемини теперь знает про вас не только что вы смотрите, а как вы смотрите и на что вы смотрите. И ну вставлять рекламу.

1Xbet такие: жалкие плагиаторы.

https://9to5google.com/2025/05/15/youtube-ads-gemini-peak-points-placement/

@cgevent

Читать полностью…
Subscribe to a channel