cgevent | Unsorted

Telegram-канал cgevent - Метаверсище и ИИще

37800

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Subscribe to a channel

Метаверсище и ИИще

Нуар-нейропрожарка

Подписчик Тимур прислал свой любопытный эксперимент. Клипов мы уже насмотрелись, пора пойти в арт-хаус трейлер будущего видео комикса

Итак:
Идея создать что-то в нуар стиле родилась как-то сама собой, когда я пару месяцев назад начал пробовать работать с генерацией видео.
Как-то еще ранее в течение года я игрался с миджорни, увлекся генерацией реалистичной черно-белой фотографией. Поэтому создавая стартовые кадры для видео по инерции сделал их черно-белыми, а потом сформировался окончательный формат: черно-белый нуарный видео комикс, так я это называю. Я начал создавать картинки в миджорни именно в комиксовой рисовке, выдерживая атмосферу - все, что связанно с нуаром: дождь, глубокие тени и другие элементы.
Пробуя разные сервисы по генерации (оригинальные или агрегаторы) насоздавал несколько роликов и решил сделать из них трейлер будущего видео комикса. Главное для меня было передать атмосферу и создать интригу. Меньше внимания уделял качеству видео картинки.

Так как я пробовал разные сервисы, мне хватало их бесплатных генераций: стартовых пакетов либо ежедневных бесплатных генераций. В итоге я попробовал много сервисов: Kling, Hailuo, Wan, Krea, Videomaker. Иногда я использовал их для генерации картинок, но в основном для этого использовал миджорни. Это не было самоцелью, но получилось, что за видеогенерации я не платил, оплатил лишь миджорни (30 USD).

Музыку я не генерил, использовал трек любимой группы Apocalyprica (первая часть), во второй части видео звучит звуковая дорожка из трейлера к фильму Прибытие (Arrival, 2016).

Для монтажа использовал бесплатную версию VN. Формат выбрал вертикальный 9:16, чтобы удобно смотреть на телефоне, ибо выкладываю свои видео на канале в инстаграм.

Интересно узнать отзывы, получилось ли передать атмосферу. Захотелось ли посмотреть сам фильм. Первая часть уже почти закончена.


@cgevent

Читать полностью…

Метаверсище и ИИще

Писал вчера про опенсорсный апскейлер видео SeedVR2, ответочку Топазу, причем для произвольных разрешений.

ByteDance бахнула код 4 часа назад, причем всех запутала.

Код находится в репе старого (январского) проекта SeedVR, а не SeedVR2:
https://github.com/ByteDance-Seed/SeedVR
(Хотя там ссылка на старую статью)

Новый проект https://github.com/IceClear/SeedVR2 - пустой
но там ссылка на правильную статью
https://arxiv.org/abs/2501.01320

И да, есть еще одно репо с таким же именем и авторами:
https://github.com/IceClear/SeedVR

Короче, код по первой ссылке, но не спешите радовацца:
GPU Requirement: Нужна одна H100-80G для 100x720x1280.
или
4 H100-80G further support 1080p and 2K videos.

Пойду на immers.cloud размораживать H100

@cgevent

Читать полностью…

Метаверсище и ИИще

Метаверс все ближе. Вместе с чорным зеркалом.


Судья пришел на сцену преступления в виртуальной реальности.

Впервые судья из Флориды использовал в суде гарнитуру виртуальной реальности, чтобы рассмотреть иск о самообороне с точки зрения обвиняемого.

Никаких рисунков. Линий на асфальте. Никаких слов.
Только погружение в происходящее - вживание в сцену, как она разворачивалась.

Защита создала подробную VR-симуляцию.
Судья надел Oculus Quest 2.
И зал суда увидел, как может выглядеть будущее правосудия.

Дальше много вопросов. Пока это просто болваны в недометаверсе. А в будущем защита и обвинение будут биться за голоса присяжных эмоциями, озвучкой, жестами, колоркоррекцией в конце концов!!

Готовы судиться в симуляции?

@cgevent

Читать полностью…

Метаверсище и ИИще

OpenAI анонсировала новую функцию "Recording" (кодовое название "Hive"), которая позволяет записывать любые встречи или разговоры.

Сразу после этого запись будет транскрибирована в структурированный документ Canvas.

Фича будет доступна для бизнес-аккаунтов

@cgevent

Читать полностью…

Метаверсище и ИИще

У Топазика новый апскейлер картинок.

Не видео, а картинок.

Идея в том, чтобы сделать "уровни креативности", 5 штук, от "еле-еле (subtle) до "за всю мазуту(Max)". На каждую попытку - выдает 4 картинки.

В принципе тут Топаз топчется на уже истоптанной поляне опенсорсных решений от SUPIR до Ersgan. И на коммерческой поляне с Креа и Фрипик. Не очень понятно, как они будут убеждать пользователей заносить деньги. Кроме того, креативные апскейлы - дело нервное, они постоянно немного меняют лица и другие образы.

На сайте пока пусто, а бесплатные приглосы в новый апскейлер раздают тут:

https://x.com/topazlabs/status/1929566831863365817

Как и обещал Андрею, слежу за продуктами.

@cgevent

Читать полностью…

Метаверсище и ИИще

В пятницу у меня на Хабе выступал Андрей Себрант.

Для тех, кто в танке:

Андрей Себрант. Один из первых деятелей рунета, российский учёный, директор по стратегическому маркетингу «Яндекса», автор великолепного телеграм-канала TechSparks, колонки Forbеs и подкаста "Трёп Себранта".

Обсудили массу интересных вопросов:
Какие воспоминания из эпохи раннего интернета актуальны в эпоху раннего ИИ?
Зачем нужны велосипеды на паровом ходу?
Надо ли следить за ежедневными обновлениями моделей?
Почему модели мира интересней языковых?
Зачем нам столько человекоподобных роботов?
Пора ли забыть слово copilot?
Как дела у агентов с агентностью?
Почему бесполезно задавать вопросы об отмирающих профессиях?
Что творится с образованием и с рынком труда?

Начали в 19:00, закончили в 23:30, полностью опустошив бар.

Одним из самых интересных вопросов был про: самосовершенствующийся ИИ.

И на эту тему, я сделаю следующий пост.

А еще мы с Андреем мерялись хвостами. И вспоминали Дениса.

Меня также зацепил слайд Андрея "Не следите за технологиями, следите за продуктами".

И действительно, ИИ-статей и работ стало настолько много, что приходится просеивать их лопатами, 90% - это очередная солянка из имеющихся опенсорсных библиотек, которая, как правило не доходит до продукта или в продукт. И постить про очередной 3Д-генератор в виде репы на гитхабе становится бессмысленно. Для этого есть твиттор. А вот выбирать из этого ацкого потока жемчужины, имеющие продуктовую перспективу и становится хорошей задачей для Нейродеда.

Выходные удались, всех с понедельником.

@cgevent

Читать полностью…

Метаверсище и ИИще

Kling: обновили свой видеогенератор Kling до V 2.1. Изменения коснулись обычной модели и master. Что нового:

Kling 2.1
* Генерация видео в стандартном режиме — 720p, в профессиональном — 1080p
* 5 сек в стандартном режиме стоят 20 кредитов, в профессиональном 35 кредитов
* Работает пока только в image-2-video, позже подрубят text-2-video

Kling 2.1 Master
* Улучшена динамика и следование промту
* Выдаёт 1080p по умолчанию

Сайт
Анонс
Твит

Читать полностью…

Метаверсище и ИИще

Неплохой монтаж из Veo3

Для репортажной съёмки отлично подходит, по свету не сильно палится и озвучка огненная.

Вопрос фейк-ньюс закрыт. Видел уже телевизионные новости из вео3, игровые стримы, интервью на улицах.

Наверное можно выпить за документальную съёмку.

@cgevent

Читать полностью…

Метаверсище и ИИще

За Липсинк.

Помните, что если скормить какому-нибудь сервису аудиофайл и картинку с НЕСКОЛЬКИМИ персонажами, то они все начинают говорить одновременно и одинаково.
Хедра решила побороть этот вопрос довольно лобовым способом. Просто добавили возможность нарисовать рамочку вокруг персонажа.
Кто в рамке - тот и говорит.
И пусть вас не обманывает сцена с двумя персонажами. Сначала генерится видео с одной говорящей головой (вторая моргает и кивает), потом загружается аудио, делается новая рамка, генерится, а клипы сшиваются после этого.
А могли бы как в Суно ввести разметку в тексте. Ибо задолбаештся делать диалог с десятком реплик.

hedra.com

@cgevent

Читать полностью…

Метаверсище и ИИще

Кстати, для Блендора есть новый плагин для текстурирования объектов или целых сцен с помощью SDXL\Flux.

Он, правда, требует ComfyUI для локального запуска, но выглядит очень нарядно.
Код здесь: https://github.com/sakalond/StableGen
А больше информации и инструкций вот тут.

@cgevent

Читать полностью…

Метаверсище и ИИще

https://openai.com/index/introducing-codex/

— Codex — AI-агент-программист у вас в браузере
— может работать над несколькими задачами
— под капотом модель Codex-1 , основанная на o3
— можно подключать свой GitHub аккаунт, чтобы давать доступ агенту
— Plus юзеры пока не получат доступ, выкатят скоро.
— For developers building with codex-mini-latest (МИНИ), the model is available on the Responses API and priced at $1.50 per 1M input tokens and $6 per 1M output tokens, with a 75% prompt caching discount.

Читать полностью…

Метаверсище и ИИще

А вот и первые ласточки применения ИИ в новой нормальной рекламе.

Гугл кормит свои видосы в Гемини.
Она смотрит, где юзер больше всего залипает, так называемые Пиковые Точки.

В каждом видео есть моменты, которые требуют наибольшего внимания, и зрители часто переходят сразу к этому разделу или вскоре уходят. Эти моменты также были бы самым идеальным местом для показа рекламы и получения наибольшего охвата, поэтому YouTube вводит «Peak Points».

Гемини теперь знает про вас не только что вы смотрите, а как вы смотрите и на что вы смотрите. И ну вставлять рекламу.

1Xbet такие: жалкие плагиаторы.

https://9to5google.com/2025/05/15/youtube-ads-gemini-peak-points-placement/

@cgevent

Читать полностью…

Метаверсище и ИИще

Вышел Kandinsky 3D. Модель для генерации 3Д-мешей.

Картинки нарядные, но я сам попробовать не могу - ну нет у меня sber id.
Поэтому жду вас с результатами в коментах.

А пока держите ну очень годную статью про разработку Kandinsky 3D: там хороший срез этого направления на сегодняшний день по всем решениям.

Меня прям интригует заточенность на САПР\CAD и вот это:
"Кроме того, мы работаем над редактором, который позволит совершенствовать сгенерированные объекты без их экспорта в сторонние инструменты. Появится возможность частично перегенерировать модель — например, заменить только отдельный элемент, не трогая всё остальное.

И это ещё не всё: в планах — разработка разных вариантов ретопологии (упрощения и оптимизации 3D-модели), расширенные настройки генерации и множество других улучшений, которые сделают инструмент максимально гибким, быстрым и удобным для разных сценариев использования — от геймдева до 3D-печати."


https://habr.com/ru/companies/sberdevices/articles/908820/

@cgevent

Читать полностью…

Метаверсище и ИИще

Алибаба бахнули в сеть различные пожатые кванты для Qwen 3.

Все это поддерживается в Ollama и LM Studio.

Полная коллекция версий и форматов тут:
https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f

@cgevent

Читать полностью…

Метаверсище и ИИще

Коль скоро мы тут за графику и мозги в основном, держите довольно хорошо известную оптическую иллюзию.

Один из способов, с помощью которого наша нервная система воспринимает движение, - это так называемый фи-феномен. Эта неврологическая система превращает быстрые последовательности изменений цвета или яркости в нечто более глубокое, например в общее ощущение того, что что-то изменило положение.

Наиболее глазастые и пронырливые могут попросить у chatGPT команду ffmpeg, которая разложит видео на кадры:
ffmpeg -i input.mp4 frames/frame_%04d.png

Они же смогут заметить, что меняется не только цвет, но и по самому краю "ползет" тонкий контрастный контур разного цвета.

Но это не так важно, мы просто наблюдаем, как движение цвета в неподвижной форме, превращается в наших кожаных мозгах в движение самой формы. Кстати, стрелки можете закрыть пальцем, они вообще не играют роли.

А я попросил chatGPT сбацать мне питонг-скрипт, который разбирает видео на кадры и собирает их обратно в рандомном порядке. Иллюзия тут же пропала.

Всем критического мышления с утра.

Кому интересно, тут больше теории.

@cgevent

Читать полностью…

Метаверсище и ИИще

Ну, за Gaussian Splatting!

История ходит по кругу. Наигрались с этими полупрозрачными эллипсами, пора и честь знать и вернуться к старым добрым треугольникам.

Встречайте: Triangle Splatting for Real-Time Radiance Field Rendering

И это не китайския студенты, это DeepMind, Оксфорд и прочие взрослыя мальчики. И 2 400 кадров в секунду

Triangle Splatting позволяет добиться высококачественного синтеза новых ракурсов и быстрого рендеринга (также как и Gaussian Splatting), но представляя сцены с помощью треугольников. В отличие от этого, присущая гауссовым примитивам мягкость часто приводит к размытию и потере мелких деталей, (см пример под скамейкой или у двери в комнату), в то время как Triangle Splatting сохраняет резкие края и точно передает мелкие детали.

Для гиков (для нормальных ниже): В области компьютерной графики произошла революция благодаря таким моделям, как Neural Radiance Fields и 3D Gaussian Splatting, которые вытеснили треугольники с позиции доминирующего представления в фотограмметрии. В этой статье мы выступаем за возвращение треугольников. Мы разработали дифференцируемый рендер, который напрямую оптимизирует треугольники с помощью сквозных градиентов. Мы достигаем этого путем рендеринга каждого треугольника в виде дифференцируемых сплатов, сочетая эффективность треугольников с адаптивной плотностью представлений, основанных на независимых примитивах. По сравнению с популярными 2D- и 3D-методами гауссовых сплатов, наш подход обеспечивает более высокую визуальную точность, быструю сходимость и повышенную пропускную способность рендеринга.
Треугольники просты, совместимы со стандартными графическими стеками и аппаратным обеспечением GPU и очень эффективны: для сцены "Сад" мы достигли более 2 400 кадров в секунду при разрешении 1280×720, используя готовый mesh-рендерер. Эти результаты подчеркивают эффективность и действенность представлений на основе треугольников для высококачественного синтеза новых видов. Треугольники приближают нас к оптимизации на основе сетки, объединяя классическую компьютерную графику с современными дифференцируемыми фреймворками рендеринга.


Мне кажется ребята дали вторую жизнь пиксаровским микрополигонам: Для рендеринга изображения мы накапливаем вклад всех проецируемых треугольников, используя альфа-смешивание в порядке глубины от переднего к заднему краю. Поскольку все шаги дифференцируемы, мы можем оптимизировать параметры треугольников с помощью градиентного обучения.

Также любопытно посмотреть, как это будет совместимо с UE и Nanite.

Ведь они напрямую пишут:

Triangle Splatting объединяет дифференцируемую оптимизацию сцены с традиционными графическими конвейерами. Треугольный набор совместим с любым mesh-based рендерером, что обеспечивает бесшовную интеграцию в традиционные графические конвейеры. В игровом движке мы рендерим с частотой 2400+ FPS при разрешении 1280×720 на RTX4090.

Фотограмметрия сделала круг и вернулась к истокам.

Код?
Апажалста: https://github.com/trianglesplatting/triangle-splatting

@cgevent

Читать полностью…

Метаверсище и ИИще

Krea бахнула свою модель для генерации картинок.

И назвала ея Krea 1.

Вот что они пишут:

Krea 1 - это наш ответ на проблему "типичного внешнего вида AI".

Большинство моделей AI страдают от мягких текстур, чрезмерной контрастности и создают скучные композиции или стили.

Krea 1 обеспечивает высокореалистичные, четкие текстуры, широкий выбор стилей и глубокие художественные знания - благодаря этому изображения AI больше не выглядят не AI.


Черрипики, естественно, выглядят леденцово-хрустящими, текстуры хрустально-детальными, а цвета вырвиглазными.

Остаётся вопрос: ашозамодель?

Неужто свою натренировалили?

Моя гипотеза: подобно Фрипику, это увешанный лорами и улучшайками Флюкс.

То бишь крутой пайплайн, файнтюн с обвязкой, но не cвоя архитектура/модель.

Пока в бете, дают записаться и попробовать бесплатно вот тут:

https://www.krea.ai/krea-1

Там же черрипики

Через недельку выкатят в на сайт.

И нет, никакого кода, это вам не опенсорс.

@cgevent

Читать полностью…

Метаверсище и ИИще

Subgraphs в Комфи!

Не прошло и пары тысяч лет, как в Комфи завезли Subgraph-ы.
И это вам не Груп Ноды, это сворачиваемые графы в одну Ноду со своими входами и выходами, как у взрослых мальчиков.
Грузовик стоит у ворот, раскатят на след неделе.
Наконец то этот адище можно будет скомпоновать именно по смыслу.

@cgevent

Читать полностью…

Метаверсище и ИИще

Open AI model Guide от Андрея Карпатого.

Он приводит примеры того, в каких случаях он использует ту или иную модель.

Перевел для вас, мне кажется полезно.

Исходник тут.

Я до сих пор сталкиваюсь со многими, многими людьми, которые не знают что:

- o3 - это очевидная лучшая вещь для важных/трудных вещей. Это модель рассуждений, которая намного сильнее, чем 4o, и если вы профессионально используете ChatGPT и не используете o3, то вы - ngmi.

- 4o отличается от o4. Да, я знаю. 4o - хороший "ежедневный драйвер\daily driver" для многих простых и средних вопросов. o4 пока доступен только в виде mini, и он не так хорош, как o3, и я не уверен, почему он вышел именно сейчас.

Пример базового "выбора модели" в моем личном пользовании (см картинку):

- Любой простой запрос (например, "в каких продуктах много клетчатки"?) => 4o (около ~40% моего использования).

- Любой сложный/важный запрос, где я готов немного подождать (например, "помогите мне разобраться в налоговых вопросах...") => o3 (около ~40% моего использования)

- Когда я занимаюсь вайб-кодингом (например, "измените этот код так, чтобы...") => 4.1 (около ~10 % моего использования)

- Я хочу глубоко разобраться в одной теме - я хочу, чтобы chatGPT ушел на 10 минут, просмотрел много-много ссылок и подытожил тему для меня, (например, "помогите мне понять взлет и падение Luminar") => Deep Research (около ~10 % моего использования).

Обратите внимание, что Deep Research - это не версия модели, которую нужно выбрать в списке моделей (!!!), это переключатель внутри Tools. Под капотом он основан на o3, но я считаю, что он не полностью эквивалентен простому запросу в o3, но я не уверен.

Все это только в рамках вселенной моделей ChatGPT. На практике я использую более сложные модели, потому что мне нравится переключаться между всеми: ChatGPT, Claude, Gemini, Grok и Perplexity в зависимости от задачи и исследовательского интереса.


@cgevent

Читать полностью…

Метаверсище и ИИще

Как ворваться в ТОП без бюджета🚀

SEO — это вечная борьба. Ты годами оптимизируешь контент, закупаешь ссылки, настраиваешь рекламу… а результат? Трафик стоит на месте, позиции не растут, конкуренты давят.

Но что, если есть способ обмануть систему — причём легально?

Что делает Умный сервис

Это не просто сервис, а умный алгоритм, который:
🔹 Запускает "невидимых ботов" — они имитируют поведение реальных пользователей: заходят из поиска, листают страницы, кликают на кнопки.
🔹 Поисковики "видят" — ваш сайт нравится людям (хотя это ИИ) и поднимают его в выдаче.
🔹 Работает точечно — можно выбрать конкретные ключи, по которым нужен рост.

Почему это лучше рекламы?
✔️ Без бюджета на клики — трафик органический, а не платный.
✔️ Без риска бана — это не накрутка, а имитация живых посещений.
✔️ Без воды — только ваши ключевые запросы.

Как попробовать?
🎁Сервис дает 5 дней бесплатно — чтобы вы сами убедились в результате
Запустить Умный Сервис 👉 /channel/umnii_servis_bot?start=3707

Если ваш сайт буксует — это ваш шанс прорваться в ТОП📈

#промо

Читать полностью…

Метаверсище и ИИще

Антропоцентричный липсинк

Тут вот HunyuanVideo-Avatar агрессивно пиарится в твитторе.

Я помню, что когда еще в первую Хедру присовывал медведей (они хорошо канают за человека, ИИ распознает лэндмарки типа глаз, носа и рта), то медведи лихо пели пестни, но их оскал был гордостью лучших кожаных дантистов. Зубы и язык были человеческими.

В последнее время вирусятся вот такие ролики "мы научили тварей говорить". Но если посмотреть дареному коту в зубы, то они там по прежнему человеческие, и язык тоже.

В старом фильме Кошки против Собак делали все ручками, но зубы были родные - собачьи и кошачьи.
https://youtu.be/Pnfv4g4D28A

Ждем Лоры на кошачьи пасти.

@cgevent

Читать полностью…

Метаверсище и ИИще

Снова за 3Д: Tripo AI продолжают делать Майю вокруг своего генератора.

Бахнули Tripo Studio Beta, но только для платных подписчиков.

Там и сегментация моделей на части, и Лоу Поли генерация(!), и magic brush для текстур, и, конечно, авториг.
Амбиции по созданию 3д-пакета налицо.

Поглядите их твиттор, много видосов про это:

https://x.com/tripoai/status/1925990677512339964

@cgevent

Читать полностью…

Метаверсище и ИИще

Не удастся отдохнуть.

Veo 3 раскатывают на 71 страну(не только штаты).

Pro юзерам (как я, 20 баксов в месяц) выдают 10 вео3-видосов в месяц.

Олигархам с подпиской Ультра повышают лимит с 83-х до 125-ти генераций в месяц.

Все это доступно через
https://gemini.google.com/app
Но пока только на десктопе(на телефоне позже)..

Скоро вонзятт вео3 на креа и фрипик (по конским ценам)

А пока думаем, как сжечь 10 генераций с умом.

Now, we’re excited to announce:
+ 71 new countries have access
+ Pro subscribers get a trial pack of Veo 3 on the web (mobile soon)
+ Ultra subscribers get the highest # of Veo 3 gens w/ refreshes

How to try it…

➡️ Gemini (http://gemini.google):
* Great for everyone - click the Video chip in the prompt bar, and just describe your video
* Pro subscribers now get a 10-pack so you can try it
* Ultra: MAX limits, daily refresh!

➡️ Flow (http://flow.google):
* Great for AI filmmakers
* Pro: 10 gens/month
* Ultra: Now 125 gens/month (up from 83)!

@cgevent

Читать полностью…

Метаверсище и ИИще

Кстати, скоро будет версия Imagen4(который уже сейчас живёт в приложении Gemini), которая будет в 10 раз быстрее Imagen 3.

@cgevent

Читать полностью…

Метаверсище и ИИще

Это вам за то, что не молитесь.

Читать полностью…

Метаверсище и ИИще

Нейродедовость

Промпт: A stylized figure of a [SUBJECT] made of glowing, abstract red and orange energy particles, with radiant and bright illumination effects, set against a deep, dark background. The subject appears translucent and ethereal, with dynamic lighting, shimmering, and a sense of cosmic elegance in portrait mode

Подставляете вместо subject любую нейрохрень. Можете потом забрать раскучерявленный промпт из chatGPT и кормить его в другие генераторы.

Фас - Gemini\Imagen3
3/4 - chatGPT

Люблю частицы.
И большого Лебовскаго.

@cgevent

Читать полностью…

Метаверсище и ИИще

Stability AI внезапно выпускают в опенсорс генератор музыки/семплов адаптированный под генерацию на ARM процессорах. Это значит, что на мобилках теперь можно делать семплы длинной до 11 сек, без доступа к интернету и других нужд.

Звучит кстати вполне неплохо, нареканий по железному звуку нет.

Подробнее тут

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Подписчик Дмитрий прислал музыкальный клип. Прожариваем в коментах, фразы начинаем "На мой взгляд..". Кто начинает тыкать в автора, идет в бан. Прожариваем клип, а не автора.

Этот клип — моя личная интерпретация песни «Homay» от Ay Yola, созданная полностью с помощью нейросетей. Вдохновившись оригинальной композицией, я решил воплотить визуальный образ, который, на момент создания, ещё не был представлен в сети.

Процесс создания:
• Генерация изображений: Midjourney v7.
• Озвучка: Dreamina.
• Анимация: Runway, Kling, Luma, Higgsfield.
• Постобработка: Photoshop.
• Монтаж: CapCut.
• Апскейл: Topaz, Magnific.

Особое внимание уделено сценам с элементами сюрреализма и танцами, где возникли определённые сложности с артефактами. Тем не менее, цель была — передать атмосферу и погрузить зрителя в традиции народной культуры.

В процессе было сгенерировано более 500 кадров, из которых в финальную версию вошли около 40. На каждый из этих кадров пришлось по 3-5 дублей анимации, что в сумме составило порядка 150-200 анимированных сцен.

Этот проект — не коммерческая работа, а скорее творческий эксперимент, позволяющий исследовать возможности нейросетей в создании видеоконтента.


Качество тут: https://youtu.be/0qxHlxkAz5I

@cgevent

Читать полностью…

Метаверсище и ИИще

Лето. Питер. AI

26 и 27 июня в Питере пройдет Conversations 2025 — конференция по разговорному и генеративному AI для бизнеса и разработчиков.

Что в фокусе?

🔥 4 трека: технологический, продуктовый, бизнес-треки и, впервые на конференции — стартап-трек, где команды поделятся историями успеха и представят свои GenAI-решения заказчикам и инвесторам.

Немного спойлеров:

🔵 LLM на Госуслугах. Цель, путь и результат. Как ожидания столкнулись с реальностью. Госуслуги x РТ Лабс

🔵 От RnD к продукту: почему крутая модель — еще не фича? Сбер

🔵 Как ATOM обучает автопилот для электромобилей с помощью ML-платформы Selectel: опыт и решения. Selectel & АТОМ

И еще 35+ докладов от экспертов Skyeng, книги билайн, red_mad_robot, Яндекс, Газпромбанк, БКС, Cбер, Битрикс24, Just AI, Artefacto и многих других. Полная программа тут.

Также в эти даты пройдет награждение Generation AI Awards 2025 — первой в России премии, посвященной применению генеративного AI в бизнесе 🦾 Ну как такое пропустить?

📌 Подробности и билеты по ссылке.
Специальный промокод на скидку 10% для наших подписчиков: C25METAVERSE

Читать полностью…

Метаверсище и ИИще

Интернетик полон новых забав.

Подаем на вход chatGPT изображение, говорим "опиши его и сделай картинку по описанию". И так 73 раза.

Получается игра в испорченный телефон. Картинка "уплывает" от оригинала.

Я игрался с этим примерно полтора года назад, когда в chatGPT еще был DALL·E 3. Было интересно поглядеть, в какие архетипы он уводит картинку - писал скрипт на Autohotkey, который сохранял картинку и сувал ея обратно в chatGPT.
Обнаруживались уход в цветы из чорного квадрата, подъем камеры наверх, определенные ракурсы и библейские облака.

Сейчас описание и генерация картинок стали точнее. Но мне вот за ИИ обидно. Попробуйте кожаному на словах описать картинку и попросить нарисовать по словесному описанию, потом показать картинку другому кожаному, и попросить его описать, ну и так далее. Думаю хватит двух итераций, чтобы "напеть Шаляпина".

Так что шутка не очень смешная.

Но занимательная..

@cgevent

Читать полностью…
Subscribe to a channel