запасаемся чаем и плюшками и бегом в ютуб! урок о продвинутой анимации в колабе Deforum уже на канале! рассказываю про ключи, математику, привязку анимации к звуку и экспорте камеры в дефорум из блендера. приятного просмотра)
Читать полностью…Художница Евгения Шабунина сделала полностью нейрогенеративный клип «Мир спасет красота» для группы АИГЕЛ. Я немного расспросила Евгению о деталях процесса, она поделилась техническими деталями и любимыми кадрами.
Клип был сделан с помощью, кажется, всех существующих вариантов нейрообработки: warpfusion, Deforum и где-то img2img, где не подходили другие способы. Художница говорит, что самое сложное было придумать концепцию чтобы технически все ложилось, он очень много времени потратила на всякие тесты, потому что все-таки не все придуманное в голове пока можно реализовать с помощью нейросетей.
Открытием стало то, что все хорошо и удобно можно миксовать с 3D-графикой, с которой художница уже работала до этого, как полгода назад занялась нейросетевым искусством.
Для меня этот инструмент стал каким то спасением от творческого кризиса, поэтому все таки я думаю еще много проектов нам предстоит пройти вместе.
А в этом проекте получилось крутое путешествие по разным мирам. Мир все-таки спасет красота. И ИИ 🫀🦾
ха, свежий ресурс для создания ИИ анимации! можно по текстовому запросу или по исходной картинке, и все бесплатно. результаты чем то похожи на то что делает колаб Кэтрин Кроусон. больше красивых генераций можно посмотреть в комментах
сайт для создания анимации
колаб Кэтрин Кроусон
@тоже_моушн
опробовал на себе новый img2img по текстовому запросу - InstructPix2Pix. прикольная штука с большим потенциалом. пишешь что хочешь поменять на картинке и она это делает (не всегда). примеры того что умеет и демо - по ссылкам ниже
демо на hf
подробнее о проекте
гитхаб
@тоже_моушн
вчерашний стрим на ютуб - без редактуры, со всеми косяками. смотреть лучше на скорости 1.5)
всем кто участвовал - спасибо! это был интересный опыт. учту ошибки и в следующий раз постараюсь сделать лучше.
а если у тебя есть идеи - о чем еще сделать урок или стрим, пиши в комменты
@тоже_моушн
Выкатили демку Image Mixer
Будем посмотреть, насколько она далека от MidJourney
Тыкать тут
@derplearning
что же это за зверь такой - DeepFloyd?
вчера неожиданно попал на альфа тестирование новой нейронки. и первое что очень хотелось потрогать - генерацию текста на картинках. отличный повод сделать новые аватарки для канала)
не всегда выходит правильно с первого раза - но это и не удивительно. сетка совсем молодая, а привычные правила промтинга работающие для других генераторов тут приходится менять, подстраивать прямо на ходу.
с художественной точки зрения - есть потенциал, сеть неплохо умеет в некоторых художников, а иногда очень хорошо получается даже фотореализм
за возможность прикоснуться к прекрасному огромная благодарность Мишин Лернинг и shonenkov AI
@тоже_моушн
крутейший проект по превращению картинки из миджорней в почти осязаемый 3д объект. такое можно уже и на ЧПУ отправлять. ЭйАйЛера написала об этом подробней, рекомендую также сходить по ссылкам на бехансе и mikevrpv/generative-3d-texturing-using-ai-depth-estimation-and-substance-2c5503a3da9f">медиум
@тоже_моушн
а вот и гайд - очень короткий и очень насыщенный - о том как пользоваться новым колабом для анимации stable diffusion
colab SD smooth interpolation
@тоже_моушн
победил таки задачу плавной интерполяции сид+промт.
если коротко - были готовые решения отдельно для промтов и отдельно для сидов. но красивая картинка - всегда получается из пары этих параметров. теперь умею выстраивать их в последовательность и морфить между собой. а в планах - научиться делать это динамично под музыку
@тоже_моушн
а говорят SD v2.1 не умеет в сисечки. внимательный да увидит. это интерполяция промтов в дефоруме. то есть попытка в плавную морфинг анимацию из одной точки в другую. жаль что v2.1 в плавность не умеет
@тоже_моушн
это видео можно включать с любым новогодним треком - проверено создает новогоднее настроение
Читать полностью…продолжаю исследовать тему сюрреалистичных женских портретов в SD v2.1
теперь в джунглях! в комментах больше красивых картинок
@тоже_моушн
happy neural year!
новый год уже совсем рядом.
но как будто в этот раз праздник - вообще не праздник.
хочу пожелать всем в новом году быть в безопасности. быть в таком месте, откуда не захочется уходить и откуда уходить не придется.
и если все не очень, пусть этот теплый нежный нейро-таймлапс хоть ненадолго подарит вам спокойствие и комфорт. а еще надежду что однажды станет лучше.
подробнее от том как он сделан - в следующем посте
с наступающим!
@тоже_моушн
если вы это читаете находясь в Стамбуле, можете сходить на выставку "Digital Serendipity". там есть видео программа, в которой внезапно мое имя оказалось в списке таких мега-крутанов что мой синдром самозванца просто радуется и танцует.
из тех кого я знаю - Denis Shiryaev (aka Sexy IT), главный по туторам Derrick Shultz, на секундочку сама Rivers Have Wings - Katherine Crowson, Roope Rainisto, ну и я Vsevolod Taran за компанию)
если соберетесь - поснимайте плиз видео, интересно что там и как
🖼️ Нейросети используют даже в анимации — и уже не энтузиасты, а гиганты кинопроизводства. В одном из первых подобных кейсов Netflix и японская Wit Studio сделали короткометражку «The Dog & The Boy» — в ней для создания фоновых изображений участвовала нейросеть. Посмотреть полностью можно тут.
Выглядит неплохо, но проект получил шквал критики. Netflix утверждает, что использовал нейронку «из-за нехватки рабочей силы», хотя в индустрии её вполне хватает. Мультипликаторы жалуются, что Netflix использует ИИ в целях экономии — вместо того, чтобы повысить выплаты художникам. Кожаных мешков уже заменяют нейронки, а мы даже и не заметили.
#AI | Not Boring Tech
кажется у стайлгана есть все шансы вернуться в игру. по крайней мере создатели нового StyleGAN-T утверждают что он значительно превосходит предыдущие GAN и даже дистиллированные диффузионные модели в задаче генерации изображения из текста. а главное - с его помощью появляется возможность предельно плавной анимации, недоступной в Stable Diffusion. видео в презентации совсем крохотное и кода пока нет - подождем, выглядит это ну очень перспективно.
и как говорится - вот э тайм ту би элайф!
страница проекта
гитхаб (пока без кода)
paper
@тоже_моушн
замутил в блендере крутецкий шейдер который делает хроматические аберрации в отражениях. файлом с материалом делюсь в комментах
и да, я теперь еще и цифровая швея)
@тоже_моушн
еще один нейротаймлапс (похоже на то что недавно репостил). выглядит шикарно! и на первый взгляд - недосягаемая магия. однако на реддите пишут что не такая уж и магия:
It's basically just prompting a 'X year old boy/girl sitting on a couch', changing X by just one year until about 5, then skipping 5 years every 10 or so frames. Once you get to about age 20, replace boy/girl with man/woman.видео на ютубе Читать полностью…
This is in Deforum on Automatic1111.
потихоньку начинаю, присоединяйтесь. если есть вопросы или комментарии - пишите в чат канала
Читать полностью…а давайте сегодня вечером стрим устроим? погенерим, познакомимся, обсудим последние нейро-новости? начнем в 21 по мск
Читать полностью…если ты используешь для анимации дефорум, давай подскажу как делать это еще эффективней и интересней) понадобится блендер и пара скриптов для экспорта анимации в понятный дефоруму формат ключей
первый - для превращения звука в кейфреймы. гайд от автора
второй - для экспорта анимации камеры (чума!)
в комменты положу еще примеры того что получается с 3д камерой
@тоже_моушн
еще одна удачная анимация из нового гайда. и как обычно после эксперимента - остается много (160!) годных картинок, которыми по доброй традиции с вами делюсь. может кто то узнает себя или знакомых, а кто то наконец обновит аватарку. а для кого то может быть это станет удачным референсом или инспирейшном. enjoy!
портреты забирать тут
еще посты с портретами - раз, два
@тоже_моушн
ну что, готовы к продвинутой интерполяции?
не ограничивай себя статичными генерациями! возьми уже наконец свои seeds и prompts, расположи в красивом порядке и сгенерируй плавную* анимацию в новом колабе!
colab notebook
*плавную насколько это возможно
@тоже_моушн
стоило мне только начать пилить собственную audio-reactive stable diffusion сборку как оказалось что уже есть подобный проект с очень неплохими промежуточными результатами. при этом основная фишка по задумке авторов - отказ от текстовых промтов и использование картинок вместо них
пост в твиттере
страничка проекта
@тоже_моушн
Потрясающая анимация о годах
Соединив Dreambooth модель обученную на своих портретах и Deforum, Ziyue Li создал анимацию сквозь года с собственным лицом и дополнил текстом:
“Эта мимолетная жизнь в конечном счете будет потеряна для всех нас. С таким же успехом ты мог бы быть смелым и любить кого-то, взбираться на гору и преследовать мечту.”
Анимация
а я просто хочу напомнить как выглядела нейронная графика ровно год назад
если вглядываться в каждую отдельную сцену - невозможно понять что там нарисовано, но при этом легко считывается настроение и контекст сцены. это еще до всех этих ваших dalle и stable diffusion
а еще это метаирония, метамодерн и нестареющая классика
@тоже_моушн
1. для начала я сгенерировал зимний пейзаж в InvokeAi, он нравится мне визуально гораздо больше популярного Automatic1111, но местами уступает ему в плане функционала
2. затем импортировал картинку в Аутоматик и с помощью модели stable-diffusion-2-depth сгенерировал остальные 3 времени года. использовал именно эту модель потому что благодаря ей SD понимает глубину композиции и генерирует новую картинку с сохранением основных объектов в кадре. и пожалуй это заняло больше всего времени - подбор правильных промтов (гифка из 184 версий в комментариях)
3. далее с помощью скрипта depthmap создал карту глубины для зимнего пейзажа. этот скрипт можно использовать в паре с плагином для блендера, который позволяет импортировать сшитые картинку+depthmap в два клика как 3д объект. на ютубе есть примеры использования - раз, два
4. апскейл всех четырех пейзажей, импорт в блендер, настройка анимации камеры. а чтобы получился "таймлапс", сделал простенькую анимацию переходов между временами года, которую потом как текстуру использовал в блендере. рендер
InvokeAi
Automatic1111
модель stable-diffusion-2-depth
depthmap script
blender plugin, video1, video2
@тоже_моушн
почему приложение Lensa так хорошо зашло? да просто потому что мы любим себя рассматривать. а если отражение в зеркале не нравится, нейросети это легко поправят, сделают красиво, да еще и дорисуют неожиданный контекст. фото фильтры на максималках.
мой затянувшийся сеанс самолюбования вчера пошел по второму кругу - я прицепил модель Stable Diffusion дообученную на собственных фотках к новому колабу Katherine Crowson, который придуман чтобы делать плавную анимацию по текстовому запросу, этакое блуждание вокруг да около по латентному пространству. результат - бомбический. особенно женские образы))
colab notebook by Katherine Crowson
p.s. если у тебя есть своя моделька но не знаешь как приделать, пиши в комменты, выложу свою версию колаба
@тоже_моушн
⚡️Колаб от Katherine Crowson, позволяет сделать интерполяцую быстрее и с большими количеством настроек в отличие от стандартной интерполяции в Deforum.
🤫Deforum теперь поддерживает v2 версию SD, если используете через Automatic1111, просто выбираете v2 при установке.
❤️Riffusion теперь доступен, как huggingface демо, там больше настроек, чем на сайте, можно поиграться и создать веселую песенку под Новый год себе или близким.
☺️У Neural.love появился анкроп, можно расширять готовые изображение в иные форматы.