стрим в 22 по Еревану
в программе:
большие языковые модели
новые text2video нейронки
@тоже_моушн
Если вы работаете над серией, комиксом, раскадровкой (или аккаунтом на онлифанс), то вы наверняка сталкивались с проблемой повторяемости лиц.
Когда вам нужно воспроизводить конкретное лицо, то тут не обойтись без обучения. Но если вам просто нужен повторяющийся персонаж, то вот вам клёвый трюк, который я недавно открыл.
Дело в том, что нейросеть уже знает внешность многих людей, я имею в виду самых разных публичных персон. И А1111 умеет смешивать промпты. Поняли, куда я клоню?
Просто скрестите несколько известных личностей и получите новое лицо, которое будет генерироваться почти одинаково в 90 процентах случаев.
Есть две опции. Во-первых, можно начать генерировать одного персонажа, а потом переключиться на другого. Это делается таким выражением в квадратных скобках: [Keanu Reeves:Emma Watson:0.4], где 0.4 - это момент начала генерации второго персонажа, то есть 40 процентов шагов. Но так можно скрестить только двоих.
Есть другой способ:
[Keanu Reeves|Emma Watson|Mike Tyson] - разделяем персонажей вертикальной линией и они будут генерироваться поочередно через шаг.
Дальше добавьте в промпт детали внешности (цвет глаз, волос, особенности) и одежды, и дело в шляпе.
Я даже подготовил вам туториал в виде комикса.
#совет
в LeiaPix внезапно добавили новую анимацию) если надо быстро и просто задвигать статичную картинку - самое то!
@тоже_моушн
уже завтра вечером - первая Генеративная Паверпоинт Найт!
вы готовы услышать 11 докладов на самые безумные темы? какая она - любовь в эпоху высоких технологий? как сохранить талант "рукожопа" в эпоху нейросетей? как появление диффузионных моделей влияет на рождаемость? как перестать генерировать если у тебя нейро-зависимость? и это только малая часть!
1 апреля, 20:00 (мск)
экслюзивная трансляция в too_motion_channel">ютуб канале тоже моушн - приходите слушать и задавать вопросы!
лайк, репост!
@тоже_моушн
ладно, все таки зря я был скептически настроен к генерации кастомных шрифтов в Firefly от Adobe. посмотрел видео Себастиана Камфа и соглашусь что выглядит весьма недурно. даже захотелось проверить насколько геморно сравнимый результат получить контролнетом
а еще сразу в памяти всплыл мощный антивоенный шрифт от Дэмиена Стокера, сделанный еще в диско диффьюжн
видео на ютуб
p.s. кстати получил письмо от адоби, обещают тоже скоро доступ дать)
upd. неожиданно мне дали доступ. го в комменты!
@тоже_моушн
а давайте стрим вечером? 22:00 по Еревану
посмотрим что нового выпустили и анонсировали за последнюю неделю - она была богатой на события)
и заодно можем погенерить всратый музыкальный клип в колабе Modelscope!
есть идея - какую музыку взять и что под нее нарисовать? айда в комменты
@тоже_моушн
Близится мероприятие которое просто нельзя пропустить - Первая Генеративная Паверпоинт Найт! Несерьезные доклады на серьезных щщах)
Это наш способ посмеяться и отдохнуть головой, взглянуть на привычные вещи под другим углом. Будем рассказывать о том, что знаем лучше всего, без цензуры, делиться самыми дурацкими гипотезами, строить самые нереалистичные прогнозы!
Приходите слушать, а ещё лучше — участвовать. Для участия нужна презентация минимум на один слайд, юношеский задор и искрометное выступление на какую-нибудь гиковскую тему. Авторские мемы и теории заговора приветствуются!
От зрителей — хиханьки да хаханьки, уважение к мужеству и интеллектуальному труду докладчика.
Когда: 1 апреля в 20:00 мск, честно
Где: стрим в ютуб (подробности ближе к делу)
Хочешь участвовать? го в комменты
@тоже_моушн
Тут на днях в соседнем канале предсказывали неделю всратых видео, я решил поучаствовать в этом празднике и скрафтил небольшой “видеоклип” из латентного пространства.
Кандидат для чартов “НейроТВ”, приходящему взамен MTV из мультивселенных.
Но если по сути, то на днях китайцы выкатили свою нейронку для генерации видео.
Пока это напоминает 3gp файлики в плохом разрешении с рекламой, передаваемые с мобилки на мобилку в середине нулевых. И всё это с рекламой shutterstock. Но если вспомнить прогресс генераций изображений за последние пару лет, то, с большой вероятностью, скоро “НейроТВ” действительно будет на потоке и приемлемого качества.
Можно потыкать в песочнице и в колабе
Восторг, как от swf флеш клипов в детстве.
Музыка: Shy FX – On The Run
астрологи объявили неделю всратых любительских нейро фильмов на основе Modelscope
и это только начало - похоже что в этом году text2video уже станет реальностью.
и смею предположить - помимо новых более качественных моделей (без вотермарков) нас еще ожидают открытия в промпт инжиниринге - как силой слова победить всратость движений и побороть эффект зловещей долины
видео "Восстание невесты Ктулху" в твиттере
@тоже_моушн
Тест Modelscope
📕 Генерация 256x256 формата и примерно секунды движения.
🔥 Используется только текст для генерации, не нужно референс видео, как например для Gen-1.
😠 Есть косяки в виде лого shutterstock, возможно использование негативных промптов поменяет процесс.
INFO—DEMO—WEIGHTS—COLAB(Запускать лучше на А100)
Напоминает момент, когда заопенсорсилиLatent Diffusion
, тогда в первое время также было 256x256. Но зато какой потенциал, теперь есть и движения!Промпт:
Macro shot of
объект by Victo Ngai, hd, 4k
Читать полностью…
пошаговый гайд по скрипту Multi Frame Rendering - уже на бусти
не пропусти, сегодня планирую еще закинуть урок по расширению Ebsynth Utility для Automatic1111
@тоже_моушн
Исследование: восприятие искусства
Чуть меньше года назад мы анонсировали начало исследования того, какие эмоции могут вызвать те или иные изображения. Исследование запустила Международная лаборатория экспериментальной и поведенческой экономики ВШЭ. Подробнее о проекте тут.
Сейчас авторы работы снова приглашают добровольцев поучаствовать в этом исследовании, для чего создали специального бота.
Приложение запускается в telegram
по ссылке 📲 /channel/galaimagebot
👉 @galaimagebot
🎯 онлайн формат, анонимность
⏰ 5-7 минут время прохождения
🎁 В качестве бонуса среди всех участников будет разыгран ценный приз
а хотите интерактив на канале?
идея не новая (например Громозека от АйМолодца) - берем то, что сложно нарисовать нейронками и пробуем нарисовать.
из ограничений - генерировать нужно в SD за одно нажатие кнопки generate, нельзя делать img2img и использовать ControlNet, можно разные модели, лоры, эмбеддинги
главное условия участия - весь воркфлоу должен быть открытым, то есть любой из участников может взять ваши настройки и получить ровно такой результат
для затравочки - попробуйте повторить мою картинку. вечером выложу настройки
@тоже_моушн
Как AI заменил дорогостоящие А/Б тесты?
В России не отстают от AI-трендов, недавно наши разработчики выкатили AICAP. Сервис одновременно анализирует эмоции, проводит опросы и учитывает нажатия на кнопки реакций (нравится/подписаться/не нравится).
Рекламные баннеры, ролики, фильмы - AICAP работает со всеми форматами.
«Пощупай» инструмент изнутри в качестве респондента, посмотри готовые отчеты, кейсы с Пятерочкой и Лентой, обязательно потыкай по интерактивным графикам в кабинете клиента - это отдельное удовольствие 🔥
С чего хочешь начать? Выбери свой путь по ссылке
#промо
а хотите завтра вечером на стриме пощупаем убабугу и поболтаем с викуньей? если для вас это не абракадабра, хочу узнать ваше мнение и обсудить возможности использования.
если ничего не понятно - приходите слушать интересности (даешь большие языковые модели в каждый дом!)
ну и нейроновинки пора обсудить, их опять набежало
@тоже_моушн
стрим уже через час! не пропустите) разберемся вместе, как SD может пригодиться архитекторам.
обещаю, будет интересно!
пишите ваши вопросы, мысли и промпты
ссылка на стрим
@тоже_моушн
У нас было два пакетика Stable Diffusion, семьдесят пять ампул ControlNet, 5 пакетиков t2i style adapter, солонка, наполовину наполненная Ebsynth Utilitie... Не то, чтобы всё это было категорически необходимо в поездке, но если уж начал собирать коллекцию, то к делу надо подходить серьёзно.
а если серьезно - новое видео с моим участием на канале ХС. энджой!
@тоже_моушн
мы все в предвкушении! а вы в предвкушении?
начинаем через два часа!
смотреть ГенППН #1 в ютуб
@тоже_моушн
последний стрим как то незаслуженно мало просмотров набирает. давайте-ка исправлять это недоразумение!
первая часть - про новинки и полезности, вторая - попытки в новый text2video Modelscope
и предыдущий стрим кстати тоже ничего - где вы еще такой казус увидите?
p.s. хочу сделать это еженедельным форматом. если считаете что вечер субботы не подходит - жду ваших предложений в комментах
@тоже_моушн
напоминалочка: до стрима осталось меньше двух часов!
приходи по этой ссылке
@тоже_моушн
о, еще один text2video на подходе, да к тому же с поддержкой ControlNet - Text2Video-Zero. а самое приятное - родом из Армении - привет Picsart!
авторы предлагают новый метод генерации видео из текста без использования большого объема видео-данных для обучения. а также редактирование входящего видео с помощью промпта
Text2Video-Zero на github
paper
@тоже_моушн
Given Again
😳 Это работа сделанная Jake Oleson полностью в Luma AI использую Nerf рендер.
🔥 Потрясающая работа, полностью ее можно посмотреть тут.
📕 Сейчас Nerf является доступной 3d фотографией, которая сохраняет в памяти всю сцену в отличие от видео и фотографии, и вы можете в дальнейшем покружить в этом пространстве. И пока мы ожидаем реалтайм создание таких сцен для возможность менять камеру для движений Luma AI предлагает уже готовые предметы и сцены встраивать как AR объекты.
А вот и text-2-video ответочка от Runway подъехала: GEN-2. Теперь можно генерить видео чисто промтом без опорного видео или изображения.
А ведь с момента запуска GEN-1 прошла неделя.... гонка AI просто дичайшая
Анонс
Дискорд Runway
минутка профессионального испанского стыда - или - почему Gen-1 не подходит для моушн дизайна
честно, я приложил максимум усилий чтоб получить хоть сколько нибудь вменяемый результат. но похоже что удел Gen-1 на данный момент - красивые сюрные стилизации видео. абстракции - ок, но если необходимо сохранить детали картинки, Gen-1 точно мимо
в комменты положу то что ожидал увидеть и еще пару встратых тестов
@тоже_моушн
ладно, уговорили - вот вам качественный взрослый мультфильм в стиле ретрофутуризм
пайплайн супер гибкий - генерация опорных кадров двумя слоями контролнета (без img2img!) и дальнейшее натягивание в эбсинте. за подробностями о процессе создания - добро пожаловать на бусти)
@тоже_моушн
в ближайшие дни вы скорее всего увидите кучу восторженных новостных постов про новую фичу от Stable Diffusion - Reimagine. или по простому - вариации (привет Далли-2)
я восторгов не разделяю: на картинках выше сравнение генерации Reimagine с результатом t2i style adapter в Controlnet
и там и там портрет девушки в цветах но controlnet куда лучше передает стиль и настроение
@тоже_моушн
печалька что так мало людей захотели присоединиться. но зато в комменты подкинули хорошие идеи для будущих челенджей
а вот обещанные настройки:masterpiece portrait of caucasian woman with (charcoal black:1.2 dark blue) tone skin and short (white hair:1.2), wearing a dark cotton shirt by charlie bowater, face glitter sparkles, intricate details, lise deharme, wlop, trending on artstationhd, <lora:epiNoiseoffset_v2:0.9>
Steps: 30, Sampler: Euler a, CFG scale: 7, Seed: 2836139366, Size: 768x768, Model hash: 9aba26abdf, Model: deliberate_v2
Друзья, мы с командой запустили собственный продукт по генерации изображений: https://insomnia.land/#/image. Сейчас он активно развивается, будем рады первым тестерам!
По регистрации начисляется 50 генераций и каждый день по 10 штук.
Кстати, если хотите поюзать ContolNet, могу открыть доступ. В нем можно стилизовать любой объект, как тут, с помощью простых текстовых запросов по типу “три персонажа из дисней/звездных войн”.
Если возникнут вопросы, пишите в сообщество Telegram: @insomnia_land или мне в ЛС @cyberoleg
эбсинт, контролнет, потанцуем?
нащупал и обуздал интересный пайплайн - в аутоматике (txt2img) смешал кадры танцующей девушки и стиль из картинки (t2i style adapter) а затем прогнал это через расширение ebsynth. создание этой анимации заняло 40 минут - много ручной работы. но результат может потягаться со StableWarp
го в комменты смотреть на промежуточные тесты
@тоже_моушн