Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство. Статистику не предоставляю, смотрите на tgstat.ru Реггистрация в РКН: № 5646935501 mentorcampus.ru Вопросы и предложения: @Evgeniy_Vegera
Обожаю период "дикого Запада" в технологиях, когда законодательные акты еще не подписаны и тестировать можно почти все, что угодно. Подобное было с MSQRD, пока его не выкупили, и можно было безнаказанно делать блекфейс с Обэмой.
Roop-cam можно прикрутить расширением к SD. Также можно запустить в реальном времени через вэбку. Очень хочу потестить на своих стримах.
Ну и nsfw при таком подходе, конечно, никто не отменял. Только Эдуарда Хиля не используйте, хотя кому я об этом говорю.
Гит тут
Сейчас техника дорисовки ( matte painting ) или изменения пространства в кино очень обширна. Сложнейшие симуляции, реалистичная графика и отслеживание движения камеры, позволяют на postproduction этапе создавать точнейшую иллюзию, того что мы видим.
Но так было не всегда. Когда не было компьютеров киношники обходились различными трюками. При статичных кадрах буквально перед камерой ставили стекло на котором дорисовывали в реалистичной манере то. чего не было в кадре. Так рождались первые постапокалиптические и фантастические миры.
Когда Youtube выдал мне подборку Matte painting из старых фильмов.
Меня осенило! Генеративная заливка нового фотошопа, идеальный инструмент для того, чтобы создавать целые куски локаций. Итоги эксперимента вы можете увидеть выше!
Ну и вот пока вы пишете, вам полезный контент.
У меня, честно говоря, отвал жопы случился!
Эта тримшит текстура 128х128px из первого Quake рисовалась попиксельно, мышкой в ФШ.
И с одной стороны, понимаешь, как страдали художники прошлого, а с другой, видишь, насколько охеренно нарисована сама текстура. Насколько богатые цвета, кто знает, тот поймёт.
И всё это ещё раз в подтверждение моих вайнов на счёт обучения художественной базе, а не тыкать в нейронки без какого-либо понимания. Хоть это тоже круто 🤡
#промо
Хочешь попасть в мир игровой разработки, но не знаешь, с чего начать? Кажется, мы нашли идеальный выход!
За 4 месяца курса «Основы Unreal Engine 5» от онлайн-школы «Нарраторика» Никита Веселко, руководитель разработки в IThub games, научит тебя основам работы с Unreal Engine 5 и расскажет:
✅ как создавать игры с помощью Blueprints и без единой строчки кода
✅ как работать с UI и создавать не просто интересные, но и красивые игры
✅ какие инструменты есть в UE5 для создания интерактивных историй
Курс подойдет как для начинающих разработчиков, которые хотят попасть в геймдев-индустрию, так и для более опытных специалистов, желающих прокачать свои навыки 🎮
В результате прохождения курса ты создашь свой собственный игровой проект, получишь фидбэк по своей игре от топовых экспертов индустрии и, конечно же, примкнешь к дружному комьюнити игровых сценаристов и разработчиков!
А если и это тебя не убедило, то мы приоткроем завесу тайны и скажем, что при покупке курса в подарок ты получишь книгу Никиты Веселко «Программирование в Unreal Engine 5 для начинающего игродела. Основы визуального языка Blueprint» 🎁
📅 Курс стартует уже 17 июля
Узнать больше о программе 👉 https://narratorika.com/program/unreal/
Простите, правда, постараюсь ограничить количество генераций без полезной нагрузки. Но я не могу пройти мимо Дня Независимости штатов в таком исполнении.
Одно из важных характеристик искусства - это способность находить отклик внутри человека, общества и вызывать сильные эмоции, это конечно вопрос всегда спорный и дискутируемый.
Кажется, что генератив намеренно или нет, с манипуляцией эмоциями справится, как будто бы это естественный для него путь. Путь знать нас лучше нас самих и дергать за эти ниточки.
Было бы совсем прекрасно, если бы это видео получилось только лишь с одним промптом, "показать культуру", готовы ли мы будем посмотреть в лицо алгоритмам без прикрас пропаганды, в лицо культуры, в лицо нас самих?
Думал угарно напишу, а получилось не очень, но видос знатно тащит. Доброго утра!🖕
Я не знаю, чего вы хейтите, по-моему, получается очень круто!
1. Берем Google MusicML, "пишем" атмосферный трек.
2. Добавляем аранжировку в Ableton.
3. Берем Gen-2, делаем видеоклип.
Итого, при временных затратах в течение недели вашего свободного времени, вы - человек-студия.
Кто там еще боится, что работу потеряет? Работать будем больше, это да, этого бояться надо)
Тут можно глянуть версию в HD
Сраться предлагаю в коментах)
Вот я вчера на конфе касался новых профессий и индустрий, куда можно будет вкатываться, имея при себе довольно скромные инструменты в виде компа и видеокамеры. Пишите сценарии, подснимайте футажи, монтируйте, делайте свой контент.
Как Sway Molina в этом посте, где он расписывает пайплайн, как он снимает этот короткий метр. У него на это ушло полтора дня.
Пайплайн тут
Видос в HQ тут
Сервис Aalab упрощает работу со сторибордами, казалось бы, очевидное применение сеток, но нам нужен для этого отдельный сервис с про подпиской. Окей, там есть полезные функции, но когда мы начали называть бизнесом GUI для открытых алгоритмов?
Отдельным пунктом порадовал Special Feature - Downscale. 🤦🏼
Ладно, может, я зря подгораю, вдруг вам пригодится.
ITSALIVE оживили самого знаменитого кота страны — СберКота
Сегодня Сбер презентовал своего первого диджитал амбассадора. Старый добрый кот из стикеров ожил в реалистичном 3D!
СберКот — первый аватар в России, который будет взаимодействовать с пользователями в Real Time, коллабиться с блогерами и вести стримы на разных площадках. За сборку универсального аватара отвечала студия ITSALIVE.
Переходите в канал ITSALIVE — там ребята рассказывают о том, как делался кот и другие кейсы с применением аватаров, графики и нейросетей.
#промо
Адобченко не унимается.
Показали очень ранний прототип новой ИИ-тулзы Gingerbread.
Как я понял, это отдаленный аналог ControlNet, только с нормальным UI и без этих вот всех десятков слайдеров-параметров.
Там даже засветился нормальный 3Д-манипулятор и оси вращения(!).
Можно менять освещение, ракурс, перспективу и даже перетаскивать сгенерированные объекты (привет драгГАН). С помощью промптов.
Адобченко, давай, жги.
https://petapixel.com/2023/06/27/adobe-previews-new-ai-image-generator-tool/
Давайте, как я люблю, посмотрим на процессы, которые происходят в геймдеве в общем. У Epic есть инструменты, которые взаимодействуют с ИИ, у Unity начинают появляться инструменты, которые работают под управлением ИИ.
Они так и говорят в своем ролике: "Every game will be touched by AI". Это ли не очевидный тренд?
Одна из систем, Unity Muse, будет помогать в каждодневных процессах, ускоряя их.
Другая, Unity Sentis, будет позволять встраивать другие нейронные сети для ваших нужд, типа плагин менеджера или бриджа.
Интересно посмотреть, как они будут решать вопросы с копирайтами. Можно ли будет продавать игры с генерацией из SD, например?
Прекрасное конкурентное будущее игровых движков в области AI наступило!
Почитать тут
Вышла демка DrugGAN.
Добавление работы с масками необходимый элемент.
Надеюсь с усложнениями мы не дойдем до момента когда начнем задаваться вопросом, а может быстрее по классике сделать?
Демка тут
У вас есть стратегия по креативам, но нет свободных рук, чтобы делать видео? Вот кто поможет: Alconost. 🎥
В Alconost делают серии трейлеров, тизеров и рекламных видеокреативов для игр. 🎮
Мимимишные, зловещие, залипательные, прикольные, до мурашек — любые.
🎨 Анимация в 2D и 3D
⚡️ Динамичный монтаж
🌍 Озвучка роликов на 20+ языках
📱 Видео под любые площадки и требования: Steam, App Store, Google Play, YouTube, социальные и рекламные сети.
Вникают в контекст, пишут логичный сценарий. Арты и создают с нуля, и анимируют готовые — всё гибко.
Освободите своей команде время — доверьте создание ролика ребятам из Alconost! ✨
Среди 150+ трейлеров и тизеров от Alconost наверняка есть ролики об играх, которые вы знаете. Посмотрите, с какими тайтлами работали в Alconost, и узнайте, сколько будет стоить ролик о вашей игре: alconost.com/ru/video-production/games
#промо
Кроме того, у ребят ещё есть примеры работы с инвирой, интерьерной и экстерьерной. Ещё бы от ракурса к ракурсу учитывался контекст предыдущего кадра, и генерация не скакала бы слишком сильно. Был бы вообще отвал жопы.
Сорс
Иногда можно и ошибки свои признать. Честно говоря, когда Adobe купила Algorithmic, которые выпускали Substance Painter и Substance Designer с еще парочкой неплохих софтин, я, как и многие, очень скептически отнёсся к этому.
Но в последнее время Painter развивается отлично, учитывает потребности художников, и добавляет новые полезные фичи, как на видео. Редактируемые сплайны кистей, это прям очень хорошо!
Ну, а про Фотошоп с AI-составляющей и говорить не приходится, и так все понятно.
У меня всегда вызывали интерес тестовые полигоны для тестирования функций ИИ.
Ниже пример такого полигона, AI warehouse, где AI по имени Albert учится ходить превозмогая изощрённые попытки его унизить.
При чем обычно учат ходьбе либо по данным мокапа либо учат подражать ходьбе, в этом рисере все по честному, после каждой попытки сетка енестраиватся учитывая успешные и неуспешные попытки.
Интересно сравнить сколько итераций человеческий мозг и искусственный проходят пока не научатся двигать двумя мясными отростками.
Спойлер, в конце он научился убивать и ходить!
Сорс
Меня как раз недавно спрашивали, можно ли через depth мапу получить сносную геометрию, чтобы использовать в играх.
Вот тут показан процесс на 6 минут пайплайна через карту глубины. Заспойлерю, можно китбашить, прототипировать что-то быстрое, но это в продакшн не годится пока.
Лицо из метахьюманов.
Смотреть пайплайн
Я, кстати, вообще понятия не имею, что вы у меня любите тут.
Я не смотрел и не анализировал даже. Просто посчу всегда, что меня самого прёт, вам вроде тоже нравится. Знаю, что часть людей из геймдева и часть из смежных профессий: из поста, моушена, ну и все прутся по нейроночкам и генеративу, конечно.
Напишите в комменты свои профессии, которые я не упомянул, очень интересно почитать будет. Люблю вас ❤️
Как оголтелый технооптимист, не могу не поделиться чудесным ресурсом:))
Он не новостной, он как раз про историю. Там любовно собраны аж с середины XIX века публикации (в виде сканов по причине отсутствия цифрового формата в те дикие времена) о вреде технологий и новых медиа.
В качестве примера на картинке к этому посту статья почти столетней давности, где снижение успеваемости в школах и проблемы со сном у взрослых связывают с появлением радио:)
За прошедшие полтора с хвостиком века что только не обвиняли в бедах человеческих: романы и телефонию, телеграф и велосипед, кинематограф и автоматические лифты… Очень любопытно все это просматривать, обнаруживая живучие и по сей день существующие штампы и узнаваемые интонации алармистов.
Pessimists Archive is a project to jog our collective memories about the hysteria, technophobia and moral panic that often greets new technologies, ideas and trends.
Не реклама 👺
Мой хороший знакомый попросил меня поделиться своим каналом, где он выкладывает тесты симуляций в разных софтах и плагинах.
15 лет стажа в симуляциях - это еще постараться надо. Канал только стартовал, так что скромный и от этого ламповый, всегда можно обратиться напрямую к Леше за советом или фрилом.
Кому-то Кому-то помощь, а дядe Лешe будет приятно!
Также у него есть второй канал с авторскими текстурами; информацию можно найти в шапке его канала.
/channel/particles_ru
На днях исследователи из Принстона, отделения нейронаук, выпустили в открытый доступ полное описание структуры связей в нервной системе плодовой мушки, или (Коннектом). Область исследований включает в себя картографирование и анализ архитектуры нейронных связей.
Конечно, здесь не обошлось без помощи ИИ. Картографирование и анализ такого объема связей без него были бы просто невозможными.
Речь идет о примерно 130 тыс. аннотированных нейронов и десятках миллионов типизированных синапсов!
Для этого исследования даже есть отдельный аккаунт в Twitter с аннотациями и пояснительными видео.
Почитать про исследование подробнее
flywireprinceton4189/search">Видео архив
Очень вдохновляющий пример энтузиаста, который озвучивает разные части GTA своим голосом, пропускает все это через нейронку RVC v2.
Получается гораздо лучше, чем я ожидал. Не идеально, но поставьте себя на место актеров озвучания. Они, конечно, могут сейчас продавать свои голоса для тренировки датасетов. Пока сетки не научились подбирать тембр, а дальше уже надо будет думать, что делать.
Давайте придумаем варианты, куда пойти работать актерам озвучания?
Так получилось, что меня пригласили на конференцию по нейросеткам.
Предупрежу, что я там рассказывал прямо про супербазовые вещи. Отвечал за ситуацию с нейросетями в геймдеве. Показывал, как я применяю их в работе, и отвечал на вопросы.
Советую всем, кто совсем недавно вкатился и ещё не очень понимает, что это и куда будет двигаться вся эта хайп-волна.
Смотреть
https://www.youtube.com/live/FbsGtyEIYh4?feature=share&t=5416
Replica Studios сделала войс плагин для движков, позволяющий озвучивать внутриигровых персонажей и передавать голоса непосредственно в проекты. Кроме игровых движков, совместим также с Iclone, Omniverse, Roblox, Metahuman.
Цитата компании: "NPC, управляемые искусственным интеллектом, будут динамически реагировать на голос игрока в реальном времени. Персонажи будут менять свой диалог, эмоциональный тон и жесты тела в ответ на то, как игрок обращается к ним."
Демку можно скачать тут
В этом посте не будет eye-catching видео для привлечения вашего внимания, но будет картинка, ознаменовывающая начало нейронного рендеринга.
Несмотря на то, что статья больше прославляет чипы Intel для рендеринга, более важным тут является тот факт, что производители уже оптимизируют и пишут алгоритмы для нейронного рендеринга.
А это значит, что там, где стандартным алгоритмам требовались десятки секунд или часы на построение кадра, в ближайшем будущем смогут выводить картинку, посчитанную через патч трейс в реальном времени. Прости, Lumen!
Кроме того, также обещают степень сжатия высокополигональных сцен до 70-95 процентов. Это значит, что мы еще дальше выйдем за ограничения поликаунта и, конечно же, избавимся от лодирования, как в Nanite, только лучше!
К слову, на картинке лес с поликаунтом 1 триллион трисов.
Я в ахуе... давай!
Почитать тут
Тут вылез прекрасный конкурент Gen2, с сумасшедшей демкой!
Красавец называется Zeroscope 2.0XL, может text2video в разрешении 1024х576.
Сама демка просто сок!
Чекнуть тут
Я сейчас коллекционирую области около геймдева и смежных областей, которые потенциально апнутся на генеративе.
Свежий кандидат от Tencent с названием MotionGPT, который фактически через text2motion подберёт для вас анимацию или ее прототип для дальнейшего полишинга.
Куда ее запихивать, уже решать вам. Есть и Tafi, и Wonder Dynamics, и любые другие классические инструменты.
Почитать тут
Все текстуры в этом видео сгенерированы нейросетью 🔫
Разработали пайплайн с AI генератором текстур и материалов на базе СтейблДиффужена с контролнетом и Гудини😳
Такой сетап (со своими ограничениями в плане аккуратности) позволяет осмысленно, с учетом форм и нужных цветовых сочетаний генерировать тысячи уникальных текстур за пару минут, вместо ручной работы в течение месяца
Работает супер быстро, есть возможность обучения на своих стилях, паттернах, цветах. Ну просто рай
Вот реальный пример, как внедрение нейросетей в разы ускоряет продакшн. Скоро поделимся еще несколькими наработками, где уже помимо текстур будут и генеративные 3Д модели и более сложные, автоматизированные пайплайны
А если это все завернуть в веб-интерфейс и дать участникам инсталляций кастомизировать виртуальные сцены?
Вот из-за такого можно купить любой AR-девайс почти за любые деньги. Таким должен быть экспириенс: с рефлекшенами, с такой имплементацией в окружение, с такими fx и повреждениями.
Как жаль, что пока это всего лишь Blender и RBC-аддон для рига и анимации тачек.