Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство. Статистику не предоставляю, смотрите на tgstat.ru Реггистрация в РКН: № 5646935501 mentorcampus.ru Вопросы и предложения: @Evgeniy_Vegera
Кто-то сделал "убийственную" визуализацию того, как происходило сжатие того самого батискафа с миллиардерами.
Интересно, что скорость сжатия происходила быстрее, чем человеческий организм способен передать болевой импульс. Получается, они даже ничего почувствовать не успели.
Всегда пугали стремные истории на глубине.
Лучшее видео для начала недели.
KeenTools 2023.2: Встречайте бету GeoTracker for Blender
Друзья, наш 3D трекер объектов теперь в вашем любимом Blender! Нужно добавить 3D эффекты или симуляции в ваше видео? С GeoTracker вы можете быстро отследить движение нужного объекта, получив его координаты в 3D, и сразу же притречить к нему желанный эффект — всё это не покидая Блендера.
Почему GeoTracker:
– Точный трекинг объектов и камеры на основе отслеживания геометрии в кадре
– Возможность разместить объект относительно камеры (и наоборот)
– Проецирование и запекание текстуры на 3D модель прямо из видео
– Идеальный трекинг движений головы при использовании вместе с FaceBuilder
– Результаты трекинга легко экспортируются за пределы Blender
И многое другое!
Скачать GeoTracker for Blender
Сейчас адд-он в бесплатной бете. Делитесь своими работами, мы будем рады добавить их в наши будущие шоурилы.
Но это ещё не всё! Мы также значительно улучшили наши другие продукты. Подробности.
Качайте и пробуйте!
Через меня проходит большое количество отобранной информации, и на данный момент из всего контента по генерации видео, GEN2 это лучшее, что я видел.
И дело не только в однообразных фишай селфи "сторисах", довольно много тестов лежат в сети, где есть сравнения с тем же Pikalabs или другими сетками.
Он отлично держит позу, в целом довольно стабилен с бэкграундом. Круто работает с камерами, ну и качество генераций, как минимум, не хуже.
В целом, на подписку и деньги потратить не жалко.
Сорс
Обожаю интернет за то, что за исследованиями можно наблюдать почти в прямом эфире!
На 8-й день экспериментов у предпренимателя Andrew McCalip, сооснователя Tensor machines и создателя капсул для космоса, получилось воссоздать эффект Мейснера или эксперимент с левитирующими сверхпроводниками LK99, о которых я недавно писал.
Эксперименты будут продолжаться еще пару месяцев, т.к. тех данных, что получили, явно не достаточно для подтверждения эксперимента.
Хочется посмотреть на успехи крупных лабораторий, но пока данных по ним нет.
Пожалуйста, кидайте статьи мне, если найдете что-то релевантное.
Я думаю, что не стоит слишком подробно расписывать о чем эта инди игра. Хотя выглядит очень привлекательно и необычно, особенно инвира. (Посмотрите в по ссылке подробнее) Наследник ядерного Титбита? Даня, обратите внимание)
Просто в дополнение к видео скажу, что это sandbox, действие происходит в северном городе, где-то недалеко от Балтийского моря. 🤔
Художника, вынужденно живущего в Сербии, можно найти тут.
Последние несколько дней форсятся новости о сверхпроводниках LK 99, и это прям очень интересная новость. Не смотря на то, что исследование пока не подтвердили авторитетные лаборатории.
И так: в корейской лаборатории создали сверхпроводник, который может работать при комнатной температуре и атмосферном давлении.
Пока все, что есть, это очень маленький кусочек вещества, которое левитирует без специальных лабораторных условий.
Я коротко перечислю, какие области могут апнуться из-за этого открытия.
ЛЭП - более эффективные, из-за того, что будут происходить меньше утечек.
Все, что может перемещаться при пониженном трении, например поезда на магнитной подушке.
Потенциально более эффективные батареи, соответственно, электрокары и любые устройства от мобилок до кардиостимуляторов.
Удешевление больничных МРТ и Термоядерных реакторов.
Гаусс-пушки.
И конечно, дайте нам ховерборд!!! Кстати, пару лет назад хайпили ховерборд, но он работал как раз на классических сверхпроводниках, сильно охлажденный и сама рампа по которой он ездил, была магнитной, а сейчас может быть по настоящему, если испытания подтвердятся.
Самостоятельно можете почитать тут и тут
Пока Nvidia готовит выступление на ближайшем SIGGRAPH по поводу нейронной компрессии, я вот что имею вам сказать.
Без сомнения, последнее время развитие в графике происходит не в чем-то принципиально новом, как когда-то в Doom3 придумали использовать нормали, а скорее в улучшении того, что уже было придумано, но на более низком уровне.
Если посмотреть на последние знаковые игры, которые используют быстрые SSD, например Ratchet & Clank Rift apart, то можно восхититься, если знать, как быстро там подгружаются данные при переходах между уровнями и какое количество FX и событий там удерживается на экране. Или те же наниты, по сути это трюки с геометрией, все той же полигональной.
Вот и у Nvidia трюк с теми же текстурами, принципиально они не меняются, но количество данных, которые они смогут содержать в себе при том же размере файла, подгружаемого в память, а иногда и меньше, просто поражает! Но это только с одной стороны.
Да, все будет выглядеть суперчетко, как в порно в 60fps и разрешении 4к, но стал ли такой формат популярен? У некоторых определенно да... больные ублюдки.
С другой стороны, дорогие художники, вы охуеете, все это текстурить! Теперь будут задрачивать так, что вы еще больше "полюбите" геймдев! Если раньше можно было сказать, у нас тексель не вывозит или в игре все равно пожмется даже на хайспеках, то сейчас это не прокатит, будьте добры, чтобы каждый пиксель звенел! И не важно, что это сессионый шутан, где все должно летать даже на пентиум 2. Потому что теперь то, что выглядело мылом и весило 3мб, сейчас весит столько же, а то и меньше, и видно каждую травинку.
В общем, просто потребителям ура, создателям контента лингам вам в руки!
Сорс
Пару часов назад дропнули Stable Diffusion XL 1.0.
Если коротко, то "Easier, Better, Bigger".
Так пишут про нее Stability.ai
"SDXL 1.0 has one of the largest parameter counts of any open access image model, boasting a 3.5B parameter base model and a 6.6B parameter model ensemble pipeline. The refiner adds more accurate color, higher contrast, and finer details to the output of the base model."
Попробовать можно тут:
https://dreamstudio.ai/generate
и тут
https://clipdrop.co/stable-diffusion
Гляньте какая крутотень. Чувак с реддита в одно рыло пилит в VR процедурно генерируемый город, в котором можно зайти в любое из зданий.
Именно так должно выглядеть окружение в метавселенных, а не мыльная хуита, которую нам сделал рептилоид Цукерберг
Тред на реддите
Иногда попадаются чудеснейшие концепты интерактивного взаимодействия с AR.
Все гениальное просто. Детские площадки созданы для этого.
Горки и лабиринты превращаются в космическую станцию, найденная кривая палка в бластер. Бегай, собирай паверапы, кооперируйся с друзьями, отстреливай бларгусов.
К сожалению, пока доступное по деньгам и удобное по формфактору устройство не появится, не видать нам таких эспириенсов.
В создании участвовали: LumaLabsAI, StabilityAI, nijijourney, BlockadeLabs, unity, questpro, blender, arkit.
ITSALIVE studio выступит генеральным партнером главного индустриального события 2023 года
19-20 августа пройдет ежегодный Слет аниматоров. Здесь соберутся профессионалы из индустрии анимации, геймдева и кино – представители Pixar, Main Road Post, Skydance Animation, 1С Games, Atomic Heart, “Мельница”, “Феникс” и других студий.
Итсы анонсируют школу по анрилу, проведут мастер-классы на мокап оборудовании, выступят на круглом столе и поделятся инсайтами. Участники Слета также смогут познакомиться с партнерами, послушать доклады хедлайнеров, поучаствовать в мастер-классах и обсудить свои идеи с продюсерами в онлайн- и офлайн- форматах. Кайф 💦
Заходи в канал ITSALIVE studio и узнавай все самое новое об аватарах и диджитал маркетинге первым 💪
#промо
Мозги вскипели от мысли о том, что мы можем полностью перестроить свое взаимодействие с компьютерами. На смену привычным оболочкам программных продуктов придут генеративные нейронные среды.
Мы не будем работать в какой-то отдельной программе, это будет кисель из функций, необходимых в данный момент. Главный момент: это бесшовное, персонализированное взаимодействие с набором алгоритмов.
Давайте на примере 3D-продакшена. Какую из почек вы бы отдали, если бы вам не приходилось откатываться на предыдущие этапы, когда на этапе текстурирования вы хотите изменить блокаут немного? Или вам не пришлось бы запускать RizomUV с промежуточной выгрузкой fbx туда и обратно, чтобы развернуть модель?
А в правом верхнем углу у вас висел бы счетчик с временными затратами на этот этап и подсказки для наиболее успешного завершения задачи. Потому что надсистема уже знает, что вы будете делать, и она персонифицирована вами и под вас.
Генерация определенного воркфлоу будет происходить в зависимости от вашей задачи.
Без перехода в какую-либо программу, замкнутую систему. Полагаю, в мозгу происходит примерно так же. Поправьте, если ошибаюсь.
Сейчас мы получаем, по сути, универсальную надстройку в виде текстовой строки для управления нейронными сетями, и эта строка интегрируется во все продукты, хотя исток у нее один.
Я хочу, чтобы у нас ломались мозги, в хорошем смысле, чтобы привычные схемы и устои уходили в прошлое, а новые подходы и способы взаимодействия меняли наше восприятие.
В общем, подстраивающиеся системы управления – это то, куда мы стремимся и придем рано или поздно.
В мире происходит что-то странное. Второй день подряд разлетаются видео со странными NPC-стримерами. Что это за дичь, сейчас вам расскажу.
Эмодзи, что они ловят, покупаются за реальные деньги зрителями на платформе TikTok.
Это самые дешевая форма подарков, а стримеры, когда их ловят, озвучивают то, что поймали.
Это все, что происходит на стримах. Похоже, это стало отдельным форматом. Надеюсь, не на долго. Еще одного разочарования в человечестве я не переживу. При этом онлайн таких стримов под 40к.
Пойманные подарки можно конвертировать в гемы, и их уже конвертируют в фиат. Так и зарабатывают.
Есть в этом что-то ужасное и завораживающее одновременно.
Предупреждаю, со слабой психикой не смотреть!
Нестандартный подход к производству контента.
Берем любой подручный предмет и придумываем, как сделать из него что-то полезное, юзабельное и нестандартное.
Скан через Polycam3d, и дальше красоту наводим в UE5.
Be smart, be creative!
Подробнее об этом в следующем вайне.
Сорс
Ничего реалистичнее в реальном времени я пока не видел: Metahuman + 4090 и захват лица.
Как скоро мы окажемся в мирах, неотличимых от реальности? Компьютерной графике что-то около 30 лет. Где мы будем еще через 30?
Нужны ли нам будут рядом люди? Будем ли мы идти на компромиссы? Если рядом всегда будет понимающий, любящий, сочувствующий и, самое главное, более умный, чем мы, персональный ассистент, закроет ли он социальную необходимость в контактах между людьми?
Я бы сказал, что да.
Full source
На этот опрос правильнее было бы не отвечать, и назвать меня манипулятором, т.к. там нет правильного ответа😄
Оба видоса сгенерированны.
HeyGen сделали очень высокого уровня аватаров, которые передают вашу речь и практически неотличимо от реальности мимику.
На видео сравнение с ближайшим конкурентом.
На сайте можно попробовать бесплатно и записаться на бетку.
Тут
Интересную работу выложили — открытый доступ. Идея в длительном, по меркам реального мира, обучении. Около 10 лет обучения в мире симуляции и около 10 дней на GPU вычислениях в нашем мире.
Идея очеловечивания и сопереживания обучающимся акторам, кажется мне, не совсем здоровой, но подумайте, изменится ли ваше отношение к персонажу, если вы будете знать, что он трудился, чтобы сделать свои первые шаги, очень много падал, вставал, снова повторял, учился держать тяжелый меч, бежал к цели, запинался об коллизию граунда, падал, запускал цикл достижения цели и отмечал у себя, что в тех координатах неровная поверхность и лучше ее преодолеть в следующий раз, перенеся вес немного назад, и так многие миллионы итераций.
И в такой концепции, когда вы жмете на контроллере стик вперед, вы не просто запускаете скриптованную анимацию бега, а говорите ему, куда ему стоит обратить свой взор и куда двигаться, а как он пойдет, зависит уже от множества факторов.
Это как управлять 10-летним глухонемым ребенком и вам решать, будете ли вы его беречь, ну или, наоборот, захотите раскрошить его в огне битвы, если вы бездушный ублюдок!👺
Сорс от жизнерадостного доктора
Новый инструмент Alpaca, у которого основное позиционирование, пока, sketch-to-image.
Выглядит весьма симпатично. Доступен плагином для PS, никаких вейтлистов, зарегался и пошел тестить. Я сегодня как раз попробую.
Базовый функционал бесплатный!
Из умений еще:
Апскейл
Анкроп
Генерация текст 2 имэдж
https://www.alpacaml.com/
Кажется, Adobe и Autodesk хотят реабилитироваться в наших глазах. Они договорились совместно продвигать единый стандарт OpenPBR в контексте MaterialX.
Проект с открытым исходным кодом, который должен предложить сообществу единый стандарт отображения материалов между разными софтинами.
Почему так долго, я спрашиваю? Настраивать материалы в Максе и Майке, все равно что копаться на свалке оборудования 70х годов.
Репозиторий на гите планируют открыть в этом месяце.
Сорс
Я уже довольно долгое время занимался тем, что делился знаниями из геймдева со всеми желающими.
Параллельно пилил свою скромную площадку для менторов и учеников, пока что только в контексте геймдева.
Сегодня в 19:00 мы устраиваем лайв-стрим с новым ментором Ксюшей и отмечаем первый шажок к добавлению более расширенного ассортимента знаний.
Приходите знакомиться с нами в новых ролях и с нашим маленьким и скромным стартапчиком версии альфа.
На ютубе
На следующей неделе на SIGGRAPH2023 подробно расскажут об исследовании и тестах в рендеринге волос.
А точнее, о новом методе просчета с учетом прямой дифракции и фактуры волос со всеми их чешуйками и корректным рассеиванием света.
Тут не говорят о риалтайме, хотя просчет и велся на GPU. Это скорее для тяжелых продакшен решений и в целом о подходе, хаках и логике.
Тут подробнее
Художник Tomi Viitanen показал, как с помощью Houdini, Blender, Mixamo создать что-то подобное для своего портфеля. Обещаю, не одной нейронки использовано не было.
Замечаю, что низкобюджетная графика все еще жестит с постпроцессом, стараясь скрыть либо косяки на рендере, либо в целом не очень хорошую проработку. Не надо так, делайте хорошо!
Сорс
Как вспомнил, что раньше тетрадки в клеточку были моими лучшими вдохновителями воображения.
Можно было целый урок пропустить, только чтобы закончить рисунок.
Я просто хочу убедиться, что мы все сделали себе историческую заметочку, когда делать и смотреть генеративные трейлеры к только что вышедшим фильмам для нас стало привычным явлением.
Как в свое время Мэрилин Мэнсон, Сид Спирс на полочку поставили "Barbenheimer".
И так, опять нейронки.
Кто же знал, что вся наша проф. деятельность будет настолько сильно трансформирована новым типом алгоритмов?
Interactive Neural Video Editing - решение для редактирования видео в реальном времени.
Рад, на самом деле, за композеров и AEшеров!
Я, когда говорю, что вся эта фиктивная деятельность по нажиманию кнопочек в софте - это не человеческое занятие, имея в виду именно то, что это не достойно звания человека, тонкой настройкой должен заниматься компьютер. Человек должен отвечать за творческий подход и новые идеи.
Кто был против, поднимите, пожалуйста, руки. Перед такой потенциальной перспективой автоматизации хотите и дальше заниматься ротоскопом и трекингом? Хотите продолжать покадрово замазывать тросы и козявки в носу? Что вы отстаиваете, зачем охраняете свое болото?
В конце ролика просто закройте глаза, чтобы не видеть финальный результат "творчества" ⛔️
Читать тут
The Creator - новый фильм о противостоянии человека искусственному интеллекту.
Вроде как и должно смотреться прикольно, и роботы есть, и ИИ, который должен уничтожить всё человечество, но прям чуть ли не в каждом кадре клишированность и sci-fi какой-то супердефолтный.
И человечество встает бок о бок с "хорошим" ИИ и борются за светлое будущее.
Для меня, прямо по трейлеру, отдало какой-то консервой.
Может, это просто проф. деформация уже?
https://youtu.be/ex3C1-5Dhb8
Очень интересная концепция генеративных интерфейсов появилась в результате эксперимента с SD.
Несомненно, сейчас происходит трансформация привычного метода взаимодействия с интерфейсом. Везде начали появляться эти поля для ввода промптов, становясь чуть ли не центральным компонентом в продукте.
В итоге было создано двухмерное пространство, внутри которого формируется пользовательский интерфейс привычного рабочего стола.
Самое интересное, что координаты курсора мыши передаются в SD. Далее, через ControlNet, генерируется корректное отображение курсора на сгенерированном рабочем столе.
Сам по себе тест ничего координатно не меняет, кроме идеи самого подхода взаимодействия с компьютерными системами, устоявшегося более 50 лет назад.
Я чуть подробнее напишу в следующем посте.
Тут про тест подробнее
Раньше 99% людей занимались сельским хозяйством, возделывали землю и кормили себя этим. Потом произошла революция в производстве пестицидов и способе сбора и выращивания еды, все эти крестьяне перебрались в сферу услуг, встали за кассы, открыли кофейни, настроили логистические цепочки и управляли ими.
Так же крестьяне встали перед станками и производили машины, до тех пор пока робототехника не заставила их перейти в сферу услуг. Крестьяне надели костюмы, стали продавать трактора, автомобили, кредиты, делать маркетинг, упаковку, привет всем любителям моушена и графдизам и предоставлять услуги.
Сейчас, будь то художник, программист и т.д., мы делаем многое своими крестьянскими руками.
Но как я стараюсь тут показывать, вот так, по щелчку пальцами мы тоже перейдем в сферу услуг, потому что крестьяне (креативный класс🤡) больше не будут возделывать поля контента, для этого есть алгоритмы.
Мораль?
Новый Кандинский прям огонь, разработчикам великий респект (особенно за открытые исходники и веса модельки в публичном доступе)
Вспоминая какого качества картинки генерировала эта моделька в первых версиях и сравнивая с тем, что имеем сейчас, можно охуеть со скорости эволюции модели (это, впринципе, касается всех нейронок)
Тут рассказывают, насколько крут Code Interpreter в ChatGPT. Как теперь выглядит суперказуальный геймдев и как быстро можно собрать демку, буквально на коленке у ИИ в течение 5 минут.
И так:
1. Пишем промпт: "write p5.js code for Asteroids where you control a spaceship with the mouse and shoot asteroids with the left click of the mouse. If your spaceship collides with an asteroid, you lose. If you shoot down all asteroids, you win! I want to use my own textures for the spaceship and for asteroids."
2. Идем на сайт Openprocessing, создаем скетч, сохраняем. Это нужно, чтобы загрузить текстурки. Копируем код из ChatGPT-4.
3. Генерируем текстурки, удаляем фон, например, в Clip Drop.
4. Заменяем имена текстур своими именами.
5. Запускаем.
6. Если что-то не работает, спрашиваем GPT-4, чтобы он исправил. Можно скопировать ошибку и попросить исправить.
7. Чтобы лучше понять, что происходит в коде, можно попросить чат объяснить, что означает конкретная функция, как объяснить 10-летнему ребенку.
И вот что получается в итоге!
Не понятно, чего там 6 лет GTA5 разрабатывали. 🤡