48094
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn
Wan2.2-I2V-Flash
В 12 раз быстрее!
Но.
Ни весов, ни кода.
А доступно только через API on Alibaba Cloud.
https://modelstudio.console.alibabacloud.com/?tab=api#/api/?type=model&url=2867393
@cgevent
Генерация игровых, ну и просто трехмерных миров (world models) становится новым мейнстримомом.
Держите ещё один такой проект.
SEELE: text to endless 3D game.
Причем миры можно ремиксить, оптимизировать и по.
В общем на дворе новый тренд: text2metaverse.
https://www.seeles.ai/home
@cgevent
👍 [ Мы открываем Второй нейрохакатон с призовым фондом 250 000 рублей. ]
[Тема хакатона] SolarPunk и будущее сельского хозяйства. Кто накормит человечество в далеком будущем? Как будет выглядеть мир, где экология и устойчивое развитие — не пустые звуки, а основа всего? Ответь на эти вопросы в формате нейро-видео. Награда за талант — деньги и предложение сотрудничества.
[Формат] короткий ролик от 15 до 90 секунд
[Участие] бесплатное, команды и индивидуальные креаторы
[Инструменты] видео-нейросети в основе + любые другие инструменты
[Дедлайн] регистрация на конкурс до 13 августа 23:59 (GMT+3), сдача работ до 21 августа 23:59. У вас будет 8 дней, чтобы создать качественный ролик.
[Результаты и жюри] 24 августа в прямом эфире с фестиваля «Слёт Аниматоров» совет из представителей науки, арта и продакшена выберет победителей.
Подробности и ссылка на регистрацию в нашем сообществе. Удачи!
#промо
Не очень люблю постить проекты без кода, если это не Адобченко или Гугл.
Читать полностью…
Нейропрожарка
Рекламный ролик от Ильи для бренда «Красная Линия», созданный с применением нейросетевых технологий.
Проект реализован в рамках моего любимого направления — нейрорежиссуры, которое я развиваю, фокусируясь на интеграции искусственного интеллекта в креативные процессы.
О бренде
«Красная Линия» — российский бренд уходовой косметики, основанный в 2001 году. Олин из первых заявил себя как бренд интимной гигиены.
Процесс создания ролика
Работа над роликом началась с анализа архивных материалов. Мы изучили оригинальные рекламные кампании бренда 2000-х годов, чтобы сохранить узнаваемую эстетику. Сценарий был разработан совместно с продакшн-студией ЦЕХ — московской компанией, специализирующейся на традиционном кинго продакшене. Нина Ведмицкая (креативный продюсер) и Евгений Селезнёв (режиссёр) предложили концепцию, сочетающую ретро-стилистику с современными визуальными решениями.
Этапы производства:
Подготовка материалов: создано 600 статичных изображений для раскадровки, использовались Flux, Flux context, GPT image, Firefly
Генерация видео: использованы 6 нейросетей (Runway, Kling, Hailuoai, Wan, Seedance, Pika)
Постпродакшн:
Апскейл в Topaz Studio (увеличение разрешения без потери качества)
Монтаж и анимационные правки в After Effects
Цветокоррекция в DaVinci Resolve
Особое внимание уделено сохранению фирменного цвета бренда — красного, который присутствует в 87% кадров ролика.
Нейрорежиссура: технологический подход
В рамках проекта мы протестировали гипотезу о возможности полного контроля над нейросетевой генерацией через:
Детальные текстовые промпты с указанием цветовых палитр (Pantone 18-1664 TPX для фирменного красного)
Послойную генерацию элементов
Ручную коррекцию промежуточных результатов
Этот метод позволил достичь полного соответствия исходному сценарию при генерации, что значительно выше средних показателей по отрасли.
Технические детали
Общий объём обработанных данных: 4.2 ТБ
Среднее время генерации 1 секунды видео: 1,5 часа
Количество итераций правок: 17
Общее время работы над проектом: 28 дней
Значение проекта
Это первый в России коммерческий рекламный ролик для косметического бренда, созданный без участия традиционной видеосъёмки.
Проект демонстрирует:
Возможность сохранения брендинга при переходе на цифровые методы производства
Экономическую эффективность: бюджет проекта на 80% ниже стандартного для подобных кампаний
Новый подход к креативному контролю в условиях использования ИИ
Работа над роликом проходила в тесном сотрудничестве с командой «Красной Линии» и площадкой Russcosmetics, что позволило учесть все требования бренда на этапе производства.
@cgevent
Нейропрожарка
И снова Михаил, автор бобров судьбы.
Пол-года назад я уже выкладывал здесь свое панк-рубилово про бобров, помню, зашло хорошо. /channel/cgevent/10496
Сегодняшнее видео старался делать так же - с акцентом на высокую эмоциональность подачи, но оно взрослее, больше смыслов и символов. В целом, это все так же - промо для моего бренда одежды www.sanbenito.ru, а, точнее, одного из предметов коллекции - мощного серебряного креста "Катехон", украшенного россыпью колотых бриллиантов. Музыка - Suno 4.5pro, детали сценария - с помощью Chat Gpt, видео и саунд эффекты - Veo3, монтаж CapCut. Все вместе заняло 3 дня: первый день - музыка, второй - сценарий, третий - видеоряд и сборка. Основную часть времени этих дней я просто думал. ) Славные времена! Только сейчас пришло на ум, что где-то подсознательно, наверное, вдохновлялся старыми рекламными роликами Банка Империал из 90х
@cgevent
Нейропрожарка
The bell. Трейлер к фильму ужасов от Ксении.
Изначально подбирала шоты для другого коммерческого проекта, но захотелось собрать из них что-то свое.
Получился трейлер к несуществующему хоррор-фильму от несуществующих киностудий.
Идея, картинки и видео - я, @imitation_of
Монтаж и саунд дизайн – Юра @ai_beeing
Картинки - Imagen,
Видео Veo2 и Veo3, несколько шотов minimax
Звук - база бесплатных звуков, udio
Монтаж - Capcut
Денег затрачено на видео - 0, сделано на триалке AI Studio
По времени на все про все дня 4 работы двух человек по очереди.
Видео на ютубе https://youtu.be/NmjDyzR7krw
@cgevent
О, наконец-то раскатили режим обучения. В том числе для free пользователей.Можно не просто заставить решить примеры или домашку сделать, но попросить объяснить и учебный материал подобрать. Имхо очень полезная штука для образования.
https://openai.com/index/chatgpt-study-mode/
Прикольно, что это не просто чуть улучшенный системный промпт, а прям обучающий режим:
- Метод Сократа с наводящими вопросами
- Объяснение от простого к сложному, с уменьшением когнитивной нагрузки
- Связь с разными предметами, развитие любознательности.
Предлагают:
1. Интерактивные подсказки и вопросы для активного участия.
2. Схематичные, легко читаемые разделы.
3. Персонализация уровня материала на основе навыков и предыдущих диалогов.
4. Проверочные задания с обратной связью.
5. Возможность включать и отключать режим в любой момент.
Нужно Study and Learn активировать. В мобильном приложении и в вебе уже работает.
Попробовал на вопросе про квадратные уравнения, ну что ж... Онлайн-обучению будет несладко... А потом ещё и персонализацию по полной выкатят.
У Suno теперь свое радио.
Там периодически происходят голосования "что будем стримить?".
Пока побеждает босса нова.
https://suno.com/live-radio
@cgevent
TheInformation написали немного про GPT-5:
— один из ранних тестировщиков оценил невыпущенную модель «крайне положительно» и сказал, что она превосходит Claude Sonnet 4 при прямом сравнении ответов
— самый большой скачок стоит ожидать в программировании; OpenAI какое-то время находились в тени Anthropic, теперь нагонят и перегонят
— GPT-5 демонстрирует улучшения в ряде областей, включая точные науки, выполнение заданий для пользователей в их браузерах (выйдут ли новые Agent / Operator???) и письмо
— (ну и конечно не забываем новые модели на WebArena, одна из которых уж почти наверняка возьмёт топ-1 и с весомым отрывом)
Конечно, пока не увидим и не попробуем — говорить нечего, но напомню, что про GPT-4.5 TheInformation писали, что модель не выигрывала на внутренних сравнениях и OpenAI ожидали большего. А тут — лучше.
Готовы к запуску через пару недель? 👀
Lovart ChatCanvas
Еще один "креативный агент". Они только что вышли из закрытой беты в паблик. Есть бесплатный план и ежедневные кредиты, стартовый план от 19 долларов.
На входе пожирает все - фото, генератив, одежду, сумки (поглядите пример с Галь Гадот).
Дальше общается с вами в чате - и ну генерить все, что пожелаете.
Делает видео, голос, музику, вроде даже монтирует.
Этакий Рекрафт на стероидах LLM и агентности.
Поглядите повнимательнее.
https://www.lovart.ai/
@cgevent
А давайте поговорим за JSON-промпты для видеогенераторов.
Я пошерстил интернетик - нигде нет строгих научных обоснований, что именно JSON-промпты добавляют какую-то ценность или способствуют лучшему пониманию их, промптов.
Пока все похоже на модную шумиху в твитторе, где народ уже инфо-продает ядреную науку написания JSON-промптов для видео.
У меня несколько диванных мыслей.
Хорошо бы знать, на чем обучались видео-модели. Сторонники JSON-промптов клянутся, что в разметке было много кода, поэтому JSON-промпты так хороши. Неочевидно. В разметке было много текста, а вот какой он был - интернет не дает ответа.
(Кто ж откроет свои источники заскрапливания видео по всему интернету).
Всякие гайды от производителей моделей говорят, что надо структурно описывать промпт. Сцена, окружение, персонажи, ну и так далее. Никто не говорит о пользе JSON-промптов, а только о пользе структуры в описании.
Поэтому вполне вероятно, что JSON-промпты - это просто лишние токены-скобочки и запятые.
Другое дело, что написание именно JSON-промптов заставляет кожаного задуматься над структурой промпта, разложить на части, декомпозировать на подзадачи. И, возможно, именно это "обдумывание" и делает промпты лучше по содержанию (а не разметка сама по себе).
Ну и последнее, я давно тут приподвзвывал, что видео - это вам не картиночки, и что описать текстом N сущностей в кадре, у каждой из которых может быть свое время (своя жизнь), это вам не еще одно измерение плюсом к X,Y у картинки. Это плюс N измерений. И что промпты будут величиной с дом.
Ну и похоже кожаные запустили процесс вспять. Сначала они ушли от кода к естественному языку описания промптов. А теперь изобретают языки разметки промптов, ибо мозгов не хватает держать структуру длинного текста в голове.
Если мозгов не хватает, просто попросите ИИ написать вам промпты, проходили уже год назад. Он, ИИ, и в JSON и в маркдаун и в псевдо API вам напишет структурный текст. А вы уж дальше сами.
Кто-нибудь читал о реальной пользе JSON-промптов, кроме структурирования мозгов и улучшенной читаемости и редактируемости?
@cgevent
Нейропрожарка
Квазиреклама от Федора
Целью видео было по ностальгировать о контенте и динамике 90-х
В этом ролике вдохновлялся MTV, старыми клипами Fatboy Slim и рекламой девяностых, когда тема секса, рока и сюрреалистичного угара была немного более распространена, чем сейчас.
Считаю, что нынешний маркетинг стал уж больно вылизанным, правильным и добрым. Он стал меньше использовать иные чувства, задевающие зрителя, боясь испортить репутацию компании. Хотя сюр в рекламе — это то, что запоминается на десятилетия.
К примеру, была крутецкая реклама, где девочка подходит к папе-рокеру и спрашивает: «Пап, а как я появилась на свет?» И вроде всё так невинно и с доброй музыкой, как вдруг сюжет резко сменяется на ритмичный барабанный отбив с быстрой сменой визуалов, где эту самую девочку и делали — без лютого порно, всё на силуэтах и атрибутике. И в конце надпись: «Рок — это жёстко».
Или реклама, где пацан покупает себе две банки колы, чтобы стать выше и дотянуться до заветной пепси. Столько лет прошло, а я до сих пор помню, потому что это вызывает смех, вау-эффект и эмоцию.
Короче, надеюсь, рынок станет более гибким и не будет так сильно ссаться за свою репутацию — хочется немного свободы в рекламе)
По созданию все очень просто
Статика:
Midjourney Omni reference
Runway reference
Динамика:
Midjourney video
Veo3
Сроки
Сценарий: день
Продакшн: 2 дня
@cgevent
Утро понедельника хочется начать с чего-то бодрого.
Это Flux Kontext [Max] + Kling 2.1 Master + Suno v4.5+
Глитчами удобно сшивать 8 секундные куски.
Все-так музика-техно прощает всякие непопадания в ритм и живет своей жизнью. В конце забавно...
Автор
@cgevent
Нейропрожарка
И снова рекламный ролик от подписчика, смотрим, что можно сделать, когда нет бюджета на съемку.
Коллегам привет!
Работаю в сфере автомаркетинга — и тут коллеги обратились с просьбой: срочно нужен ролик про сервис, а точнее — про предпродажную подготовку. Снять всё быстро «вживую» не получилось, так что предложил собрать видео через нейросети.
Сценарий и порядок сцен продумал сам.
Картинки вначале пытался создать через ChatGPT (нужна была конкретная машина с лого), но в итоге собрал всё в Google Gemini.
Анимация — полностью в Kling 2.1 (купил подписку по рефералке со скидкой). На ролик ушло ~2000 кредитов.
Монтаж — CapCut.
Жёсткого ТЗ не было, ориентировался на общую стилистику и старался держать кадры в одной логике.
Тайминг — примерно один день работы.
Заказчикам все понравилось.
Буду рад обратной связи и критике!
@cgevent
Нейропрожарка
На сей раз от Довлатов Студио.
Трек “Бонд с кнопкой ‘Кухни’” — вайб возвращения домой, (но без уныния хрущевок)
Мы постарались отойти от буквального образа и сохранить чувство.
Дом — как тёплая мысль, а не плитка из 80-х. Место, где ты можешь быть самим собой, где тебя ждут.
🔹 Визуалы:
— генерили в Midjourney V7 с помощью Omni и Style Reference — всё через собственный профиль.
🔹 Видео:
— основа — Kling,
— пара фрагментов — Midjourney видео,
— один эпизод — через VEO.
🔹 Монтаж:
— всё собрано в Adobe Premiere Pro.
Процесс занял 5 дней.
🎬 Получилась короткая визуальная story — ты возвращаешься не просто в дом, а в состояние.
@cgevent
Suno Studio!
Так, вот это уже интригует.
Хотя бы из за этого:
Multi-track creation.
Export to MIDI.
Если это настоящий мультитрек - где один трек == один инструмент, то это огнищенская бомба, которая просто уничтожит всех конкурентов.
Если нет - все равно бомба.
Я люблю Suno, они крутейшие.
Записацца в бету: http://suno.com/studio-waitlist
@cgevent
Метачка только что сделала ИИ, который знает, что будет делать ваш мозг еще до того, как вы нажмете кнопку воспроизведения видео, и для этого ему не нужно проводить ни одного сканирования мозга.
Они выпустили модель TRIBE, нейронную сеть с 1B параметров, которая предсказывает реакцию человеческого мозга на фильмы, анализируя видео, аудио и текст.
TRIBE анализирует видео, аудио и диалоги из фильмов, точно предсказывая, какие зоны мозга зрителя активизируются без какого-либо сканирования мозга.
После тренировки на испытуемых, просмотревших 80 часов телепередач и фильмов, искусственный интеллект правильно предсказал более половины моделей мозговой активности в 1000 областях мозга.
Лучше всего он работает в областях мозга, где сливаются зрение, звук и язык, превосходя на 30 % модели с одним чувством.
Система Meta также показала особую точность в лобных областях мозга, которые контролируют внимание, принятие решений и эмоциональную реакцию на контент.
В перспективе такая разработка предлагает новые формулы для максимизации внимания на нейронном уровне, что потенциально может сделать думскроллинг еще более аддиктивным.
Ещё раз, на входе видео. На выходе информация какие зоны мозга возбуждаются.
И да, мультимодальность воздействует сильнее.
https://github.com/facebookresearch/algonauts-2025
https://arxiv.org/abs/2507.22229
Контент, от которого нельзя оторваться. Писал об этом в фб лет 12 назад.
@cgevent
Это я по мнению Microsoft Copilot 3D.
Хотите больше подробностей, почитайте тут:
https://www.theverge.com/hands-on/756587/microsoft-copilot-3d-feature-hands-on
@cgevent
Быстрые утренние сводки с полей чата:
— (часто) не работает поиск, модель делает запрос, но не получает результатов. Видимо, сломалась часть бэкенда. Я с поиском сделал 1 сложный запрос, у меня отработало лучше o3 Pro и Perplexity Pro (кому интересно — вот ссылка).
— сотрудник OpenAI в твиттере написал, что роутер работает неправильно. Роутер — это часть системы, определяющая, на какую модель и как послать ваш запрос. Вероятно, запросы чаще отправляются на глупые модели (и/или может быть с неправильными параметрами).
— несмотря на то, что в UI написано "GPT-5", у некоторых всё ещё как будто бы отвечает GPT-4o: по крайней мере если спросить «что ты за модель», то именно такой ответ вы и услышите (или GPT-4.1). Я попробовал у себя 3 раза на русском языке, 2 на английском — модель супер-уверена, что она GPT-5 (но у меня и жалоб на качество нет). Кидайте в комментарии скриншоты чата, где при выбранной GPT-5 модель представляется какой-то другой.
— Даже Plus-пользователи с подпиской за $20 не понимают, на какую модель перенаправлен их запрос. С точки зрения среднего пользователя наверное и пофиг, но сейчас, когда хочется честного сравнения и понимания качества — непрозрачность и «простота» мешает. У части Plus-пользователей уже исчерпан лимит сообщений на Thinking-модель (или на обычную GPT-5), и им может отвечать условная GPT-5-mini, а они и не знают!
— У меня на Pro есть возможность вернуться на GPT-4.5 и o3 / o3 Pro, но у Plus пользователей, насколько я пониманию, нет: доступны только GPT-5. Это грустно :(
— Для бесплатных пользователей важно отметить, что контекст модели в ChatGPT всего 8000 токенов. В комментариях был занятный момент, когда поользователь скинул часть документации и код модели и попросил что-то написать, а она «как будто бы не видела, что я скинул». А она и вправду не видела! Но это никак и нигде не отображается.
— Ещё у меня закрадывается подозрение, что у Plus и Pro пользователей разные режимы Thinking у GPT-5. Выборка для суждений пока маленькая, но несколько проблем из комментариев и чата у меня просто не воспроизводятся — моя модель как будто бы «умнее»:код запускается с первого раза, UI лучше и деталей больше, нет глупых ошибок. Судить рано, и уж очень непрозрачны такие сравнения в силу описанных выше причин, но что есть, то есть.
TLDR: многие тесты вами в UI в первые часы и дни после выпуска могут оставить большее негативное впечатление, чем должны. Ждём стабилизации системы и фиксов всех проблемных мест.
А саму GPT-5 покажут завтра, в четверг, в восемь вечера по Москве.
Если это не шутка, конечно.
@cgevent
***AI o4 - вы что подумали?
А вот и нет! Чтобы вам жизнь медом не казалась, а нейминг от Альтмана тренировал вашу и без того короткую память, китайцы теперь тоже именуют модели как o4!!!!
В общем пост про XBAI o4 - еще одна LLM с открытым исходным кодом (Apache 2.0) от китайской лаборатории искусственного интеллекта. Китайцы клянуцца что:
XBai o4 ПОЛНОСТЬЮ превосходит в сложных рассуждениях (complex reasoning capabilities ) OpenAI-o3-mini в режиме Medium. См картинку.
Это модель на 32.8 миллиарда параметров, выпущенная китайцами из MetaStone AI, которые выпустили свою первую модель в марте - MetaStone-L1-7B, затем последовали MetaStone-S1 1.5B, 7B и 32B в июле, а теперь XBai o4 в августе.
В твитторах очень мало информации о MetaStone AI. В их документах указана связь с USTC, Университетом науки и техники Китая. Один из исследователей подтвердил, что их генеральный директор - выходец из KWAI. www.wenxiaobai.com указан как "официальный сайт", на который ведет ссылка из XBai-o4 README на GitHub.
Взрослые мальчики уже запустили модель на Маке и пишут, что впечатления чуть хуже, чем от Qwen3-Coder-30B-A3B-Instruct или GLM-4.5 Air.
Однако факт остается фактом, малоизвестные китайцы, просто, тихо и без понтов говяжих, выпускают модель за моделью, которые дышат в затылок приподразхайпленным монстрам с обеих сторон Тихого океана.
Фарш тут: https://huggingface.co/MetaStoneTec/XBai-o4
Код тут: https://github.com/MetaStone-AI/XBai-o4/
В LM Studio тоже заводится, требует 25 ГБ памяти для 6-бит версии.
@cgevent
Wan 2.2 почти смог в Икею.
1.5 часа на 4090 @ a14b t2v q8, 720p, 121frame, 20steps
Весы
@derplearning
Yandex B2B Tech открыла доступ к самой крупной языковой модели в российском облаке — Qwen3‑235B.
Модель поддерживает 119 языков, работает с длинным контекстом и справляется с задачами на уровне ведущих мировых решений.
Доступна через Yandex AI Studio — можно подключить по API или работать в интерфейсе без подготовки и инфраструктуры.
Подробнее — тут.
Реклама. ООО Яндекс.Облако. ИНН 7704458262
🚨 OpenAI готовится к запуску GPT-5 в августе — TheVerge
(также OpenAI пытается успеть выпустить свою открытую LRM до конца июля. Со слов источника, она будет сравнима с o3-mini)
UPD: также будет GPT-5-mini, доступная в ChatGPT и API, и nano, доступная только в API.
UPD 2: пока план на запуск GPT-5 в начале августа, но планы могут съехать
Генератор ИИ-музики Mureka сильно прокачался.
V7 работает на обновленном фреймворке MusiCoT (Music Chain-of-Thought).
Она сначала планирует полную музыкальную структуру - точно так же, как это делают кожаные.
И у них очень неплохие каверы, ремиксы, версии - можете загружать свои треки и получать, например, инструментал с том же настроении.
Также они прикрутили свой TTS - то есть просто озвучку текста голосом. С клонированием голосов, эмоциями и пр.
Ну то есть залезли на поляну 11labs.
Конкуренция - это отлично!
https://www.mureka.ai/home
@cgevent
Что я понял, делая первые шаги переселенца в новую реальность, или мои первые выводы становления AI Native.
Часть первая, философская.
1. Переход к AI Native — это смена мышления.
У меня появился «штурман» или «второй пилот». Не инструмент. Не робот-слуга. И даже не помощник.
А расширитель моего мозга.
Причём, что важно, это расширитель второй части мышления, имени Канемана — медленной.
2.Нейросеть запускает моё мышление.
Она задаёт мне вопросы и заставляет этим формулировать ответы. И чем больше я прошу копнуть её глубже, тем удивительнее её вопросы.
Иными словами, нейросеть даёт мне регулируемую глубину мышления. Быть философом без аскезы — ну не мечта ли?
Самостоятельно запустить мышление трудно: надо или начать писать, или говорить вслух с подходящим собеседником.
Нейросеть — подходящий собеседник.
Не идеальный. Живой человек во многих случаях предпочтительнее. Но, тем не менее, часто я не знаю, с кем обсудить конкретный вопрос или у меня нет доступа здесь и сейчас к нужному человеку.
То есть нейросеть — не альтернатива человеку, а просто один из множества собеседников.
3. Я такой же бот, как и нейросеть 90 % своего времени. И именно ИИ возвращает мне свободу творчества.
В смысле, что 20+ часов в сутки я действую на автопилоте. Отвечаю, не задумываясь. Готовлю еду, не приходя в сознание.
Дефолтное состояние мозга — энергосбережение. Я привык действовать стереотипно и не всегда способен оценить: а стоило ли отвечать на автомате (ровно как нейронная сеть подбирает следующее подходящее слово), или надо бы прерваться и подумать.
Что меня (пока?) отличает от нейросети, так это умение творить. Не в возвышенном смысле этого слова, а в приземлённом.
Придумать. Что угодно. Творчество — это любой синтез нового, даже на самом элементарном уровне.
Куда лучше поставить стол. Поменять ли кориандр на кардамон в рецепте. Пошутить. Просто о чём-то подумать несколько минут.
Именно в короткие моменты творчества я живу как человек, а не робот с гормонами.
Нейросеть позволяет мне быстро пробовать сделать прототип идеи из подручных материалов и палок.
Она помогает мне не бояться быть глупым, когда я что-то не понимаю или туплю и прошу переформулировать.
Я реально могу закопаться в любую тему, лишь бы было интересно — и сам формировать под себя и методы обучения, и сами материалы.
И не просто могу — я это делаю, и у меня получается.
4. В этой новой идентичности (sic!) моим, человеческим, остаётся то, что не автоматизируется.
Любопытство и внимание. Азарт и кураж. Эмпатия. То, что составляет мою персональную любовь к жизни.
Я научаюсь с помощью нейросетей делать в 10 раз больше — и это, как ни парадоксально, освобождает моё время для моей человеческой сути.
Такая вот трансформация происходит.
Вспоминаю, как я использовал нейронки ещё полгода назад. Был такой старый пошлый анекдот про Маугли, потерявшего девственность: «…а я им орехи колол».
В следующей части опишу свой путь от инсайта к инсайту и чему я научился за эти месяцы.
В chatGPT появился Restyling на уровне кнопочек, а не промптов. Стили - это просто предзаготовленные промпты.
У меня пока 9 котиков. Студии Гибли среди них нет (горе-то какое).
@cgevent
Пересматриваем монтаж еще раз после того, как готов черновой саунд дизайн
(ритм, музыкальные акценты).
Саунд дизайн
Заменяем реплики героев, если есть более выразительные из архива генераций.
Находим подходящую музыку или пишем в Suno. На некоторые новые идеи
выводит сам Veo, который случайно может генерировать настроенческие звуки. На
сведении вытаскиваем самые важные, погружающие зрителя в атмосферу,
звуковые дорожки, и прячем все лишнее.
Итог: фильм на заглавной странице https://www.adsoftheworld.com/
То же самое, только в Veo3 Fast в Gemini
@cgevent