Кто про что, а вшивый о Суне.
Начался открытый альфа-тест Chirp V3. Новая версия доступна для платных пользователей.
Из нового:
- Гораздо более чистый микс и в целом качество аранжировки
- Эффект автотюна стал почти незаметен (зависит от жанра и голоса)
- Максимальная длина теперь 2 минуты, при этом всё ещё работает продолжение мелодии
- Галка "Инструментал" для создания композиций без голоса
Понятно, что это Альфа-версия, и разработчики говорят про возможные галлюцинации и ограничения, но у меня пока всё ровно и красиво. Разве что он перестал добавлять интро в песни и начинает сразу с текста, но, думаю, это пофиксят.
Я даже потестил инструментальный режим с финальным боссом, а именно "Epic orchestral movie soundtrack". И я бы сказал, что это не так ужасно, как могло бы быть. Нюансы сведения, конечно, присутствуют, но в целом хоть сейчас вставляй в корпоративный фильм под закадровый текст. Мне все время слышались фантомные "Audio Jungle".
#suno
И снова об играх. Valve, наконец-то, сформулировали правила использования генеративного контента в играх, которые могут продаваться в Steam.
1. При создании страницы игры вы теперь обязаны указать, в какой форме вы использовали ИИ в разработке. Эта информация будет видна всем пользователям.
2. Вы "обещаете" ("promise", так и написано), что вы не нарушаете ничьих прав.
3. Вы обещаете, что игра и маркетинговые материалы соответствуют друг другу по качеству. То есть нельзя сгенерировать только красивую обложку, а в самой игре использовать ассеты серии Polygon.
4. Самое пока сложное - это контент, который генерируется во время игры. Вы должны гарантировать, что он не нарушает правила площадки, и рассказать Valve, какие ограничения стоят в вашем генераторе. Также пользователи смогут пожаловаться на вашу игру прямо из Steam-overlay.
В целом звучит разумно, пусть и немного запоздало. По моим наблюдениям, процентов 90 игровых студий с корнями из СНГ, которые в гробу видали все эти ваши авторские права, уже как минимум используют генеративный ИИ, а как максимум имеют целые ИИ-отделы.
https://store.steampowered.com/news/group/4145017/view/3862463747997849618?l=russian
#gamedev #steam
Если вы где-то читаете пост о том, что "нейросеть придумала, как бы выглядел Гарри Поттер в Челябинске" или "нейросеть сгенерировала мультфильм в стиле Миядзаки", то можете смело отписываться от такого канала и больше к нему никогда не возвращаться, потому что его ведут идиоты.
Нейросеть ничего не делает сама. За любым интересным контентом всегда стоит немалый человеческий труд. А иногда так и прямо огромный. И авторы заслуживают того, чтобы быть упомянутыми.
Как пример, это видео Дмитрия Алексеева и Сергея Козлова. Если вы никогда не работали с картинкой и анимацией, может, вы и не увидите тут чего-то особенного. Но, вообще-то, это серьезная, сложная композная работа, которая будет не под силу большинству выпускников курсов "After Effects за месяц". Не говоря уже про добротную режиссуру и, в целом, художественный вкус.
Дмитрий Алексеев и Сергей Козлов - Авторы. А нейросеть - это просто инструмент.
https://www.youtube.com/watch?v=lyqrS6hkRuo
#youtube #анимация
ChatGPT, кстати, исполнился годик.
Он уже уверенно сидит, ползает на четвереньках, может стоять и даже ходить, держась за опору. Способен осмысленно играть с игрушками. Понимает речь и способен односложно отвечать на вопросы. Подражает действиям взрослых и испытывает базовые эмоции, такие как страх, радость, гнев и удивление.
Поздравим!
#chatgpt
Какая песня сгенерирована нейросетью?
anonymous poll
Приходи – 68
👍👍👍👍👍👍👍 79%
Поле – 18
👍👍 21%
👥 86 people voted so far.
Как получить от Суно законченную песню с нужной вам структурой:
1. Старайтесь соблюдать размер в стихах. Если ваш текст сложно петь, получится речитатив независимо от жанра. Если вы сделаете в припеве и куплете разные размеры, то Суно будет проще придумать между ними переходы. Между соседними куплетами вставляйте пустую строку, получится пауза.
2. Ударения в словах можно выделять большой буквой, вот так: "ПоросЯтам". Когда это не работает, измените само слово: вместо "прямЫ" напишите "примЫ". Иногда помогает разбить слово на две части, вместо "элЕктрогенератор" написать "элЕктро генерАтор".
3. В круглых скобках можно добавлять бэк-вокал. Неплохо работают звуки типа (О-о-о, у-у-у-у).
4. Размечайте песню тегами. Точно работают: [Verse], [Chorus], [Bridge], [Solo]. К Соло иногда можно добавлять конкретику, например [Piano solo], но это может изменить инструменты всей песни. [Coda] помогает сделать концовку. С переменным успехом у меня работали [Calm] и [Aggressive]. Надо экспериментировать с другими тегами в квадратных скобках.
5. Иногда можно кастомизировать жанр, добавляя слова типа Energetic, Rhythmic, Aggressive, Slow, Fast. Обязательно пишите With Female/Male vocals, чтобы избежать инструментала и указать пол певца (тоже не всегда срабатывает). Разработчики не рекомендуют смешивать разные жанры, но, например, Chiptune Punk мне очень зашёл.
6. Максимальный размер одной генерации 1:20. Когда вам понравился кусок, выбирайте меню с тремя точками и пункт "Continue fom this clip". В тексте оставьте только те строки, которые не влезли в прошлый фрагмент, и нажимайте Generate. Так можно делать несколько раз, например у вас может быть три-четыре таких последовательных фрагмента. В самом конце в меню выбирайте пункт "Get Whole Song" и песня склеится из всех фрагментов.
К сожалению нельзя перегенерировать только кусок песни, поменяв что-то локально в тексте. Поэтому приходится прощать мелкие ошибки или править результат в вашем DAW.
Песни пишутся здесь в пункте Create (Custom):
https://app.suno.ai/
#suno
Это уже за гранью добра и зла. Ты даёшь нейросети текст и описание аранжировки. Она за две минуты генерирует две готовые песни. С куплетами, припевом, бриджем. С паузами и голосоведением. С эмоцией.
Переходите по ссылке, выбираете Create (Custom). На генерацию песни уходит 10 кредитов, у вас в начале будет 150. Ну или 10 долларов в месяц.
https://app.suno.ai/create
#suno
Последний твит Альтмана:
Если я начну ворошить грязное бельё, то совет директоров OpenAI потребует с меня полную стоимость моих акций.
Если что, по уставу OpenAI, как некоммерческой организации, Альтман и другие члены совета директоров не имеют права владеть акциями компании. То есть этот твит стоит понимать так: "Мне терять нечего".
Забастовка сценаристов закончилась, и наконец-то нормальный сериал начали снимать.
https://twitter.com/sama/status/1725748751367852439
#openai
А теперь обратный процесс. Видео из текста с помощью OpenAI API.
1. Сгенерировал закадровый голос.
2. По его хронометражу определил, сколько нужно кадров.
3. В GPT4 создал JSON с нужным числом промптов для этих кадров.
4. Скормил их Dall-E 3 и получил картинки. До этого пункта всё автоматизировано. Подаёшь на вход текст, получаешь закадровый голос и секвенцию кадров.
5. Gen-2 для генерации движения (вручную).
6. Отказался от Audiocraft и сделал звук по старинке.
Пока что самое слабое звено в этой цепи - это Gen-2, который сильно портит картинку. Надеюсь, следующие версии будут работать лучше, и добавят API.
Сгенерируй 10 мультфильмов хронометражом 2 минуты в стиле Миядзаки, добавь закадровый голос и мрачную музыку. Выложи на Youtube с оригинальным названием и описанием.
#openai #gpt4 #dalle
Иногда кажется, что ChatGPT всегда был с нами. А ведь он вышел всего год назад, в конце ноября 2022 года.
Сегодня же OpenAI выдали пачку интересных анонсов.
1. OpenAI запускают модель GPT-4 Turbo аж со 128 тысячами токенов контекстной памяти, это целая увесистая книга. Модель будет умнее и быстрее GPT-4, при этом знания о мире отсекаются апрелем 2023 года.
2. Фишки для разработчиков: лучшая обработка экшенов, вывод в JSON, повторяемые результаты.
3. Все цены в API уменьшаются в 3 и 2 раза для входящих запросов и результата соответственно.
4. В API приходит Vision, Dall-e 3 и TTS. Whisper v3 на подходе.
5. GPTS - это автоматический конструктор и магазин чат-ботов для любой тематики. Можно загружать свои документы, давать инструкции и даже генерировать иконку в Dall-e.
6. Новый конструктор ассистентов позволяет легко запрограммировать заточенного на вашу тему помощника для приложений и сайтов.
7. Отныне в случае любых исков по авторскому праву OpenAI возьмут на себя все издержки. Это касается и API, и ChatGPT.
8. AGI has been achieved internally.
Новые фичи, как всегда, будут выкатываться постепенно.
https://www.youtube.com/watch?v=U9mJuUkhUzk
#openai #gpt4
Кстати, GPT4 действительно научился объяснять мемы, причём делает это очень хорошо.
#chatgpt #gpt4 #openai
А вот что в Dall-e 3 действительно хорошо, так это работа с запросами. В Stable Diffusion очень сложно избавиться от утечки цвета, когда в одном запросе перечисляешь разные цвета.
Возьмем такой промпт: Girl with red hair, blue eyes, wearing green jacket with brown tie
. В Стейбле у вас будут появляться синие галстуки и красные куртки. А Dall-e 3 отлично справился.
#dalle
Лекс Фридман выпустил подкаст прямиком из Метаверса. Помните мем с лоу-поли аватаром Цукерберга на фоне Эйфелевой башни? Так вот, забудьте.
Технология Pixel Codec Avatars позволяет создавать фотореалистичных аватаров на основе 3D-сканов. Главная фишка - через камеры, встроенные в шлем, в реальном времени отслеживается мимика и движение губ. Реализм изображения в динамике просто зашкаливает. Зловещая долина убегает, поджав хвост, к зловещему айзеншпису.
Вангую, что в будущем станет популярной профессия цифрового стилиста и пластического хирурга для облагораживания своего отсканированного аватара. Изучайте ZBrush, пока не поздно, истинно реку!
https://www.youtube.com/watch?v=MVYrJJNdrEg
#VR #metaverse
В эфире наша постоянная рубрика "Жалобы на Steam".
Теперь они отказали в публикации игре, в которой перевод текста был сделан с помощью ChatGPT, причем отказали по старой схеме: с вопросами про авторское право. То есть, ещё раз, речь не про контент, а только про перевод.
Как я понимаю, у них есть внутреннее правило: если где-то в материалах игры упоминается AI, то игру не публикуем и спрашиваем разработчика насчет прав на датасет.
В Valve сидят прошаренные ребята, они понимают, какой серой зоной является сегодняшнее законодательство в сфере ИИ. Им, как компании-дистрибьютеру, не нужен неожиданный иск от какого-нибудь условного Стивена Кинга. Проще отказать и не пущать.
Государственная машина во всех странах очень неповоротлива, и добавление в законодательство новых концепций может затянуться на годы, а то и на десятилетия. А пока, если вы делаете творческий продукт с использованием ИИ, у вас есть выбор: или заранее озаботьтесь всеми документами, подтверждающими авторское право, или не отсвечивайте и уберите упоминания о ваших инструментах из соцсетей.
Почитать рассказ разработчика и обсуждение ситуации можно тут:
https://www.reddit.com/r/gamedev/comments/16r4dik/steam_also_rejects_games_translated_by_ai_details/
#steam #gamedev #авторское_право
А помните, как в анонсе GPT4 нам обещали, что он будет способен обсуждать картинки и объяснять мемы?
Вот вам рабочий Open-Source вариант, который называется LLaVA (Large Language and Vision Assistant). На вход подается картинка, на выходе ее подробное описание. Или картинка + вопрос, на выходе ответ в нужном ключе.
Код открыт, можно встраивать в свои чатики. Работает на основе LLaMA + CLIP. Умеет отвечать по-русски, но криво.
Я вот попросил прожарить Киану, и это сработало.
https://llava.hliu.cc/
#llama
Suno втихаря запустили сервис по созданию песен ко дню святого Валентина. Там нужно вписать, кому эта песня посвящена, где вы встретились и что делает этого человека уникальным. Сервис генерирует стихи и песню, которую можно послать вместо валентинки. Дешево и сердито.
Эта новость не стоила бы выеденного яйца, если бы не слухи, что там под капотом третья версия Чирпа, которой пока нет в открытом доступе. И на мой слух генерации действительно получаются лучше. Микс чуть более внятный, нет такой каши в низах, эффект автотюна на голосе сильно ослабился. Всё ещё не идеально, но лучше, чем было раньше.
https://vdaysong.com/yzet6p2y
Попробовать самому можно вот тут: https://v-day.suno.ai/
Дата выхода третьей версии на основной платформе пока хранится в секрете. Но вроде как скоро.
#suno
Для тех, кто не понимает всей этой новогодней суматохи, я сделал депрессивную версию самой надоедливой праздничной песни.
https://youtu.be/41xJLUMfleg
#youtube #suno
С наступающим!
Лучший подарок - это подарок, созданный бесплотными руками нейросетей. Поэтому я нагенерировал вам кавер-версий песен из старых диснеевских мультфильмов в разных жанрах.
https://www.youtube.com/watch?v=xjZNGc0Jy0Q
Вот тут весь плейлист:
https://www.youtube.com/playlist?list=PL6R8KrRTZPFHOH1lPLklgN59lywHNIkcn
Если что, я даже Youtube-канал для этого создал, так что подписка, колокольчик, лайки, все дела.
#suno #youtube
Будем считать, что голосование закончилось. Как и ожидалось, большинство слушателей, 77 процентов, правильно определило генерацию.
Трек "Приходи" я сделал в Суно, а трек "Поле" - это композиция группы с милым названием "нож улыбочка". Вот тут можно заценить их альбом: https://ionoffmusic.bandcamp.com/album/--92
Давайте обсудим, что именно выдаёт "искусственную песню"?
На мой взгляд, помимо очевидного отсутствия души, которое вы все, конечно, заметили, это качество сведения. Когда Суно пытается играть Tutti или просто добавляет в микс побольше инструментов, то получается каша. В моём треке такой кашеобразной получилась кода. Это приемлемо для некоторых жанров, но в электронной музыке мы привыкли слышать все инструменты.
Второй момент - это голос. В зависимости от партии, в нём могут прорезаться модуляции. Хотя мне кажется это не так критично, учитывая, что во многих современных треках автотюн используется чуть ли не как основной эффект. Остальное, типа необычной фразировки, придыханий и так далее, можно услышать и в человеческой музыке.
В общем, контрольную точку мы сохранили. Давайте условимся, что через полгода, в мае, мы соберёмся на том же месте и повторим эксперимент уже с новыми нейросетевыми инструментами, которые наверняка появятся к тому времени.
Всем добра! Не ругайтесь из-за музыки.
#suno
Эксперимент.
Я провёл какое-то время на Бэндкампе в поисках интересных инди-групп. Надо было найти песню достаточно простую, но при этом хорошую, чтобы с ней было приятно работать.
Дальше я в похожей стилистике написал текст и сгенерировал свой трек в Suno. Процесс немного вышел из-под контроля и я просидел полночи в поисках нужного звука.
Для чистоты эксперимента я чуток обработал "человеческую" музыку эквалайзерами и ухудшаторами, да простят меня авторы.
Как вы думаете, какой из этих треков сгенерирован?
Если что, я это затеял не чтобы принизить достоинство авторов исходного трека. Мне их творчество очень понравилось, альбом я купил и дам ссылку при объявлении итогов. Мне просто интересно, что из этого получится. Ставлю на то, что при сегодняшнем уровне генерации большинство угадает правильно.
Хочу зафиксировать этот момент истории, чтобы повторить эксперимент через полгода.
#suno
А у вас есть в окружении такие люди, которых можно назвать "скептиками ИИ"?
Ты ему показываешь по-настоящему крутое изображение от нейросети, а он: "Фигня, сделано без души! Человек бы потратил больше времени, но нарисовал лучше!".
Или даёшь послушать сгенерированную песню, а он: "Забавно, конечно, но без искры божьей. Вот ты слышал Квин или Пинк Флойд?".
Ну, то есть, я слушал и Квин, и Пинк Флойд, и Джона Зорна и даже Карлхайнца Штокхаузена, будь он неладен. Это не мешает мне удивляться новому. Почему вроде неглупые люди отказываются замечать настоящие чудеса которые происходят здесь и сейчас, рядом с нами? Как с ними разговаривать?
Первый сезон сериала подошёл к концу. Альтман возвращается в OpenAI. Не буду анализировать, строить догадки и теории заговоров. Просто скажу, что это было интересно.
Вся эта история с увольнением выглядит глупо и, в то же время, очень по-человечески - как семейная ссора с битой посудой, хлопаньем дверьми и примирением в конце. Но семейная ссора, за которой наблюдали миллионы людей. Такие события трудно представить в гигантской корпорации, где каждый ход заранее просчитан, заверен командой юристов и пиарщиков.
Я бы сказал, что прошедший "скандал выходного дня" - это очень милая, душевная и действительно человечная история. А ещё, кажется, что она была совсем не про деньги.
Группа энтузиастов-идеалистов по щелчку пальцев оказывается в центре внимания. Сегодня даже мелкая ошибка с их стороны может привести к катастрофическим последствиям, и теперь им придется играть по другим правилам.
Подозреваю, что мы больше не увидим от них такой открытости. Теперь они наймут тот самый штат юристов и пиарщиков и потихоньку станут превращаться в классическую корпорацию зла.
#openai
P.S. А по поводу возможного перехода Сэма в Микрософт: Сколько бы миллионов не предлагали, никто в здравом уме не уйдёт из компании, в которой можно будет первым опробовать GPT5.
Ваше мнение: что стало причиной увольнения Альтмана из OpenAI?
anonymous poll
Разногласия по поводу контроля над ИИ и прибыли – 27
👍👍👍👍👍👍👍 31%
Подковёрная борьба за власть – 25
👍👍👍👍👍👍 29%
Damage control после событий, о которых мы еще не знаем – 17
👍👍👍👍 20%
Другое – 10
👍👍👍 11%
Отношение к AGI – 5
👍 6%
Личные конфликты – 3
👍 3%
👥 87 people voted so far.
Ну что, я потестил обновлённый API от OpenAI.
1. Из кода через GPT4 сгенерировал шесть описаний последовательности кадров на заданную тему.
2. По ним в Dall-e 3 сгенерировал картинки.
3. По картинкам в GPT4 Vision создал поэтичный текст.
4. Сгенерировал дикторский голос в OpenAI TTS. Эти пункты полностью автоматизированы.
5. Засунул картинки в Gen2 и создал видео (пока вручную).
6. В локальном Audiocraft сгенерировал музыку (если это можно так назвать).
7. Профит
Выводы:
- Для чистоты эксперимента я ничего отдельно не редактировал и не перегенерировал. Если добавить минимальный человеческий ввод, то можно добиться лучших результатов. Единственное, я наложил на видео немного шумов, потому что могу.
- Голос у OpenAI самый лучший из тех, что я слышал. Но у него плохо с ударениями в русском языке. Сложные слова: "мореплавателю", "гавани", "пенистый", "зову".
- Мы всё ближе к полностью автоматической генерации комплексного контента без лишней прослойки в виде человека.
#openai #gpt4 #dalle #gen2
А ещё использование языковой модели в качестве интерфейса позволяет общаться с Dall-E, как с обычным дизайнером. Только Dall-E быстрее работает и меньше выделывается.
Например, вам нужна карикатура. Можно прямо по-русски в общих чертах сформулировать задачу. Под капотом GPT4 придумает четыре сюжета и для каждого сгенерирует свою картинку, причём сюжеты будут конкретными и детальными, в стиле "черноволосый человек сидит за компьютером, на экране видно то и сё...".
Потом вы можете попросить переделать конкретную картинку: изменить стиль, палитру, добавить-убрать предметы или героев, вставить надпись, поиграть шрифтами, ну, вы понимаете, побыть заказчиком.
Как и с мясным дизайнером результат не всегда предсказуем, и Stable Diffusion со своими инпейнтами и контролнетами всё ещё рулит. Но сам процесс такой работы над картинкой и поиска идей гораздо удобнее и понятнее интерфейса Автоматика.
#dalle #gpt4
В ChatGPT постепенно выкатывают DALL-E 3 для пользователей с подпиской.
Больше не нужно мучаться с промптами, запоминать стили и художников. Достаточно в общих чертах описать по-русски, что тебе нужно, а GPT4 уже сам преобразует это в подходящий запрос и довольно шустро сгенерирует картинку. При этом можно продолжать чат и просить что-то переделать или дополнить.
#chatgpt #dalle #gpt4 #openai
Каждый раз, когда выходит новая модель для генерации изображений, я первым делом пытаюсь сгенерировать Cyberpunk city at night from above
, чтобы посмотреть, как она справляется с окнами.
Так вот, рекламируемая из каждого утюга Dalle-3 этот тест не проходит и, как будто, ничего кардинально нового не привносит.
Попробуйте меня переубедить в комментариях.
https://www.bing.com/images/create/
#dalle
Как вы думаете, когда сгенерированных ИИ картинок станет больше, чем изображений, созданных людьми за всю историю человечества? Под изображениями я имею в виду картины, фотографии и прочие жанры визуального искусства.
public poll
1-3 года – 86
👍👍👍👍👍👍👍 42%
Это уже произошло – 77
👍👍👍👍👍👍 37%
3-10 лет – 34
👍👍👍 17%
10-100 лет – 4
▫️ 2%
Никогда – 3
▫️ 1%
Больше 100 лет – 2
▫️ 1%
👥 206 people voted so far.
А теперь нечто совершенно иное.
Несколько постов назад я рассказывал про новые ИИ-инструменты от Юнити. Если вы не знали, то Юнити - это самый популярный (согласно статистике) и самый удобный (согласно мне) игровой движок в мире.
Так вот, полторы недели назад Unity огорошили разработчиков новым уникальным бизнес-планом. Они решили, что будет круто брать с разработчиков 20 центов за каждую установку их игры. Это показывает, скажем так, неординарное понимание рынка советом директоров Юнити. Более того, было объявлено, что уже вышедшие игры также подпадают под этот новый "налог". То есть, если ты уже выпустил игру и что-то на ней заработал, то теперь ты будешь должен деньги большой корпорации.
Это нововведение было принято слегка прохладно. 15 тысяч негативных ответов на официальном форуме Юнити не дадут соврать. Внутри самой компании начались волнения, сотрудники начали увольняться, появились петиции с требованием отставки CEO, соцсети были завалены опросами "Unreal или Godot?".
Я лично воспринял эту ситуацию очень эмоционально. Неделя выдалась крайне депрессивной. Я даже установил Unreal, что бы вы понимали всю глубину моего падения.
Ты инвестируешь годы жизни в изучение инструмента, а решение некомпетентных начальственных мудаков разрушает все твои планы. Насыпьте сюда параллелей и аллюзий по вкусу.
Так вот, после шквала критики официальные представители Юнити удалились на "подумать" и молчали больше недели, пока разработчики изучали другие движки и срались на форуме. Дошло до того, что отдельные сотрудники компании стали спойлерить решение руководства в Твиттере в виде зашифрованных сообщений.
И вот сегодня Юнити выдали официальное письмо. Весь этот булшит отменяется. Более того, теперь не нужно покупать отдельную лицензию, чтобы убрать плашку "Made with Unity" в начале игры. Подняли максимальный порог дохода для бесплатной версии. Ввели адекватный revenue share, то есть теперь после заработанного миллиона долларов нужно будет отчислять всего 2.5 процента от дохода игры, что в два раза меньше, чем у того же Unreal.
https://blog.unity.com/news/open-letter-on-runtime-fee
Я воспринимаю это как победу. Победу простых людей над корпорацией. По крайней мере в данный момент ситуация с Юнити разрешилась хэппи эндом. А в наше время хэппи эндов не хватает.
#unity #gamedev
И вдогонку про Unity. Мне также пришел инвайт на тестирование Unity Muse, это такой ChatGPT, заточенный под разработку игр. Я погонял его немного и вот впечатления:
1. ChatGPT 4 лучше.
2. Пока что код отображается с ошибками, знаки сравнения заменяются на lt& и rt&. Это критично, но должны пофиксить.
3. Истории чатов, как в ChatGPT пока нет, зато есть выбор версии Юнити, про которую вы спрашиваете. А еще можно сразу скачать код с расширением .cs
4. Шейдеры кодом пишет из рук вон плохо. Зато по шагам подсказывает, какие ноды поставить в ShaderGraph. Это забавно, хотя и практически неюзабельно.
5. В коде допускает элементарные ошибки, например один раз не добавил указание типа в вызове дженерика GetComponent.
6. ChatGPT 4 лучше.
В целом интересно, как OpenAI смогли создать универсальный ИИ, который уделывает другие ИИ, обученные на специфические задачи. Код для Юнити от GPT4 работает сразу, нужно только достаточно подробно описать, что тебе нужно.
Но Muse это тоже шаг в правильном направлении.
Как игровые движки в своё время демократизировали создание игр, и мы получили тонну крутых инди-проектов, так сегодня ИИ демократизирует программирование. И чтобы создать первый прототип игры достаточно поверхностно понимать структуру игры в Юнити (компоненты, префабы и т.п.).
У меня даже родилась гениальная идея геймджема, в котором можно использовать любые ассеты, но весь код нужно писать через ИИ. Такой мета-уровень программирования, где главное правильно сформулировать задачу.
https://www.youtube.com/watch?v=dR4IuN2tF78
#unity #muse #gamedev