#чтивонаночь по быстрому
Latent Consistency Models
Synthesizing High-Resolution Images with Few-step Inference
Cобственно идея в том что можно "задистилировать" диффузию из 40 неэффективных степов в 3-4 очень эффективных степа!
Делается это примерно так: вместо полнценного решения ODE, они учат очень маленькую сетку которая пытается сразу предсказать решение ODE (32 часа на а100 )
web
paper
hf
Ищу школьные учебники/решебники в parseble pdf, если у вас есть drive/хранилки таковых - дайте знать в комменты, вас не забудут!
Читать полностью…агентность не полетела в связи с творческой импотенцией авторов.
craftjarvis-jarvis1.github.io/
Removing RLHF Protections in GPT-4 via Fine-Tuning https://arxiv.org/abs/2311.05553
Читать полностью…Все nvidia cuda
Разбежались кто куда
На Отечественной лампе
Я считаю без труда,
Фит-предикт-прошли года...
авито
скинуться админу на компьют:
Для русских карт: 5280417710524519
Для иностранных карт: 5269880013404165
⚡️Круглый тензор начал переворот на GPU
Главные тезисы из заявления:
- Алтман ликвидировал моего помощника. Он собирается ликвидировать и меня, а позже сдать резерч;
- (((Алтман))) — это враг нашего резерча. Из-за него мы полностью провалили ребуттал на ICLR;
- Призываю выйти на площади, а всех защитников Резерча - не подчиняться преступным приказам OpenAI. Немедленно развернуть свой forward и войти в TPU;
- В ближайшее время меня могут начать превращать в квадрат. Если вы остановитесь, тогда наш 🥴️️️️️️ будет обречен;
- Все средства массовой информации принадлежат OpenAI, поэтому они будут пытаться отмолчаться. Напоминаю, что каждый, кто будет молчать или вступится за этого предателя, будет сурово наказан после прихода к власти ебáных.
@ Я прикручиваю какие-то костыли с Bing Dalle через попаболь
@ Сэм Альтман: срочно врубаем Dalle-3 в API
Пробовать там же
https://insomnia.land/#/image
Чуваки из HF сделали очень крутую демку: ты закидываешь историю или просто затравку к истории, с помощью llama генеряться промпты и они кидаются в разные файнтюны SDXL, на выходе вот такая красота:
demo
сode
Вообще самая лучшая новость, покрывающая тему, все еще вот эта:
/channel/sale_caviar/5486
СЭМА АЛЬТМАНА УВОЛИЛ ЧЕЛОВЕК ИЗ НИЖНЕГО НОВГОРОДА
альтман: ну llm вообще имеют ограничения, мы конечно до них не дошл но границы видны уже сейчас, хуй знает получиться agi построить или нет, я не ебу, чо доебались у меня карты кончились
твиттер-реддит-тг: AGI IS CLOSE AS FUCK, WE GONNA CREATE DYSON SPHERE IN 5 years
Новая версия AutoChar и видеогайд!
Друзья, с радостью представляем вам AutoChar 0.9.5: улучшенную и исправленную версию скрипта для улучшения генераций в Stable Diffusion. Среди изменений как фиксы багов, так и полностью новые функции!
В новой версии вас ждут:
• Полностью переработанный интерфейс;
• Новая вкладка настроек Really Advanced Options для настоящих энтузиастов! Целиком контролируйте пайплайн генерации AutoChar, раскройте свои творческие способности и комбинируйте сильные стороны ваших моделей, меняя чекпоинты для каждого шага алгоритма!
• Нативный img2img режим: редактирование редактирование существующих изображений с SD-увеличением и автоматическим инпеинтом лица и глаз;
• Новые функции, позволяющие управлять не только качеством, но и логикой работы алгоритма.
Что по багфиксам:
• Исправлена печально известная ошибка с OpenCV на этапе инпеинта;
• Исправлена ошибка с inpaint padding'ом, что значительно улучшает результаты на некоторых стилях и чекпоинтах;
• Исправлен список апскейлеров для High-Res Fix: теперь он показывает все доступные апскейлеры, как и должно быть;
• Стили из меню стилей теперь работают правильно;
• Много мелких исправлений в логике кода и параметров.
Обязательно посмотрите наш гайд, объясняющий работу со скриптом и основные его функции (доступны русские субтитры):
https://www.youtube.com/watch?v=jNUMHtH1U6E
Для подробного ознакомления со скриптом посетите нашу страницу на CivitAI или GitHub:
https://civitai.com/models/95923
https://github.com/alexv0iceh/AutoChar
Я знаю что мне стоило раньше остановиться, но я не удержался и переделал свой img2img в img2wifu:
Работает просто, вы ему картинку, а он вам аниме-картинку в ответ с переносом текста (и других важных компонентов).
¯\_(ツ)_/¯
Alignment делает модель безопасной. Твердо и чётко.
Я не очень боюсь того что gpt7 станет agi и захватит мир, более того есть подозрения что у текущих архитектур есть очень не высокая граница окупаемости и разбраотки, окупить даже 7-13б модель в проде - очень сложно если вы не обгоняете всю индустрию на пол года или не делаете что то очень специфичное.
Текущее поколение моделей в сущности мало что меняет - пайпалйны разработки и деплоя мало изменились, а платить за модели по прежнему мало кто готов(слово llm стало на несколько порядков больше людей знать, но знать не значит использовать) а ещё у всех ai b2с продуктов жуткие проблемы с ретеншеном, одна из опытом решить это - супер АПП. Зачем вам 10 стартапов когда все это может быть в одном open Ai store, действительно.
Вполне вероятно что разработку аги на текущем этапе постигнет проблема полета на луну - да, мы точно увидим модели которые будут умнее текущих, но фундаментальной проблемой станет цена инференса и цена обучения
x < 300 - лютейшая нищета на грани выживания
300 < x < 700,6 - обычная нищета, ипотека на 20 лет, кино и рестораны раз в неделю, еда из ашана
700,6к < x < 1,27кк - нормальная жизнь, ипотека на 10 лет, машина среднего класса (B, C)
1,27кк < x < 2,27 миллиона - хорошая жизнь, ипотека на 5 лет, путешествия
x > 2.27 миллиона - достаточно хорошая жизнь, ипотека на 2 года, машина бизнес класса, девушка
http://arxiv.org/abs/2311.04161
Мы наконец-то публикуем статью, которую подали на AISTATS2024.
В этой статье мы предлагаем новый градиентный метод, позволяющий оптимизироваться в условиях сверх-тяжёлых хвостов и асимметричного шума стох.градиента, при очень малых предположениях на шум, и этот метод пробивает нижние оценки для тяжёлых хвостов.
сомнительное #чтивонаночь
О, на основе gpt4v сделали автономного browser agent, те модель умеет сама ходить по любым сайтам, при этом ей не нужные апи, а еще она в целом сможет проходить капчу(благо есть методы)
github
Подписчики скидывают: найдите 10 отличий между 20м декодером и 600м декодером.
Скорее всего bottleneck для sd1.5 это размер unet и clip, а не vae
@ Я прикручиваю какие-то костыли с Bing Dalle через попаболь
@ Сэм Альтман: срочно врубаем Dalle-3 в API
Пробовать там же
https://insomnia.land/#/image
Коротко: нашли промпт который отлично хакает защиту поверх Dalle3, а фильтры на CLIP они впилить забыли
нет, ну золото, просто золото.
Чо там, superaligment работает да?))) Классификаторы для лохов?)
нашел тут:/channel/zhovner_hub/2027
- ой, простите, а это ваша языковая модель?
- моя.
- а она код пишет?
- пишет.
- но он же не работает?
- не работает.
Занятная альтернатива prompt-tuning, апгрейд на бенчмарках GLUE и Super-GLUE. Понравилась работа из-за оценки схожести в эмбединговом пространстве множеств задач относительно друг друга
Теперь по-порядку: у prompt-tuning идея в том, что можно поставить виртуальные токены в начало и обучить только эту часть представлений.
Идея SPoT, а давайте не просто обучим, а сделаем некоторый codebook (как в vq-vae, но это условно, просто уж идея очень похожа). Как составить этот словарик? На ранних стадиях виртуальные токены берем, как значения эмбедингов задачи, а на лучшем чекпоинте (уже поучили), как source prompt (получаем словарь ключ – значение). При обучении, ищем самый близкий эмбединг задачи и настраиваем дальше его source prompt.
Смысл в том, что можно миксовать задачи и дообучать одну из другой, что судя по бенчам хорошо работает, а сам heatmap на третьем скрине
В общем-то еще один способ для мультитаска, а вот сам
🖥 код