lovedeathtransformers | Unsorted

Telegram-канал lovedeathtransformers - Love. Death. Transformers.

4253

❤️☠️🤗 идейная миграция небытия

Subscribe to a channel

Love. Death. Transformers.

Два человека, примерно час.

Читать полностью…

Love. Death. Transformers.

Нейросеть многоловая по ГОСТу

Читать полностью…

Love. Death. Transformers.

#чтивонаночь
Janus: Decoupling Visual Encoding for Unified
Multimodal Understanding and Generation


Собственно идея не новая - давайте учить текстовый трансформер на комбинированной мультимодалке - на входе будет clip+adapter, на выходе vq токены(через них генерируем и представляем картинки)

В отличие от прошлых работ тут модель не претренется с нуля, стартует с LLM чекпоинта


Те sequence на которо учится наша модель выглядит примерно так:
<bos>text<image_adapter tokens>text<image generation tokens(vq)>


Модель ожидаемо лучше 10кратно больших хамеленово и прочих мультимодальных претренов и по качеству чуть хуже sdxl с поправкой на чуть лучший промтинг


папир

Читать полностью…

Love. Death. Transformers.

Чат, для чего используете OpenSource llm дома/в проде?

Читать полностью…

Love. Death. Transformers.

Man want only one thing and it's disgusting

Читать полностью…

Love. Death. Transformers.

VLM в Нейро

Сегодня у нас большое обновление в Поиске. В том числе, команда VLM тоже приняла в нём участие!

Написали с коллегами пост на хабр про то, как мы затаскивали VLM в Нейро (писал про релиз здесь). В этот раз мы немного раскрыли подробности про то, как работает Нейро, где и зачем потребовалась там мультимодальность. Припорошили немножечко теорией про VLM.

Больше ни слова в посте, приятного прочтения поста!

Читать полностью…

Love. Death. Transformers.

Круто!
Нашу библиотеку для алаймента добавили в awesome LLM resourses

Читать полностью…

Love. Death. Transformers.

агент на gigachain
иноагент на langchain

Читать полностью…

Love. Death. Transformers.

#чтивонаночь собственно год назад это было инновацией(DIT, captioning, куча инструкт синты) А теперь это индустриальный стандарт разработки t2i, sd3 - такой же концептуально
Все видео модели концептуально не сильно отличаются - DIT, T5, синтетик кэпшены, куча возни с данными.

Собственно ex авторы PixArt ушли в Nvidia и сделали Sana - очень маленькую и очень бодрую(на бумаге) модель

Из интересного

- VAE теперь сжимает не х8 а х32(те нативно генерит 4к картинки)
- 1s на картинку локально на laptop GPU
- Linear DIT, по сути выкинули ATTN и махнули на 3x3 свертки
- Gemma вместо T5, что вообще очень нестандартно


рассуждать про перфоманс без собственных тестов, а главное FT я не готов, 600м dit это все еще очень мало, возможно у модели есть нюансы.

В любом случае любопытная работа, ознакомьтесь

paper

Читать полностью…

Love. Death. Transformers.

Любопытный блогпост про починку gradient accumulation у unsloth

Blog

Читать полностью…

Love. Death. Transformers.

Oh, sweet child



Мне безумно нравится что вчерашние веб3 каналы стали резко про ai + eacc писать


От 500к год
@
Без пеработок
@
В долине

Блин, не я не могу перестать ржать, это очень забавно

Круче только экспоненциальный рост систем

Вложи 100, получи 10 это же почти экспонента почти, да? Не логарифм же?

Читать полностью…

Love. Death. Transformers.

Чёт давно обзоров статей не было

Читать полностью…

Love. Death. Transformers.

Из реализации FLUX в diffusers

Читать полностью…

Love. Death. Transformers.

Шо пацаны, вращаем и масштабируем!

Сейчас самый популярный метод позиционного кодирования в LLM’ках и не только — это RoPE. Но глубокому исследованию влияния параметров RoPE на поведение и свойства итоговой модели уделяется довольно мало внимания.

В статье “Scaling Laws of RoPE-based Extrapolation” ребята исследовали влияние выбора параметра rope base на поведение модели при разном размере контекста.

А еще:

📌 Ввели концепцию critical dimension, которая чуть-чуть приводит в порядок теорию про адаптацию RoPE для Train Short Test Long сценариев.
📌 Пофлексили тем, что “we achieve extrapolation up to 1 million context length within only 16K training length on LLaMA2 7B and 13B” — но есть нюанс 🙃

Основные интересные моменты:

- Маленькие rope base из коробки ведут к лучшей устойчивости к длинам контекста, которых не было в трейне, но при этом работают хуже на длинах, которые были в трейне.

- Есть понятный способ вычислить оптимальные rope base, если хочется сделать его маленьким.

- Большие rope base неустойчивы к длинам контекста, которых не было в трейне, но при этом работают лучше на длинах, которые были в трейне.

- Есть понятный способ вычислить оптимальный rope base, если хочется сделать его большим. Для этого нужно знать, на какой максимальной длине сиквенсов будет учиться модель, и на какой максимальной длине сиквенсов она будет работать на тесте.

- Пусть есть вектор размерности d для репрезентации какого-то query или key внутри башки атеншена. Тогда будет существовать d_extra, и во время претрейна позиционная информация в измерениях d_i ≤ d_extra будет полностью выучена, а в измерениях d_i > d_extra будет выучена не полностью и потребует дальнейших упражнений с адаптацией.


Велкам в полную версию статьи — давайте в комментариях обсудим, кто что полезное в ней нашел.

Читать полностью…

Love. Death. Transformers.

Meanwhile random Chinese student

https://pyramid-flow.github.io/

https://huggingface.co/rain1011/pyramid-flow-sd3

Читать полностью…

Love. Death. Transformers.

#чтивонаночь
Очень логичная работа от фб - Spirit lm

Давайте возьмем vq токены, будем их смешивать с текстовыми и все поедет. Собственно один из проектов на стажировке в Vikhrmodels ровно про тоже самое, но к сожалению мы запаздали с релизом. А жаль!

Меряют местами непонятно что и непонятно как, бенчей asr и tts нема

Почитать работу meta

Читать полностью…

Love. Death. Transformers.

В ByteDance стажёр обиделся и два месяца саботировал тренировочные раны соседней команды, причём весьма изощрёнными методами:

➖ Загружал чекпоинты с бекдором, через который проносил скрипт, который рандомно убивал джобы на ноде (ckpt - это pickle файл, они могут содержать произвольный код на питоне)

➖ Специально добавлял баги в форк PyTorch, который запускался на кластере

➖ Портил чекпоинты, чтобы результаты экспериментов не сходились

При всём этом он участвовал в митингах, где пытались отловить проблему, слушал, как коллеги пытаются решить её, и на основе услышанного придумывал новые способы саботажа. В итоге поймали по логам, но два месяца и усилия почти 30 человек пропали впустую. А у вас что-то такое было?

П.с. кроме шуток, мощный чел оказался.

@ai_newz

Читать полностью…

Love. Death. Transformers.

Продолжу. Если вы используете ллм на работе - в проде, то под что?

Читать полностью…

Love. Death. Transformers.

мне безумно нравится что cs bro думают что могут оценивать прогресс в чем то в чем они не эксперты и их будут слушать

Читать полностью…

Love. Death. Transformers.

День 17. GRUNGY JOURNAL.

Читать полностью…

Love. Death. Transformers.

https://github.com/PKU-YuanGroup/Open-Sora-Plan/blob/main/docs/Report-v1.3.0.md

Читать полностью…

Love. Death. Transformers.

В Суно присунули image2music и video2music!

Мы привыкли, что на вход текстовые промпты, ну и может быть аудио референс.

Суно решили заигрывать с мемасной аудиторией и новыми нормальными зумерами.

Типа озвучь свой мемас.

С точки зрения монетизации и стартапности - очень нарядный шаг.

Но если вы в музыку, то тут ничего нового.

Но зато у Суно будет больше денег. И лучше качество на итоге.

Какашка на торте.
Только иос-приложение.
Только в Штатах. Даже в Канаде не работает.
Твиттор Суно разрывается от возмущенных индусов.
Суно отшучиваются "усе будет скоро".

Ну и старую школу учили, что монтируем видео под музику, а не музику под видео.

Вот вам плейлист озвученых мемасов
https://suno.com/song/377d0638-ca5f-4f97-b452-7b8c9d32fe6d

@cgevent

Читать полностью…

Love. Death. Transformers.

погодите это агент??

Читать полностью…

Love. Death. Transformers.

☕️ Дмитрий Мезенцев, руководитель службы разработки Поиска рассказывает, как в Яндексе сочетаются атмосфера стартапа и бигтеха и за что он любит продуктовую разработку.

А если после прочтения вам захочется работать с нами — откликайтесь на вакансию!

➡️ Бэкенд-разработчик в команду поисковых сценариев

Читать полностью…

Love. Death. Transformers.

#чтивонаночь

MLE-BENCH@openai

Собственно идея такая: давайте будем агентом решать kaggle соревки старые пока llm не решит)

- 75 соревнований
- 1 карта



Ллама 405б ожидаемо оказалась слегка похуже, o1 preview лучше других(хотя интересно построить compute кривые)

Ожидаемо от увелечения числа попыток качество растет log_рифмически.

папир

Читать полностью…

Love. Death. Transformers.

Кстати согласно этой кривой MJ v7 должна уметь ещё лучше фоловить промпты и управлять мелкими деталями (ну там какие пальцы согнуты, цвет ресниц и тд. Скейлинг же экспоненциальный)

Читать полностью…

Love. Death. Transformers.

Ахуеть вышел альбом Пошлой Молли...

Читать полностью…

Love. Death. Transformers.

DL это наука, да я учёный, да что вы мне сделаете, зачем вам дилдо, ой да ладно я же пошутил...

Читать полностью…

Love. Death. Transformers.

Вчера было robotaxi party Илона маска, держите краткий пересказ

Читать полностью…

Love. Death. Transformers.

Мы тут наукой занимаемся, точно не stack more layers

Читать полностью…
Subscribe to a channel