lovedeathtransformers | Unsorted

Telegram-канал lovedeathtransformers - Love. Death. Transformers.

4253

❤️☠️🤗 идейная миграция небытия

Subscribe to a channel

Love. Death. Transformers.

у нас есть эффективные архитектуры дома

эффективные архитектуры дома:


тут тихо релизнулась папира sd3, линк скинул @seeallochnaya

Читать полностью…

Love. Death. Transformers.

Релиз claudе3

- сота с отрывом 0.04 пункта по mmlu
- в целом почти по всем бенчам дотюнились до gpt4

Ссылка

Читать полностью…

Love. Death. Transformers.

stop doing world models

Читать полностью…

Love. Death. Transformers.

(краткий пересказ введения к большой книжке Лейнстера "Entropy and diversity: The axiomatic approach" 2022)


Биоразнообразие кажется интуитивным понятием: много разных видов, чем их число больше, тем выше степень биоразнообразия. Но как быть с количественной мерой? Допустим, есть два сообщества A и B. С одной точки зрения, важно максимальное число представленных видов и не важно, насколько они распространены. С другой – важны только распространенные виды и их вклад. В зависимости от точки зрения, группа A или группа B будут считаться более разнообразными.
На самом деле, эти позиции – два противоположных конца континуального семейства однопараметрических мер биоразнообразия {D_q} для q in [0, infinity). Чем меньше значение q, тем больший вклад в биоразнообразие вносят редкие и малочисленные виды и наоборот.

Понятие биоразнообразия тесно связано с энтропией и фактически Шенноновская энтропия – это логарифм меры биоразнообразия D_1. Или, например, меры биоразнообразия D_q, известные в экологии как числа Хилла (Hill numbers), представляют собой экспоненты энтропии Реньи. Лейнстер доказывает, что числа Хилла – единственная мера биоразнообразия, обладающая natural properties в категорном смысле.

Кажется логичным, что помимо числа собственно представителей в сообществе, необходимо учитывать и их попарное подобие или генетическое родство. Существуют меры биоразнообразия, которые учитывают и это. Однако все они сводятся к мерам, связанным с энтропией Реньи, что также доказывается Лейнстером.

Современное животноводство активно использует антибиотики в производстве, порой неаккуратно, что приводит к появлению резистентной микрофлоры у домашнего скота. Высказывался ряд опасений, что появление таких резистентных бактерий может повлечь за собой эпидемии и среди людей, но Mather et al. показали, используя меры diversity для сравнения бактериальных семейств живущих с разными видами рядом, что резистентные Salmonella взятые у животных, вряд ли являются причиной резистентности у Salmonella живущих с человеком

Читать полностью…

Love. Death. Transformers.

А, те в рамках процесса получится вытащит инфу о гпт4, умно😬

Читать полностью…

Love. Death. Transformers.

ебала жаба гадюку

Маск подал в суд на Саму и опен аи, потому что схема работы openai крайне сложная и не похожа profit организацию

Читать полностью…

Love. Death. Transformers.

Да я в корпе просто так для души подрабатываю, так то у меня куча ресерч пропозалов

Читать полностью…

Love. Death. Transformers.

чат, лень гуглить, подкиньте физические движки с питон апишкой чтобы катать шары, была простая soft body и можно было легко собрать логи(вектора, координаты и прочее)

а и желательно ++ бекенд или просто быстрый и без gilов

Читать полностью…

Love. Death. Transformers.

⚡⚡⚡Вот и статья про Sora пожаловала от OpenAI
(А точнее от Lehigh University и Microsoft Research)

Сделать разбор статьи о том, что внутри?

PDF

@complete_ai

Читать полностью…

Love. Death. Transformers.

Do Large Language Models Latently Perform Multi-Hop Reasoning? (by Google)

Авторы обнаружили, что если вопрос сформулирован неявно, то LLM уже во время его чтения "пытаются" подставить промежуточный шаг рассуждений в латентном пространстве. Например, для эмбеддингов последних токенов этого вопроса

Сколько людей живут в крупнейшем городе Европы?

растут логиты, соответствующие слову "Стамбул".

Выходит, что на промежуточных слоях происходит multi-hop reasoning. Пока авторы нашли подтверждение этому максимум до 2 шагов рассуждений, причём качество первого шага растёт по мере увеличения модели, а вот второй шаг размазывается по всем слоям и почему-то не сильно зависит от размеров LLM.

Статья

Читать полностью…

Love. Death. Transformers.

👩‍🎤 Инди vs Корпорат 👨‍💼

Заметочка про стек и подход к своим пет- и инди-проектам, почему он диаметрально противоположен тому, к чему большинство «выращенных корпоратами» программистов привыкли на работе.

Мы все понимаем насколько корпорации сильны и неубиваемы. Но в инди тоже есть свои суперсилы и все еще витает дух «того самого программирования», которое решает реальные проблемы реальных людей, ради чего многие (ну, хотя бы я) и пришли в айти.

https://vas3k.blog/notes/indie_vs_corpo/

Читать полностью…

Love. Death. Transformers.

выпускники католического университета по ии такие типа:

Читать полностью…

Love. Death. Transformers.

Не SORA конечно, но добавили видосики на svd в insomnia (выбираем модель video)

https://insomnia.land/#/image

Читать полностью…

Love. Death. Transformers.

На iclr не приняли mamba. Качество ревью.... Прикольное

Читать полностью…

Love. Death. Transformers.

загадка жака фреско:

чем LlamaTokenizer от LlamaTokenizerFast отличается и какой быстрее?

Читать полностью…

Love. Death. Transformers.

Очень важная инфографика на бенчамарках на 400 вопросах лежащих в опенсурс.

Ждём lmsys через пару недель, посмотрим.

Читать полностью…

Love. Death. Transformers.

Одна нейронка из предложения делает целый текст, другая по нему делает видео, третья пересказывает это видео в текст, четвертая сводит текст в предложение.


Напомните, почему мы этот уророборос выбрали?

Читать полностью…

Love. Death. Transformers.

Парень сделал Jarvis-like рабочий стол, смотрите!

ig

Читать полностью…

Love. Death. Transformers.

Собственно, в подтверждение моим мыслям про groq вышел любопытный блогпост про экономику инференса.
- грок оптимизирован под latency, это возможно на железкаах Nvidia, но не очень экономически целесообразно
-текущие провайдеры LLM в лучшем случае имеют небольшую марж

Выводы:
-цена инференса вероятно не упадет заметно пока Nvidia монополист на рынке *pu



блог

Читать полностью…

Love. Death. Transformers.

Илон Маск предъявил иск к Сэму Альтману и группе OpenAI.

Основания для иска:

1/ Нарушение договора
2/ Promissory estoppel
3/ Нарушение фидуциарных обязательств
4/ Недобросовестная конкуренция

Интересные детали из иска и юридический разбор будут в этом канале в ближайшее время, а пока что прикладываю сам документ для вашего самостоятельного изучения.

Надо сказать, что Маска в этом деле представляют не его обычные юристы, а относительно небольшая юрфирма. Это говорит об оппортунистическим характере иска, например, чтобы получить информацию в рамках процесса discovery (мы как раз писали об этом в последнем посте из цикла #KrasExamination).

@buzko_hub

Читать полностью…

Love. Death. Transformers.

#чтивонаночь
LongRoPE: Extending LLM Context Window Beyond 2 Million Tokens


Про RoPE слышали? короче у rotary эмбедов есть проблема - сколько учишь, столько получишь, учишь 2048 - будь добр не суй больше 2048, ppl порветься(ну точнее взорвется)

Rope обычный работает так что Kый токен будет притворяться токеном на позиции которые трансформер в оригинале видел. Конечно такой схематоз надо обучать, но куда без этого. К слову можно учить LoRA, так что все не так плохо.

Что же докидывают microsoft?
Они перебирают разные варианты возможных позиций и подсовывают в модель. Типа работает сильно лучше потому что это подобранная эвристика. Ну и соотвественно с названием это все можно скелйить в 2m токенов(если гпу на инференс хватит)

paper
кода нет, но обещают

Читать полностью…

Love. Death. Transformers.

Еще подход к оптимизации LLM трейна через копирование слоев с рлем

Раз в несколько итераций трейна спрашивем рльную полиси (маленький MLP) какой слой копирнуть в вышестойщий. В статье этот механизм называется "связыванием", он определяет, когда слои тренируются и копируются. В самом начале тренируется только первый слой. Со временем остальные слои размораживаются через копирование из нижестоящих или тренируются независимо от других (когда полиси сказала, чтобы он был завязан сам на себя). Так понял.

На входе (s) - вектор с размерностью количества слоев в ллмке, где на каждой позиции стоит минимальный индекс "связанного" слоя, с которого веса копируются (когда надо).
Сама полиси тренируется вместе с LLMкой.

reward = -perplexity на батче

Получили:
BERT тратит на 1 эпоху ~ 2 раза меньше времени
GPT2 в пике потребяла ~ 3 раза меньше памяти чем при обычном трейне, но учится чуть дольше

Dynamic Layer Tying for Parameter-Efficient Transformers
https://arxiv.org/abs/2401.12819

Читать полностью…

Love. Death. Transformers.

Отбой, это пиздежь и фантазии

Читать полностью…

Love. Death. Transformers.

Генеративные модели достигли в программировании уровня сеньоров

Читать полностью…

Love. Death. Transformers.

Релиз mistral large и обновленных small(апи)

- по бенчам чуть хуже чем gpt4
- раз в 10 дешевле gpt4
- нативная поддержка романской группы(френч, итальянский) и немецкого с английским. Короче крупные европийские языки.
-function calling в апишке

А ещё мистраль теперь коллабиться с azure

Blog

Читать полностью…

Love. Death. Transformers.

cербия сила! 🇷🇸
тут товарищ выпустил Ft мистраля на южно славянские языки, и получилось вкусно(по бенчам)


ссылка

Читать полностью…

Love. Death. Transformers.

эм ну, сошлось и слава богу?

католический институт парижа, мастер аи, блин а звучит!

Читать полностью…

Love. Death. Transformers.

hypertext prompting->config prompting-> turing complete prompting->programing promtping

Читать полностью…

Love. Death. Transformers.

🔺 Инструменты для помощи малым языкам

Написал небольшую статью на Хабр про текущие проекты, связанные с языками. Про дообучение LaBSE, про автоматическое извлечение параллельного корпуса этой моделью, про параллельные книги, проект Lingtrain и новый проект SuperMinor, который скоро запущу.

🔸 Весь код тоже выложил. Просьба поддержать, кому это интересно.

👉 Хабр

Читать полностью…

Love. Death. Transformers.

где то в париже:
ты ебунутый?
ну а что на ruste пописать нельзя?
нет, ты скажи ты ебанутый?
ну пописать нельзя?
ебанутый.


Тут обнимайлицо релизнули candle(с пол года делают, а я только недавно увидел) - что то среднее между torch и transformers, но для Rust.
Поддерживают значительную часть полезных архитектур, все модальности, а еще написаны kernel_ы для большинства железок популярных.

по скорости хуже чем python на 20%, но кому это важно?


ссылка

Читать полностью…
Subscribe to a channel