lovedeathtransformers | Unsorted

Telegram-канал lovedeathtransformers - Love. Death. Transformers.

4253

❤️☠️🤗 идейная миграция небытия

Subscribe to a channel

Love. Death. Transformers.

Друзья, привет, вдохновились успехом коллег и разных генераторов миджорни в телеграме 🙏️️️️️️
Решили, что будем идти в сторону фана и реализма

Так что запускаем своего бота старика Аватара Аватарыча 😁️️️️️️

Что он умеет:
👀️️️️️️ По вашей фотке автоматически понимать, кто вы есть
👀️️️️️️ Рисовать вам аватарки в заданном стиле с вашим лицом

Это пока версия 0.1, поэтому пробуйте больше раз, может что-то получится
👀️️️️️️ Пока есть проблемы кривых глаз
👀️️️️️️ С кожей тоже пока шалит

Но все генерации уникальны, так что советую гененировать штук 10 для хорошей 🙌️️️️️️🤖️️️️️️

Если соберем 100 юзеров, будем улучшать качество глаз и кожи нашим алгоритмом +

ПС также скоро добавим функции в инсомнии

Бот 👇️️️️️️👇️️️️️️👇️️️️️️
@AvatarychBot

Читать полностью…

Love. Death. Transformers.

Дошли руки выложить часть(20%) Instruct датасета, он ощутимо меньше чем Большой SFT сет, но дополнительно прочищенной GPT4.
Датасет получен следующим образом:
LLAVA1.5 доученная на датасете из GPT4v генерит кэпшены
GPT4 правит кэпшены чтобы они были удобными и понятными.

По деньгам на api вышло что то вроде 150usd.

Отдельное спасибо @bogdanisssimo за токены на gpt4v

dataset

Пример кэпшена: A dog stands amid a circular pattern, mountains rising behind it, while a bird flies in the distance.

Читать полностью…

Love. Death. Transformers.

❗️Сугробы в Москве подрастут на 7-10 см, по заявлениям чата канал до 15-20см

Love death transformers, на острие науки.

Читать полностью…

Love. Death. Transformers.

Сбер теперь делает ЯП?

Copy from @data_morning

Читать полностью…

Love. Death. Transformers.

Челы из eutherai зашли нормально, вероятно это текущая open source SOTA(речь про базовую модель, инструкт тюны вопрос пары недель).

Админ пиздит!! Yi34b лучше

Читать полностью…

Love. Death. Transformers.

Оказывается 8 месяцев назад вышла T5 like Moe модель c prefix lm+span corruption, обученная на 780b токенов и чекпоинты вплоть до 8В
code
Blog

Читать полностью…

Love. Death. Transformers.

Лол кто то сделал МоЕ, охуеть

Читать полностью…

Love. Death. Transformers.

A lol, кода и блога нет

Читать полностью…

Love. Death. Transformers.

my honest reaction на папиры в 2023:

Читать полностью…

Love. Death. Transformers.

я все пропустил(как всегда) а что за мода у техно-оптимистов цитировать сроки которые выдает Маск?
Сходу не могу вспомнить чтобы он хоть раз попадал по срокам вообще когда либо.


В ту же сторону вопрос: а цитировать людей которые напрямую заработывают на пузыре это норм или не очень?

Читать полностью…

Love. Death. Transformers.

Четверг 18.30: повтор лекции про Микеланджело
За два часа убежу вас, что скульптура лучше живописи и всего на свете вообще. Кажется, это лучший из моих материалов. Ну, вы знаете почему

Пятница 12:00: смотрим Возрождение в Эрмитаже. Леонардо, Микеланджело и другие черепашки на расстоянии вытянутой руки

Welcome 💋

Читать полностью…

Love. Death. Transformers.

Это не чат, это Ebа́nyChat. Еба́ноязычная Chа́tGPT от лаборатории еба́ного резерча

Здарова, хабровчане!
Хайп вокруг нейросетей, заалайненых при помощи Instructions и RLHF (известных в народе под единым брендом «хуйня из под коня из каждого утюга»), трудно не заметить. Именно поэтому мы решили тоже хайпануть запрыгнуть в этот поезд!

Общий подход для обучения подобных моделей примерно такой:
1. Заиметь хорошую LLM.
2. Сделать SFT.
3. Собрать фидбек.
4. Полирнуть все RLHF’ом.

В текущем релизе мы забили хуй на все эти пункты, как один из способов максимального прироста в качестве (а кто нас проверит, лол?).

Давайте посмотрим, что же находится внутри Ebа́nyChа́t’а.
⁃ Рандомная LM, которую нам принес стажер с хагинфейса (ваще похуй че там внутри, 13B параметров сделают go brrrr (больше модельки мы не умеем файнтьюнить))
⁃ Датасет для SFT (перевели альпаку-хуяку промтом; похуй, сгодится; еще собрали каких-то случайных датасетов с ХФ’а и захардкодили промпты; все же нормально будет, да? оверфитинг? ну мы меньше итераций обучения поставим)
⁃ Затем мы начали дрочить развесовку для этих датасетов на глазок (кидали кости на доску и записывали значения в качестве веса. Наш джун после этого сошел с ума, сказал что мы занимаемся какой-то дикой поеботой и устроился на работу в нормальное место)
⁃ Разочек обучили модель (а зачем че-то там тьюнить? (а вообще к нам пришли ребята с прода и сказали освобождать железо, т.к. мы опять занимаемся хуйней)) В какой-то момент она перестала генерировать <pad> <pad> <pad> — решили что близки к AGI и остановили обучение.

Сперва мы вообще хотели забить хуй на тестирование, но наш менеджер сказал что нужны какие-то цифры. В общем, позвали деврела, показали ему 3 парных семпла с chatgpt, спросили какие из них луче. Он везде сказал что чатжпт лучше. Получилось какое-то ебаное качество, но как-то плевать, напишем что 1 к 3 лучше. (деврела уволили, кстати).

Ни метрики, ни честный Human Evaluation мы показывать конечно же не будем. Кого это ебет? Тебя это ебет?

А, да, зарелизим претрейн. Мы его кстати назвали gpt-5. Почему? Просто.
Под катом у нас куча примеров, которые мы начерепикали, наслаждайтесь. Должно хватить на постов 10-20 где-то еще.

Читать полностью…

Love. Death. Transformers.

разница охуенная, папир это какой то троленг

Читать полностью…

Love. Death. Transformers.

#чтивонаночь Mamba: Linear-Time Sequence Modeling with Selective State Spaces.

Последние три дня в ресерч твитере обсуждают MAMBA, нет ресерчеры не знакомятся с другими людьми и не слушают рэп вы не подумайте.

Речь про Mamba: Linear-Time Sequence Modeling with Selective State Spaces.

TLDR:

- Attn и MLP для бумеров, у нас свертки и selective copying kernels на c++
- Рекурентность это круто😎
- LM версия по бенчам сопоставима с трансформерами (сравнивали с Pythia, вплоть до 7b).

а еще авторы заслуживают отдельного места в сердчке за нормальный Training Recipes в апендиксе.

alexwortega/0rZZfJKCe9F">Подробнее как всегда в teletype

code
paper

Читать полностью…

Love. Death. Transformers.

https://telegra.ph/Maska-12-04

Читать полностью…

Love. Death. Transformers.

почему instruct tuning-t2i aligment, называйте как хотите, важен, но про него никто не говорит?
слева ориг, справа после тюна.

Результат на лицо полагаю?

промпт: "cat in boots and dog"

Бонус: душаться сиськи-трампы и прочее, lvm задушены на персонажей(или можно задушить промптом).при желании можно и наоборот

Читать полностью…

Love. Death. Transformers.

чат, а есть такие чехлы на iphone?

Читать полностью…

Love. Death. Transformers.

Guidence булочки мои.

Какую проблему он решает: это высоко уровневая надстройка над model.generate которая умеет использовать negative, forced tokens и прочие удобные штуки из коробки.

Вот такой синтаксический сахар выглядит как то что должно быть в transformers, но этого нет:

@guidance(stateless=True)
def ner_instruction(lm, input):
lm += f'''\
Please tag each word in the input with PER, ORG, LOC, or nothing
---
Input: John worked at Apple.
Output:
John: PER
worked:
at:
Apple: ORG
.:
---
Input: {input}
Output:
'''
return lm
input = 'Julia never went to Morocco in her life!!'
llama2 + ner_instruction(input) + gen(stop='---')

А ещё можно добавлять разные тулы которые модель может выбирать( сами тулы которые легко описывать через декораторы - это вообще гениально)

Code

Читать полностью…

Love. Death. Transformers.

На хф вышел блог про HPU - Habana Gaudi2, за счёт того что часть операций с данными вынесена на девайс почти в 1.5 раза быстрее h100.
Уже впилен torch, transformers и обещают deepspeed.


Возможно рынок *PU наконец перестанет быть монопольным, хотя с учётом текущей заточеености на Nvidia сложно конечно.

blog про трен
Blog

Читать полностью…

Love. Death. Transformers.

200 USD донатами и я пишу обзор на moe LM с колбами на поиграться.

Bep20:
0x4DBd65ec0C0E91755e02170fC1C8f85FB4D6F4f9

Спасибо всем донатерам, планирую до конца года выпустить!

Читать полностью…

Love. Death. Transformers.

Mixtral-8x7b on Fireworks.ai https://app.fireworks.ai
Модель без инструктивного тюна, так что хзхз

По бенчам на уровне 65-70б инструкт моделей.

63 avg, при том что у 7b mistral ~60avg

Hf версия

Читать полностью…

Love. Death. Transformers.

Мидл: - пишет абстрактную фабрику
Сеньор: - увольняется, и устраивается на конкретную

Читать полностью…

Love. Death. Transformers.

Релизы в конце 23 с каждым разом становились все более ебанутыми

Читать полностью…

Love. Death. Transformers.

#чтивонаночь по быстрому

StableRep: Synthetic Images from Text-to-Image Models Make Strong Visual Representation Learners

Чуваки учат CLIP на синте(картинка синта) и выясняется что это хорошо работает.
А ещё придумали прикольный multipositive contrastive loss, чтобы использовать свою синту вместе с ориг данными.

paper
code он наконец выложен

Читать полностью…

Love. Death. Transformers.

все люди такие типа:


НО

вам надо знать что такое alexwortega/0rZZfJKCe9F">мамба(даже если окажется что это очень плохо) или мы будем драться.

Читать полностью…

Love. Death. Transformers.

#чтивонаночь

В прошлый раз гугл дропнул свою гемени, перепоооос, а пост мало набрал, а я долго разбирался)))


Mamba: Linear-Time Sequence Modeling with Selective State Spaces.

Последние три дня в ресерч твитере обсуждают MAMBA, нет ресерчеры не знакомятся с другими людьми и не слушают рэп вы не подумайте.

Речь про Mamba: Linear-Time Sequence Modeling with Selective State Spaces.

TLDR:

- Attn и MLP для бумеров, у нас свертки и selective copying kernels на c++
- Рекурентность это круто😎
- LM версия по бенчам сопоставима с трансформерами (сравнивали с Pythia, вплоть до 7b).

а еще авторы заслуживают отдельного места в сердчке за нормальный Training Recipes в апендиксе.

alexwortega/0rZZfJKCe9F">Подробнее как всегда в teletype

code
paper

Читать полностью…

Love. Death. Transformers.

все нормально, модели гугл по прежнему сосут, это +- уровень vicuna-gpt3.5 на lm арене

Читать полностью…

Love. Death. Transformers.

Офигеть, гугл Gemini релизнул

https://blog.google/technology/ai/google-gemini-ai/

На mmlu и mmmu лучше gpt4(не совсем)

gemeny nano будет запускаться на pixel8


For Gemini Ultra, we’re currently completing extensive trust and safety checks, including red-teaming by trusted external parties, and further refining the model using fine-tuning and reinforcement learning from human feedback (RLHF) before making it broadly available.
с RLHF все стабильно (хуево)

paper

Читать полностью…

Love. Death. Transformers.

Just saying: у lm очень печальный коридор окупаемости - по нижней границе lm слишком тупая чтобы делать что то на массовую аудиторию, по верхней границе обучение стоит как боинг, а главное инфернс настолько дорогой что дешевле в рабство согнать 20000 PhD в восточной европе.


Пока идёт хайп об этом никто не думает, но пузыри имеют свойство сдуваться.
Первые ласточки: слухи о продаже stability.ai, факт того что gemeni до сих пор не выпущен, серьезного конкурента у gpt4 нет

Читать полностью…

Love. Death. Transformers.

Привет! Мы в Тинькофф болеем созданием обалденного пользовательского опыта во всех наших продуктах, поэтому, когда ChatGPT и LLM показали себя, мы тут же стали думать, как внедрить эту технологию себе. Сейчас мы расширяем команду, которая работает над нашим продуктом tGPT: LLM, делающей продукты Тинькофф гибче, дешевле и умнее. Поэтому самое время запрыгнуть к нам на борт, если вам хочется не просто наблюдать хайп вокруг ChatGPT, а стать частью этой истории. На данный момент мы активно ищем аналитика данных!

- Какие проблемы есть у ответов нейросети и как правильно лечить их с помощью данных?
- Как правильно количественно оценить ответы модели?
- Какие знания нужно заложить в модель на этапе предобучения, чтобы она отвечала правдиво?

На эти и множество других интересных вопросов вам предстоит ответить в роли аналитика данных, плотно взаимодействуя с менеджерами продукта, инженерами и шеф-редакторами. Если у вас есть базовое знание Python, опыт работы с текстовыми данными, опыт организации разметок на Толоке и продуктовое мышление, то скидывайте своё резюме в телеграм @solemn_leader.

Читать полностью…
Subscribe to a channel