Тут сегодня статья одна вышла: https://arxiv.org/pdf/2402.01032.pdf
Авторы берут несколько синтетических задач на копирование и пытаются показать, что замены трансформеров на SSM (типа Мамбы) плохо копируют большие куски последовательностей.
Первая группа экспериментов:
Настройки: Учим модели с нуля, с одинаковым количеством параметров, токены = алфавит + BOS, EOS и COPY. Случайно выбираем длину строки, потом на каждую позицию в строке выбираем случайный символ. Таким образом получаем случайный набор строк.
- Эксп1: Учим модель копировать строки меньше 300 символов.
Наблюдение: SSM учатся дольше трансформеров, но в итоге выучиваются идеально исполнять задачу.
- Эксп2: Учим модель копировать строки меньше 50 символов, предсказываем на строках бОльшей длины.
Наблюдение: Всё, кроме HAlibi-кодированных трансформеров, не вытягивает строки больше 200 символов. NoPE и Alibi-кодированные трансформеры вытягивают 100-150, SSM и RoPE-кодированные трансформеры - не больше 55.
- Эксп3: <данные удалены за ненадобностью: там про то, как именно копируют трансформеры>
- Эксп4: Учим модель продолжать копированием уже встретившиеся n-граммы в том же режиме, что и в эксперименте 2. То есть вход <abcdef>, запрос <cd>, выход: <ef>. И строки в обучении меньше 30 символов.
Наблюдение: SSM сильно проигрывают трансформерам. На строках больше 30 символов, конечно.
- Эксп5: Как эксперимент 4, но "запрос" подаём перед основной последовательностью, а не после. То есть запрос и вход меняются местами.
Наблюдение: SSM сильно выигрывают у трансформеров.
Вторая группа экспериментов:
Настройки: берём готовые предобученные модели, Mamba и Pythia.
- Эксп1: Промпт = 2 копии одной и той же строки, плюс первое слово третьей копии. Задача = закончить третью копию. Строки выбираются случайно из C4, большого корпуса реальных текстов
Наблюдение: Мамба справляется гораздо хуже Пифии на любых длинах
- Эксп2: Режим телефонной книги: есть набор имён и телефонов для этих имён. Подаём L имён в промпт, пару few-shot примеров, и просим телефон для случайного имени из списка.
Наблюдение: Мамба справляется гораздо хуже Пифии на любых длинах
- Эксп3: Настоящий SQuAD, 1-shot для того же текста. Ещё делаем разбивку по длине текстов.
Наблюдение: Мамба справляется гораздо хуже Пифии на длинных текстах
Мои комментарии:
- Воспроизвел кусочек первого экперимента второй группы, Мамба действительно не справляется. Добавила лишнее "клеток, связанных внутри".
- Эксперименты первой группы показывают, что обучение Мамба не обобщается по длине. Что в целом так себе открытие, трансформеры до недавних позиционных эмбеддингов тоже не обобщались.
- Эксперименты второй группы - это более серьёзный удар, но и сравнение нечестное, обучающие выборки у моделей всё-таки были разные.
Короче рано хоронить SSM.
Видео на тему: https://youtu.be/F1yYf9xdKEA?si=YzLKALHzyyXK28W0&t=52
Привет, я твой одногруппник, помогал тебе сегодня с задачей по матану. Мне кажется я люблю тебя
Читать полностью…SeGMoe - Segmind Mixture of Diffusion Experts
Чуваки смешивают чекпоинты sd1.5 по аналогии с mixture of clowns и у них очень неплохо получается.
Гит
Llama2d: 2D Positional Embeddings for Webpage Structural Understanding
Интересный эксперимент — ребята зафайнтюнили LLaMa на понимание структуры web-страниц. Создали датасет, где из скринов веб-страниц с помощью OCR выдрали видимый текст вместе с его 2D координатами и задетектили, какие элементы на странице являются кликабельными. Затем затюнили LLaMa на этих данных, дополнительно добавив 2d эмбеддинги на вход модели.
Говорят, что так модели гораздо проще понимать страницы, и это более эффективно чем кормить пиксели напрямую в модель, как это можно делает в GPT-V.
Этот новый подход может быть полезен, например, для создания агента который сам сможет бегать по страницам и понимать как с ними взаимодействовать.
Пока ещё Work in progress. Но весь код уже выложили на гитхаб. Будем следить за развитием.
@ai_newz
Про локальные языковые модели для относительно неподготовленной аудитории:
Видео: https://youtu.be/KXBRGkZTX1U?si=CyVKSUavsSnZfffR&t=241
Презентация: http://tinyurl.com/gusevlocal
Подкаст: https://mlpodcast.mave.digital/ep-55
Про древнюю генерацию стихов:
Видео: https://www.youtube.com/watch?v=wTN-qKPu4c0
Статья на Хабре: https://habr.com/ru/articles/334046/
Про Сайгу:
Видео: https://www.youtube.com/watch?v=YqKCk8_dNpQ
Презентация: http://tinyurl.com/gusevsaiga
Статья на Хабре: https://habr.com/ru/articles/759386/
Про не-трансформерные модели:
Видео: https://www.youtube.com/watch?v=C65JbhTi-O4
Презентация: https://tinyurl.com/gusevlrnn
Тут тихо выложили ft SDV xt, теперь больше кадров и должно быть больше движения.
модель лежит тут
MobileDiffusion
Очень странный крутой релиз от гугл:
- latent (скоро два года будет, в Гугле наконец перестали обучать каскады)
- unet с трансформер блоками и последовательными свертками вместо обычных блоков
- swish вместо glu
- всего 150м датасет
- 512 разрешение картинки
- ufogen single step generation, лень читать, мб завтра
- fine-tune soft max into relu 🤩
Папир
Неожиданно релизнулась llava1.6, теперь картинки до 1344*336, 30В+ модели и перфоманс близкий к gpt4v.
blogpost
Демка llava.hliu.cc
Dear colleagues, we are happy to announce AINL 2024! It will be held at Almaty, Kazakhstan, April 24-25, 2024. Please find first call for papers attached!
Читать полностью…Mistral AI подтвердил, что это их модель утекла:
https://venturebeat.com/ai/mistral-ceo-confirms-leak-of-new-open-source-ai-model-nearing-gpt-4-performance/
Чат, дискас. С одной стороны я считаю что взлом системы это хорошо, с другой стороны это нарушение правил и тиндера и ToU
Читать полностью…Nomic Embed, когда ты лучше Ada2, но это не точно всех.
Как говорили мои коллеги: почти любой топ-эмбеддер из паблика лучше, чем Ada2 на MTEB.
В общем вышли новые эмбеды, под заголовком "мы круче Ada2". Но хитрые авторы опустили тот факт, что хуже чем топ bge и e5 моделей.
Есть ли что-то интересное?
Для меня только датасет, как говорится оно про 90% успеха.
Лосс не удивил, типичный softmax contrastive, даже не siglip.
Репорт тут. Читал орал, почти везде стараются сравниться с mosaic-bert (который не про sentence representation) и тп, а также с text-davinci, те с ada семейством. Где есть е5 аккуратно не выделяют их преимущество, а жирно только эмбеддера авторов статьи.
Таблицы ниже приложу.
Мы быстро, конечно, в SciFi попали:
За $159.99 теперь каждый может купить готовый набор для нейронного подключения живого таракана к чипу, чтобы, ну, побегать им с телефона
¯\_(ツ)_/¯
Покупать тут:
https://backyardbrains.com/products/roboroach
Лучшие вайфу модели - со смешанной генетикой. Что такое models merging?
Интересно к слову что будет с запретными темами и цензурой при мерже.
alexwortega/r6zha1uPaAS">teletype
Компиляция нескольких постов про то, что читать про ML/NLP/LLM:
Обучающие материалы 🗒
- https://habr.com/ru/articles/774844/
- https://lena-voita.github.io/nlp_course.html
- https://web.stanford.edu/~jurafsky/slp3/ed3book.pdf
- https://www.youtube.com/watch?v=rmVRLeJRkl4&list=PLoROMvodv4rMFqRtEuo6SGjY4XbRIVRd4
- https://huggingface.co/docs/transformers/perf_train_gpu_one
Блоги 🍿
- https://huggingface.co/blog/
- https://blog.eleuther.ai/
- https://lilianweng.github.io/
- https://oobabooga.github.io/blog/
- https://kipp.ly/
- https://mlu-explain.github.io/
- https://yaofu.notion.site/Yao-Fu-s-Blog-b536c3d6912149a395931f1e871370db
Прикладные курсы 👴
- https://github.com/yandexdataschool/nlp_course
- https://github.com/DanAnastasyev/DeepNLP-Course
(Я давно не проходил вообще никакие курсы, если есть что-то новое и хорошее - пишите!)
Каналы 🚫
- /channel/gonzo_ML
- /channel/izolenta_mebiusa
- /channel/tech_priestess
- /channel/rybolos_channel
- /channel/j_links
- /channel/lovedeathtransformers
- /channel/seeallochnaya
- /channel/doomgrad
- /channel/nadlskom
- /channel/dlinnlp
(Забыл добавить вас? Напишите в личку, список составлялся по тем каналам, что я сам читаю)
Чаты 😁
- /channel/betterdatacommunity
- /channel/natural_language_processing
- /channel/LLM_RNN_RWKV
- /channel/ldt_chat
Основные статьи 😘
- Word2Vec: Mikolov et al., Efficient Estimation of Word Representations in Vector Space https://arxiv.org/pdf/1301.3781.pdf
- FastText: Bojanowski et al., Enriching Word Vectors with Subword Information https://arxiv.org/pdf/1607.04606.pdf
- Attention: Bahdanau et al., Neural Machine Translation by Jointly Learning to Align and Translate https://arxiv.org/abs/1409.0473
- Transformers: Vaswani et al., Attention Is All You Need https://arxiv.org/abs/1706.03762
- BERT: Devlin et al., BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding https://arxiv.org/abs/1810.0480
- GPT-2, Radford et al., Language Models are Unsupervised Multitask Learners https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
- GPT-3, Brown et al, Language Models are Few-Shot Learners https://arxiv.org/abs/2005.14165
- LaBSE, Feng et al., Language-agnostic BERT Sentence Embedding https://arxiv.org/abs/2007.01852
- CLIP, Radford et al., Learning Transferable Visual Models From Natural Language Supervision https://arxiv.org/abs/2103.00020
- RoPE, Su et al., RoFormer: Enhanced Transformer with Rotary Position Embedding https://arxiv.org/abs/2104.09864
- LoRA, Hu et al., LoRA: Low-Rank Adaptation of Large Language Models https://arxiv.org/abs/2106.09685
- InstructGPT, Ouyang et al., Training language models to follow instructions with human feedback https://arxiv.org/abs/2203.02155
- Scaling laws, Hoffmann et al., Training Compute-Optimal Large Language Models https://arxiv.org/abs/2203.15556
- FlashAttention, Dao et al., FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness https://arxiv.org/abs/2205.14135
- NLLB, NLLB team, No Language Left Behind: Scaling Human-Centered Machine Translation https://arxiv.org/abs/2207.04672
- Q8, Dettmers et al., LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale https://arxiv.org/abs/2208.07339
- Self-instruct, Wang et al., Self-Instruct: Aligning Language Models with Self-Generated Instructions https://arxiv.org/abs/2212.10560
- Alpaca, Taori et al., Alpaca: A Strong, Replicable Instruction-Following Model https://crfm.stanford.edu/2023/03/13/alpaca.html
- LLaMA, Touvron, et al., LLaMA: Open and Efficient Foundation Language Models https://arxiv.org/abs/2302.13971
THE A.I.//И.И.
A little up-to-date agenda wouldn't hurt. All coincidences with historical characters are, as usual, accidental. The 7 deadly sins are also included///Немного актуальной повестки не помешает пожалуй. Все совпадения с историческими персонажами, как обычно, случайны. 7 смертных грехов также прилагаются
https://ium.mccme.ru/s24/s24.html
на следующей неделе начинается весенний семестр в НМУ; подробности — по ссылке
в т.ч. для 1 курса читают топологию — К.В.Логинов, алгебру — А.И.Ильин, анализ — И.В.Вьюгин
для 2 курса теорию вероятностей — С.В.Шапошников, топологию — А.Д.Рябичев и Ф.Е.Вылегжанин, дифф. геометрию — Г.И.Шарыгин
Обнаружена серьезная проблема в VAE StableDiffusion 1.x, 2.x и других, использовавших его латентное пространство.
Суть такова: в идеале, латентное представление должно быть пространственно связано с кодируемой картинкой. То есть пиксели в углу картинки влияют только на тот же угловой кусок латентного вектора.
Но из-за ошибки при обучении KL-F8 VAE, информация обо всей картинке протекает через некоторые локальные пиксели.
То есть если вы измените пару латентных "пикселей" в том самом неудачном месте, вся картинка изменится - например, станет ярче или менее контрастнее. (рис.1) При этом если вы захотите привести картинку по яркости и контрасту к исходной, получите те самые артефакты VAE с "прожогами".
Поэтому уже сама диффузионная модель при обучении в латентном пространстве бракованного VAE учится обходить эту проблему, что приводит этим самым прожогам, и, вероятно, к менее эффективному использованию параметров.
SDXL этой проблеме не подвержен, так как там VAE учили уже нормально, а вот DALLE3, опенсорснутый VAE которого совместим с SD 1.x, страдает теми же прожогами.
Так что если будете учить свою foundation model, учите с нуля вместе с VAE, либо берите SDXL :D
подробнее
@derplearning
Действительно призошла утечка, я в ахуе, гпт4 level waifus goes brr.
А кто то знает способы конвертации ггуф в fp16? Мне для друга.
деквант версия
cайт
Принес вам кринжатины:
Чувак в твиттере подумал, что дейтинг это сложно, и поэтому лучше ChatGPT за меня пообщается на всем этом рынке мяса, и он буквально, цинично и по айтишному прагматично, описывает как из 5239 свайпов получил 1 девушку, которая строит с ним отношения и которой он сделал предложение.
В треде есть логические несоответствия — мотивация сделать бота для дейтинга, у автора, это «чтобы было время заняться чем-то еще», но при этом времени этот проект занял явно намного больше чем обычный человеческий способ знакомств.
В итоге, девушка встречается с ChatGPT оболочкой в виде кожаного мешка, и я бы ей конечно посоветовал хорошо подумать стоит ли выходить за него (да и в целом одного года отношений мало чтобы жениться, но это уже другая тема):
https://twitter.com/biblikz/status/1752335415812501757
Забрутфорсить до отношений тиндер это не тактика, а говно какое-то, потому что за каждой анкетой живой человек время которого тратится на эксперимент автора о котором он конечно же не рассказывал девушкам.
Если дейтинг дается сложно, то возможно стоит использовать самые передовые технологии чтобы понять как быть, изменить что-то в себе, а не устраивать прагматичный мясо-лайк.
Осуждаю провдинутый кэтфишинг, мог бы и свои фотки в Midjorney сделать, а чо нет.
Из-за таких вот «экспериментаторов» нас будет ждать регуляция AI на каждому углу как только это все начнет обретать популярность.