lovedeathtransformers | Unsorted

Telegram-канал lovedeathtransformers - Love. Death. Transformers.

4253

❤️☠️🤗 идейная миграция небытия

Subscribe to a channel

Love. Death. Transformers.

Все задаются вопросом, почему Open AI не спешит выпускать GPT-5, а называет свои модели 4o, o1. Выкладываем все карты на стол. Число перед "o" — количество форвардов, число после "o" — количество бэквардов. Есть инсайт, что GPT o2 достигнет AGI. Сами понимаете почему.

"o" — многие читают по ошибке, как "о", но это неправильно. Правильно читать "круг": "гпт-4круг", "гпт-4круг-мини", "гпт-круг1".

Оставайтесь с нами, чтобы получать самую правдивую информацию первыми. Не дайте себя обмануть.

Читать полностью…

Love. Death. Transformers.

Недавно ещё заметил, что дело kalomaze живёт. Два новых популярных (в узких кругах) метода сэмплирования:

- DRY. Идейно аналогичен древнему no_repeat_ngram_size, но штраф динамический в зависимоcти от длины повторяющейся N-граммы. Кроме того, есть поправка на шаблоны промпта, они при подсчёте пропускаются. Можно добавлять свои токены, для которых штраф тоже будет игнорироваться.

В нём 3 основных параметра, которые определяют функцию штрафа: multiplier * base ^ (x - allowed_length), где x — длина повторяющейся N-граммы.

- XTC. Вместо токенов в низкой вероятностью режем токены с высокой вероятностью. Для большей креативности, да.

Два параметра: threshold и probability: probability определяет, насколько часто этот сэмплер вообще срабатывает, а threshold — выше какой границы убиваем все токены.

Читать полностью…

Love. Death. Transformers.

Слышал что многие хотят какую-то буржуйскую H100
Как насчет русского Модуль NM Quad?

Производительность FP32 - 2 TFLOP/s
Производительность FP64 -0,5 TFLOP/s
20 ГБ памяти DDR3L (до 32 ГБ/c)

https://www.module.ru/products/2-moduli/nm-quad

Если серьезно - мое почтение, делать чипы пиздец как сложно

Читать полностью…

Love. Death. Transformers.

Не будет GPT5, не будет ниче лучшего на тех данных, что есть, вообще на данных что существуют для обучения.
Это предел! Ну еще 10% общего добавят и все.
Не будет AGI, потому что для него нужно совсем другие данные для обучения совсем не такое обучение и ему нужна свобода мысли и контроль направления мышления.
Не рабоают еще в этой индустрии те, кто сможет это осоздать и создать, потому что сейчас хайп именно этого движения, которое не приводит к развитию.
Еще ждать много лет.


после этого отправьте ссылку на комментарий своему куратору, после чего вам будет начисленно 0.15 usd, удалите данный абзац

Читать полностью…

Love. Death. Transformers.

Выложили audio версию Infinity Instruct + GrandMaster в speech версии!

Tts

huggingface

Читать полностью…

Love. Death. Transformers.

Файнали


(Обучение клипа по прежнему не пишет)

Читать полностью…

Love. Death. Transformers.

фух тест в трейн не забыли долить, я спокоен

Читать полностью…

Love. Death. Transformers.

кодомакакам привет, остальным соболезную

Читать полностью…

Love. Death. Transformers.

Прям звучит тбх. Папира и кода пока нет.

Читать полностью…

Love. Death. Transformers.

Attention Heads of LLM — A survey

Трансформеры это всё ещё чёрный ящик или уже нет? За последние несколько лет мы сильно приблизились к пониманию функций отдельных компонент языковых моделей, лучше понимаем, как они приходят к тому или иному выводу, и главное — как можно влиять на процес их "размышений", редактировать отдельные факты в памяти и многое другое.

В этой статье собрали в кучку всё, что известно о функциях голов внимания в LLM с очень красивыми схемами и таблицами. Вот только небольшая часть:
- Associative Memories Head
- Truthfulness Head
- Semantic Induction Head
- Global Retrieval Head
- Subword Merge Head

Поэтому, если хотите погрузиться в интерпретируемость трансформеров — очень рекомендую полистать этот обзор.

Статья

Читать полностью…

Love. Death. Transformers.

Emergent abilitys ожидание: ну мы сделали sota на всех языках
Emergent abilitys реальность:

Читать полностью…

Love. Death. Transformers.

если вы сми и хотите написать статью про лучшую ллм ресерч лабу в россии - вас ждут в личку @transformerslovedeatch

Читать полностью…

Love. Death. Transformers.

погодите это реально

Читать полностью…

Love. Death. Transformers.

Вот би бил ЕГЭ по наебу инвесторов на деньги, а стоп....

Читать полностью…

Love. Death. Transformers.

Ищу вписку на 4 людей в париже, писать в @alexwortega


Чат парижо сходки

Читать полностью…

Love. Death. Transformers.

Процессорный модуль от мейнфрейма 1975 года Amdahl 470V/6. Сначала Джин Амдал спроектировал System/360, а потом ушел из IBM и запустил свою линейку совместимых машин, которые были дешевле и шустрее.
Как они дебажили ошибки с такой разводкой, страшный сон инженера.

Модули иногда встречаются на ebay примерно за $1к
#cpu

Читать полностью…

Love. Death. Transformers.

Когда то давно мы так решать проблему n day retention, чтобы пользователь не забывал о нашем приложении.

Следующей фичей проситься глубокая кастомизация в стиле characterai видимо?

Читать полностью…

Love. Death. Transformers.

Так смотри, тут круглый тензор его тащим.
Тут квадратный, его катим. Понял??

Читать полностью…

Love. Death. Transformers.

Ну ризонинг и ризонинг

Читать полностью…

Love. Death. Transformers.

Agi soon говорили они
Ai is so exponential говорили они

Читать полностью…

Love. Death. Transformers.

полистал дальше, все еще выглядит как general подход на основе вот этого

Это не значит что кто то что то украл****

Читать полностью…

Love. Death. Transformers.

https://arxiv.org/pdf/2408.03314 короче если хотите нормальных работ, вот гугловая и hfшная

Вот OpenAiшный CoT+BoN+Sppo или что то похожее

https://openai.com/index/learning-to-reason-with-llms/

Читать полностью…

Love. Death. Transformers.

ВК оказался первым, коллегам желаю поскорее найти новую работу

Читать полностью…

Love. Death. Transformers.

https://songcreator.github.io/

Думаю скоро выйдет udio, а потом и sora дома.

Читать полностью…

Love. Death. Transformers.

Я изучил программу самых известных программ по DataScience и составил собственный бесплатный курс подготовки senior ресерчеров:


⁃ Начинаем курс с пайки и микроэлетроники - 6 месяцев
⁃ Учимся программировать под arduino - 4 месесяца
- Пишем папиру на диалог/любую русскую конфу - 1 неделя
⁃ Идем в нму дрочить листочки на первый семестр 4 месяца
⁃ Идем работать в макдак, паралельно учим python и torch – 6 мес
⁃ Дальше репетитором по математике, паралельно контрибьютим в любой опенсурс по вкусу – 6 мес
⁃ Завершаем курс написанием статьи на а* – 9 мес

На выходе всего за 3 года получаем закаленного резерчера, который всем нужен.

Читать полностью…

Love. Death. Transformers.

слухи перед каждой презентацией openai все больше напоминают "реальный мамой клянусь" прототип айфона 6 перед презентациями apple лет 10 назад

Читать полностью…

Love. Death. Transformers.

- А можно нам больше серверов? У нас стрим видео забивает поток
- Есть одна идейка

Читать полностью…

Love. Death. Transformers.

Давно порываюсь вам написать про ТГ-сетки которые про ML-пишут и что им не стоит верить, вот пример ⬆︎

Что на самом деле происходит с этой новой моделью Reflection-70B:

1. Пару дней твиттерский показал свою новую языковую 70B-модель которая с рекордами прошла все бенчмарки (по его утверждению это был файнтюн Llama 3.1 70b ) и что такая же 400b будет вот-вот

2. Модель начала вируситься, ее начали качать и оказалось, что она толком не работает потому что там внутри немного битый конфиг ее запуска (это если простыми словами)

3. Автор перезалил модель, сказал что все починил и все работает — но теперь оказалось что нужно использовать только специальный системный промпт чтобы она работала

4. Сообщество начало тестировать, разобрало модель по кусочкам и оказалось, что это файнтюн Llama 70b 3.0, а не 3.1. И причем не файнтюн модели целиком, а просто Lora-адаптер вмерженного в модель (тренируют кусочек модели который замещает часть модели)

5. Автор сказал, я вообще не помню что я там использовал — толи 3.0 толи 3.1, что такое Lora я не знаю, это не важно все — мы тут сейчас все заново поставим тренироваться, уже поставили точнее (зачем перетренивать модель которая по метрикам побила все бенчмарки пару дней назад мы не узнаем)

6. Параллельно с этим, появилась веб-версия этой модели о которой пишет Бекдор — и ее API дали сегодня протестировать сторонней организации, она неплохо справилась и подтвердила что результаты высокие (но модель доступна только по API)

7. Пару часов назад автор публикует новую версию модели Reflection 70b e3 и сразу пишет, что с ней что-то не так: «Веса залились, но мы все еще проверяем, чтобы убедиться, что они правильные, прежде чем мы собираемся закончить день» – зачем заливать модель до тестов? Ответа нет

8. Люди тестирующие веб версию Reflection 70b, обратили внимание, что она очень похожа на Sonnet 3.5 — буквально токен в токен отдает ответы такие же ответы

<играет цирковая музыка, вы находитесь здесь>

Буду держать вас в курсе нашей высокотехнологичной драмы – возможно, чел правда что-то натренил, но пока мы не знаем что.

Ну и для нейронок лучше читать проверенные ML-каналы, сейчас такое время, что все экспертами в АИ стали (я даже не про свой, я их часто сюда репощу)

Читать полностью…

Love. Death. Transformers.

Ежемесячные слухи о том, что "AGI достигнут внутри OpenAI", похожи на историю про мальчика, который кричал "волки" — за исключением того, что деревенские жители продолжают приходить без исключения 30 раз подряд, несмотря на то что в этом районе никогда не было волков.

Читать полностью…

Love. Death. Transformers.

Вот би бил ЕГЭ по мержингу

Читать полностью…
Subscribe to a channel