lovedeathtransformers | Unsorted

Telegram-канал lovedeathtransformers - Love. Death. Transformers.

4253

❤️☠️🤗 идейная миграция небытия

Subscribe to a channel

Love. Death. Transformers.

ПЕРВЫЙ МУЛЬТИМОДАЛЬНЫЙ ДАТАСЕТ ЗАДАЧ ПО ФИЗИКЕ?

Контрибьютеры в вихре варят очень сложные датасеты - рецепт простой: краулим 10 гб html-pdf_ок, прогоняем через кучу ocr, latex конверторов, парсим текстовый слой и картинки. Потом обмазываем все это регулярками для вязкости и получаем вероятно один из самых сложных для LLM датасетов - physics_big.

Почему он сложный? Потому что это мультимодальная физика с олимпиад. В отилчие от геометрии или алгебры для физики все сильно хуже с солверами, авто решаторами и индукцией ее тоже не решишь


Заливать в test в train можно здесь hf


Над релизом работали:
@suro4ekgg - вообще все почти слелал
@mlunderground
@lovedeathtransformers

Читать полностью…

Love. Death. Transformers.

https://github.com/black-forest-labs/flux

Новая t2i в опенсурсе вежливо намекает что MJ V6.1 not good enough

Читать полностью…

Love. Death. Transformers.

x версия ldt

Читать полностью…

Love. Death. Transformers.

🏆 LLaMa 3.1 — 405B модель от Меты заняла 3е на арене

Это невероятный успех для опенсорса!

1 место — GPT-4o & GPT-4o-mini
2 место — Claude 3.5 Sonnet
3 место — Gemini-Advanced & LLaMa 3.1

Читать полностью…

Love. Death. Transformers.

я не знаю что меня больше радует - скуфы отрицающие ризонинг у ллм или скуфы которые топят за agi за три года.

Читать полностью…

Love. Death. Transformers.

бтв китайцы обещали до 30км/ч разогнать его, так что буквально не убежишь))

Читать полностью…

Love. Death. Transformers.

чуваки, русская арена llmarena.ru/, ну.... проблемная, см интервалы

Читать полностью…

Love. Death. Transformers.

Пока кто то плодит нищету, миллиардер, амбасадор олимпиадников и просто скамер гоев плодит лысых и низких людей.

Читать полностью…

Love. Death. Transformers.

Аннушка уже подготовила датасет

Аннушка уже влила в мастер

Аннушка уже поставила трен

Аннушка уже собрала докер

Читать полностью…

Love. Death. Transformers.

not using ruGPT3.5

not sota


* последовательность постов в другую сторону если что

Читать полностью…

Love. Death. Transformers.

По запросу коллег)

Читать полностью…

Love. Death. Transformers.

https://www.popsci.com/science/butt-science/

Ладно.

Читать полностью…

Love. Death. Transformers.

Никто
Абсолютно никто
Chinese chinchilla <1


"Шиншила коэффициент" это коэффициент минимального лосса к минимальному числу токенов к размеру модели. В норме это 1/20 те на 1В параметр модели нужно 20В токенов

Читать полностью…

Love. Death. Transformers.

Украдено в @prlshrlinlove

Читать полностью…

Love. Death. Transformers.

Никогда не спрашивайте тигрят кто им платит и за что.

Читать полностью…

Love. Death. Transformers.

Когда просто используешь чужой API

Читать полностью…

Love. Death. Transformers.

Deep Learning: Foundations and Concepts (Bishop & Bishop, 2023)

По неизвестным причинам не распространенная в русскоязычной среде(по меньшей мере я не нашел большого числа упоминаний) книжка по dl, все от линрега до диффузий в одном толмуте. Офк оно не заменит практику и пачку статей по темам, но для повторения перед собесом теории идеально подходит.

для всего мира
pdfка купить
а вот где спиратить я не нашел

Читать полностью…

Love. Death. Transformers.

Сегодня выпустили версию на 2.6 миллиарда параметров

https://huggingface.co/collections/google/gemma-2-2b-release-66a20f3796a2ff2a7c76f98f

1126 на арене - чуть выше GPT-3.5

Также обновили статью – можно гордиться, что я – один из ~25 core contributors. 😛

Читать полностью…

Love. Death. Transformers.

Scaling Exponents Across Parameterizations and Optimizers

Собственно классика работ про параметры, lr и опитимайзеры - нужно прожечь кучу денег(около 10м usd в данном случае) и перебрать пространство гиперпараметров.

Почему это важно? Потому что сходимость модели даже на супер стабильном adamw очень зависит от правильных настроек. Ну и когда вы обучили модель размера 2B на хорошем датамиксе с хорошим LR то хочется получить хотя бы линейны рост качества при скейлелинге до 10B

paper

Читать полностью…

Love. Death. Transformers.

я считаю chunk_length_s у вас уже 10 лет, а там то 1, то 2 то null

вы у себя на фабрике ебанулись что ли?

Читать полностью…

Love. Death. Transformers.

Человечество:
1) делаем автономных роботов от которых не убежать
2) …
3) Профит

Читать полностью…

Love. Death. Transformers.

Ты дрочишь? Сколько ты дрочишь? Брось, это не серьезно, это какой-то жалкий детский уровень. Я вот лично дрочу не меньше чем дважды в день. Сначала утром, сразу после ледянной ванны, а потом сразу после обеда. Вот так, понимаешь? Я это делаю, не потому что нравится, а потому что мне это надо. Ты только подумай: в голове одни цифры, с утра до ночи: 100 детей.

Читать полностью…

Love. Death. Transformers.

Друзья!
Мне очень нужно в ближайшее время завершить перевод NLLB-seed с английского на русский в @crowd_translate_bot.
Как вы думаете, как можно сподвигнуть достаточно много людей потратить по полчаса своего времени во имя науки?

Читать полностью…

Love. Death. Transformers.

🔺 RuBLiMP

Коллеги сделали очень любопытный тест для языковых моделей. Сам тест простой — модель должна определить правильное предложение, выбрав одно из двух.

В каждой паре изменен только один параметр (морфологический, синтаксический или семантический), поэтому такие пары называются минимальными.

Завтра Олег починит модель и она начнет работать.

Завтра Олег починил модель и она начнет работать.


Все такие признаки (феномены) поделили на 45 классов и для каждого разметили по 1000 примеров. Таким образом, можно провести подробную диагностику моделей по всем этим признакам на русском языке.

👉 HF | GitHub | Статья

Читать полностью…

Love. Death. Transformers.

Не знаю, неиронично хочется затехать другую методичку, где все начинается с категорий и заканчивается леммой Йонеде. И по приколу расфорсить, что это настоящая методичка для абитуриентов матфака

Читать полностью…

Love. Death. Transformers.

https://arxiv.org/abs/2407.18134 - задротская модификация контрастива с графами

https://arxiv.org/abs/2303.03846 - любопытная работа про ICL

https://arxiv.org/abs/2406.13046v2 - меняем ранк лоры на лету

https://arxiv.org/abs/2310.04400 - взрывы эмбедов на скейле рексиса

https://arxiv.org/abs/2401.09865 - лосс на патчи у контрастива

https://arxiv.org/abs/2403.19651 - инструктивный clip, оч годно

почитайте, мне понравились

Читать полностью…

Love. Death. Transformers.

Рассказываем о нашей работе принятой на ICML 2024. В деталях.

🌻Контекст🌻

In-Context RL позволяет обучать агентов способных на адаптацию к новым задачам прямо во время инференеса, то есть zero-shot. При этом не происходит обновлений весов модели или обучения Q-функции; вся адаптация вшита при обучении в механизм внимания.

Не сказка ли? Может быть, если бы не одно но: процесс сбора данных. В AD предлагается поступить так: возьмём n задач в среде и для каждой из них обучим своего RL-ного агента. Во время обучения будем сохранять их полную историю обучения, то есть все состояния, действия и награды. Таким образом мы соберём n историй обучения, в начале которых агент не умеет ничего, а в конце уже успешно решает задачу. На них и будем обучать трансформер предсказывать следующее действие.

Но что это за число n? Какого оно порядка? Оказывается, для успешного обучения на весьма простой задаче нужно обучить около тысячи (sic!) RL агентов. Понятно, что такой подход недёшев в плане вычислений и времени.

🌻Что предлагаем мы?🌻

Чтобы облегчить сбор данных и тем самым приблизить in-context RL к применению в реальных задачах, мы предложили способ генерации историй с помощью шума.

Часто так бывает, что мы не можем решить задачу с нуля RL-ем, но имеем некоторый набор почти оптимальных демонстраций. Мы можем обучить на этом обычный Behavior Cloning, но он не будет обладать способностями к in-context, т.к. данные не содержали истории обучения. Как же теперь получить историю обучения, когда мы имеем только конечную политику эксперта?

Идея простая: давайте просто начнём постепенно добавлять больше и больше шума, то есть с вероятностью ε будем делать действие по политике, а с вероятностью 1 - ε делаем случайное действие. При этом с каждым шагом мы увеличиваем ε вплоть до единицы. Получается, что когда ε = 1 агент не умеет ничего, а при ε = 0 успешно решает задачу. Вот мы и восстановили историю (на самом деле, получили прокси историю) обучения.

🌻И это работает?🌻

Да.

Для тестирования мы использовали классические в in-context RL среды: Dark Room (grid-MDP), Dark Key-to-Door (grid-POMPD), Watermaze (3D-MDP). Обученный на наших данных агент приобретает способности in-context адаптации к новым задачам. Что удивительно, вы можете использовать для генерации демонстрации далекие от оптимальных. Например, наш агент в некоторых случаях смог превзойти лучший результат в данных более чем в два раза.

кодстатьяпостер (4k)ilya's talk

- - —
@dunnolab

Читать полностью…

Love. Death. Transformers.

Как меня кинули на 100к в работе с Exeed

История классическая, как роман Ф.М. Достоевского «Идиот». Краткое содержание: НИКОГДА, ни с кем не работайте без подписанного договора и предоплаты. Не надо этого делать. Даже если люди приятные, кажутся адекватными и не похожи на мошенников, не делайте этого!
А теперь к сути.
Мой клиент: продакшен студия ООО «Флэш»: https://www.rusprofile.ru/id/1247700175436 Позиционирует себя как серьезный продакшен. Настолько серьезный, что их сайта не существует https://flash.ooo/ Ну штош, может доделают его за счет тех денег, на которые меня шваркнули.(продолжение в вложениях)

@annak_ooo-Анна

Читать полностью…

Love. Death. Transformers.

AGI achieved tigernally

Читать полностью…

Love. Death. Transformers.

забейте, symbolic solvers are agi enough(спасибо что не сравнили калькулятор с человеком), не читайте высеры дипмайнда, читайте супер базированные китайские работы где люди с очень большими яйцами показывают как надо.


серьезно, почитайте вечером, отличная китайская работа


:soyjack face

Читать полностью…
Subscribe to a channel