Если у вашего Trial-пользователя не точно такая же реакция по первым интеракциям с вашим приложением, пожалуйста попросите Apple удалить его из AppStore. Спасибо
Читать полностью…За последние 2 недели:
• ARPU увеличился х3
• ARPAS увеличился x2.5
• ARPPU увеличился х2
• Weekly Revenue x3
🥰🥰🥰
https://onelink.to/get-vibe
https://onelink.to/get-vibe
https://onelink.to/get-vibe
- Богдан, а что если она узнает про Vibe??? https://apps.apple.com/ru/app/vibe-ai/id6553989941
Читать полностью…мне очень не нравится desktop версия opal. она менее приятна в использовании нежели чем ios приложение + сильно нагружает оперативку
но я нашел альтернативу
raycast.com/focus
Когда у айтишников-парней две работы все такие типа вау
Но когда она...
А на самом деле ситуация оч страшная, надеюсь ее не уволят и все будет хорошо, доклады неплохие.
Кстати раз настройки такие красивые, подсвечивают фичи и выглядят дорого, добавил их тоже в скриншоты на странице (а внутри... всё с плавными анимациями, как вы любите)
https://apps.apple.com/ru/app/vibe-ai/id6553989941
Titan - альтернатива трансформерам от Google #разбор
Google тут втихую выложил интересную работу про LLM с улучшенной памятью и потенциальным контекстом более 2M. Если учитывать то, что Google в последнее время кучно выпускает модели, которые попадают в TOP-10 моего бизнес-бенчмарка, то потенциал у этой затеи очень интересный.
Если в обычном Transformer память о прошлых токенах хранится только в рамках короткого окна self-attention (и приходится хитрить со Structured Checklists, чтобы оптимизировать внимание), то в Titans вводится многокомпонентная система памяти:
(1) Краткосрочная память (ограниченное скользящее окно внимания).
(2) Долгосрочная память (онлайн-обучаемая нейронная память).
(3) Постоянная память (фиксированный набор параметров для общих знаний).
Такое построение позволяет модели "учиться" на неожиданных событиях прямо во время inference. По сравнению с трансформерами, Titans обеспечивают:
(1) Более эффективную работу с очень длинными контекстами, перекладывая «глобальное» запоминание с дорогого self-attention на лёгкий по вычислительным затратам механизм памяти (ближе к O(n) или O (n log n), нежели тупиковый O(n*n))
(2) Увеличенную способность «доставать» нужную информацию из глубокого прошлого за счёт специального, динамически обновляемого модуля.
Это теоретически дает превосходство на ряде бенчмарков, где требуется действительно долгосрочное моделирование (например, cверхдлинные «needle-in-haystack» задачи, задачи из time-series и геномики).
Получится ли у Google забить тот самый гвоздь в крышку гроба трансформеров - еще предстоит посмотреть. Но если это случится в 2025 году - это будет здорово, даже если снова придется пересматривать все архитектуры!
Прочитать статью можно тут.
Ваш, @llm_under_hood 🤗
PS: Google могли бы оптимизировать модели под использование GPU и CPU тесном тандеме, и тогда они могли бы работать только на системах вроде Google TPU или новых супер-чипов NVidia. Но именно в этой архитектуре обновления памяти специально распараллеливаются так, чтобы работать хорошо на традиционных акселераторах. Молодцы!
Пока вы учите в чем разница между merge и join в pandas, какой-то 17-летний пользователь cursor.com где-то в США пишет свой AI Data Bro
Читать полностью…30-40% топлива самолёта уходит на один только взлёт, на преодоление силы тяжести и начального сопротивления воздуха
доброй ночи
Чем мне нравится быть фаундером B2C стартапа, у тебя очень короткая петля обратной связи. Ты больше чем во многих других родах деятельности чувствуешь *власть* над миром: что-то делаешь – сразу же реальность бьёт тебя по голове кнутом, если ты не угадал, или даёт пряник если угадал. Ты контролируешь происходящее.
Чем короче петля обратной связи, тем легче подсесть на этот дофаминовый наркотик. Тем в кайф работать по 10-12-14 часов каждый день, потому что у тебя мозг постоянно генерит гипотезы, обновляет внутреннюю модель мира, получает фидбек, и так по кругу. Подкрутил тут и там, расшил какое-то узкое место – и уже через считанные часы/дни/недели ты видишь результат своих усилий в метриках и деньгах.
Конечно, не в каждом бизнесе такое есть. В инфобизе, в B2B, в крупных компаниях цикл продаж сильно длиннее, "обратная связь" от мира в виде денег разовая, соответственно итерации медленнее.
Еще короче петля обратной связи, например, в дейтинге и в написании кода (тем более с cursor.com). Вот там ты получаешь фидбек от мира буквально через секунды, из-за чего тебе еще легче вовлечься, ты быстрее учишься и т.д. И да, мне повезло, что у меня стартап как раз на стыке этих ниш.
😃😃😃
Мне кажется что как в одежде я однажды нашёл свой стиль в классике, так и в дизайне я итеративно нащупал свой стиль в "классических" минималистичных интерфейсах iOS и мобильной версии Arc Browser
Читать полностью…Переслушиваю подкаст, с которого я начал знакомство с Хормози https://www.youtube.com/watch?v=M4PzOjM5BJQ
Читать полностью…