Между 2009 и 2012 годами, в ранней iOS, прямо в фото-галерее, была отдельная кнопка для загрузки видео на ютуб, которая так и называлась "Send to YouTube”, а само видео загружалось в публичный доступ для всего интернета (прайваси в 2009 имадженировали 🤡)
Сами файлы, которые снимали пользователи на свои телефоны назвались IMG_XXXX
, где X это порядковый номер в стиле IMG_0001
, IMG_0002
и тп.
В общем, фича загрузки на ютуб, конечно работала хорошо, поэтому у нас, как у пользователей интернета, теперь есть публичный архив личных видео с 0-30 просмотрами на совершенно разные темы – просто вбиваете IMG_
и случайный номер
Копаться в этом оказалось на удивление залипательным – например, нашел видео с 0 просмотров где американец комментирует как река вышла из берегов – получается, я первый кто посмотрел это видео вообще кроме автора?
https://youtu.be/Lsqmf7ZIX-Q?si=Mm1nmkc3cUmiGDF2
И там много личных каких-то сцен, историй, диалогов – если любите смотреть в прошлое и на жизни незнакомых людей, вы знаете что делать
Suno тизерит свою новую версию модели для генерации музыки V4 – наконец-то пропали эти металлические артефакты на фоне
Ждем
Поигрался тут с новой моделью генерации картинок Flux Pro 1.1 Ultra Raw, количество деталей – мое почтение
16 картинок стоят $1
Если будете с ней играться, то имейте ввиду что ей нужны простыни текста в виде промптов – я свои с o1-mini делал
Скоро подключим в нейролав со своим промптингом
Юпитерофобы тут? NASA новый контент подвезла
Напомню, там НЕТ ПОВЕРХНОСТИ
У нас тут в 13 месяцах полета огромный газовый гигант рядом, у которого НЕТ ПОВЕРХНОСТИ
Е
Т
П
О
В
Е
Р
Х
Н
О
С
Т
И
И все ходят такие по улицам, ну норм, подумаешь, 9% камня и металла есть же, чего паниковать то, мне картохи домой купить надо
И к по-настоящему важным вещам:
Я чуть обновил тот пример гравитационной линзы от o1 - увеличил fps, внизу можно прочитать что это за эффект и добавил галочку для включения цвета у звезд, чтобы посмотреть как свет искажается вокруг черной дыры (в упрощенном 2D виде)
https://shir-man.com/grav_lens/
Я думаю, нам всем стоит выделить минуту и посмотреть на симуляцию прото-банана пролетающего над землей
Распространите
Вот так выглядит продукт победитель на рынке – в новой бете iOS покупка ChatGPT+ доступная прямо из настроек iOS 🌚
Читать полностью…В тиктоке phoxy_ai/video/7433178295321038112?_t=8r6O277hc7e&_r=1">начали спидранить GenAI майнкрафт – кто быстрее доберется до «Нижнего мира» и тп <~ вы здесь
Читать полностью…Я большой фанат маленьких языковых моделек – они быстрые, работают на любом тостере и часто генерирует совершенно отбитые вещи которые меня смешат
Недавно обновилось семейство таких моделей «SmolLM2-1.7B-Instruct» – в версии 1.7B добились хороших результатов и она по тестам лучше конкурентов в разных LLM-задачах; еще это первая маленькая модель которая смогла мне внятно сделать суммаризацию текста, хоть и небольшого (модель обучена только для работы с английским языком)
Мне давно было интересно потрогать концепцию веб-страницы, которая:
- Скачает модель во вкладку браузера (один раз)
- Позволит с ней чатиться
- При этом, будет существовать без сервера – все общение будет строго у вас на компьютере – без регистрации, СМС и кук (просто вместо приложения – вкладка)
В выходные я смог перекомпилировать эту модельку в нужный формат и собрал страницу где вы можете побаловаться с ней, если ваш браузер поддерживает WebGPU:
➡️ https://shir-man.com/we-have-llm-at-home/
Если нет, то не сможете пообщаться, получается – iOS вот не поддерживает пока что
Мне кажется это клевой демонстрацией куда все может в теории двигаться - модель на клиенте под нужные задачи, с гарантией приватности данных пользователя (так как они не покидают браузер)
P.S. Для ценителей, важные слова – WebGPU, WASM, mlc_llm
В блоге JetBrains вчера вышло прощание с создателем Флибусты – Стивером, но с малоизвестной стороны: в очень техническом посте подробно расписано как много Стивер сделал для языка программирования Java, если коротко – он был автором популярного инструмента для программистов на языке Java и сильно облегчил жизнь программистам, и я честно этого не знал
JetBrains теперь организует мемориал в память Стиверу, продолжит развитие этого инструмента (декомпилятора Fernflower) с открытой лицензией, и рассматривает гранты и стипендии людям в смежных сферах
JetBrains – молодцы
И еще про поезда любителям темы: вчера посмотрел детальный 3D-разбор позднего паровоза «Union Pacific “Big Boy”» – таких всего построили 25 штук, они одни из самых больших и мощных:
~ 40 метров длина
~ 1000 тонн веса
~ 130 км/ч максимальная скорость
В видео разобран каждый механизм локомотива – уровень технологий не хуже чем в ракетостроении, и все для обработки пара, очень рекомендую:
https://youtu.be/Hszu80NJ438?si=pq6tGJRiFtoTI9Pp
P.S. Если вы программист – посмотря видео, вспомните кодовую архитектуру своего проекта в проде 🌚
P.P.S. Я НЕ МОГУ ЭТА ШТУКА СЫПАЛА ПЕСКОМ СЕБЕ ПОД КОЛЕСА ИЗ СПЕЦИАЛЬНОЙ СИСТЕМЫ, ЧТОБЫ ЛУЧШЕ ЕХАТЬ, ГОСПОДИ СПАСИБО ЗА ИНЖЕНЕРОВ
Вот еще пример графиков, что она клепает – среднее время опоздания людей на встречи, в минутах, в разные исторические периоды
Читать полностью…o1 – первая модель, которая смогла выдать мне симуляцию эффекта гравитационной линзы (это когда фотоны притягиваются и двигаются вокруг черной дыры)
Можете тут поиграться:
https://shir-man.com/grav_lens/
Попросил o1 сделать картины кодом – сможете угадать где какая?
1. Мона Лиза
2. Звездная ночь
3. Девушка с жемчужной сережкой
4. Вы не поверите – Фреска сотворения Адама Микеланджело, это типа руками тянутся друг к другу, не то что вы подумали
Полезная новость для программистов:
Если вы куда-то поедете, и вам нужна хорошая LLM-моделька которая бы работала оффлайн, пару дней назад Qwen Coder случайно обновили (это модели от китайского гиганта Алибаба) и в сеть утекла классная новая 7B моделька:
По тестам новый Qwen2.5.1 Coder 7B теперь всего на пару процентов ниже, чем старенькая gpt-4-1106-preview
— для модели такого размера, это невероятно клевые результаты; GGUF файлы качаем тут, в месте, где утечка случилась — уже все откатили обратно.
Вторая полезная новость, это то что у llama.cpp появился нормальный веб-сервер, которым даже можно пользоваться.
Инструкция как устанавливать на Mac M-процессоры (на Windows я только играю, сорри):
1) Открываем терминал, и делаем `git clone https://github.com/ggerganov/llama.cpp.git
`в нужную папку;
2) Заходим в папку и делаем `LLAMA_METAL=1 make -j
`
3) Ждем
4) Запускаем веб сервер этой командой `./llama-server -m «./models/Qwen2.5.1-Coder-7B-Instruct-Q5_K_M.gguf» -t 8 —mlock -v —alias totally-not-an-AGI -fa —temp 0.4 —repeat-penalty 1.10 —repeat-last-n −1 —top-k 40 —top-p 0.90 —min-p 0.10 -c 16000
`, что означает каждый параметр можно почитать тут
5) Открываем в браузере http://127.0.0.1:8080/
6) Поздравлю, вы папина гордость и нейронный хакер!
#промo
Это — база по Machine Learning и Data Science, которая заменит вам сотни тг-каналов и сайтов. Фишка в том, что здесь опытные ML-специалисты первыми освещают новости сферы, пишут емкие разборы статей и делятся прикладными материалами.
И канал – только часть клада: ребята сделали целый сайт с научными лонгридами, ML-соревнованиями и свежими вакансиями индустрии.
Подписывайтесь: @data_secrets — это база по Machine Learning и Data Science
#текстприслан
neural.love 🤝 minimax
Мы заключили партнерство с разработчиком самой передовой модели в мире для генерации видео, и как всегда, мы пытаемся сделать удобнее, чем конкуренты так что вот что вам может понравиться:
1) Если хотите анимировать картинку, вам не нужно ничего промптить, просто заливаете ее и наслаждаетесь кинематографичным результатом (все видео выше так и сделаны) — ссылка
2) Если вам хочется поправить результат — на всем сайте, у всех сгенерированных картинок или видео есть поле «Refine» пишете туда что хотите поменять, и модели меняют, оставляя как можно больше деталей от прошлой генерации, это помогает поправить не всю сцену, а конкретные ракурсы или элементы
3) Если хотите чистый текст-в-видео подход, то просто идете по ссылке и пишите, что хотите — результаты точно также можно будет подправить, можете включать или не включать позицию камеры, оно само все подхватит — ссылка
4) Видео, которые получились можно конвертировать в 4k, 120 fps и тп — у каждого видео есть кнопка улучшения, но вот тоже — ссылка
Бесплатно такие инструменты не дать, к сожалению, но мы перепродаем модель видео-генерации провайдера почти по себестоимости, тоже ждем удешевления технологии
Дальше на очереди еще пару интересных кейсов от видео-нейронок, stay tuned
P.S. Обещанную АИ-колоризацию уже подключаем
Anthropic показал новую модель Haiku 3.5, которая стала быстрее и умнее, но почему-то в x16 раз дороже, чем Gemini-1.5 Flash или GPT4o-mini, при этом новая Haiku не намного лучше этих моделей 🤡
Сделал вам описательный мем про атмосферу в сообществах где любят продукты Anthropic
И еще про маленькие LLM-модельки
Тут решили проверить, что будет если последние Qwen 7b, Gemma 2b и Llama 8b попросить сгенерировать 100 раз случайного человека и описать его день, в итоге получилось такое:
🔄 Все модели чаще всего выбирали для истории женщин, от 25 до 35 лет; Llama3 вообще один раз про мужчину написала;
🔄 Gemma чаще всего называла персонажей… «Anya Petrova» (интересно, из какой части интернета брали датасет), Llama3 «Emilia Garcia» и Qwen «Li Wei»
🔄 Gemma чаще все придумывала как место действий – Россию (☕️), llama – Японию, а Qwen – Шанхай
🔄 Gemma и llama чаще выбирали профессией персонажей – Фриланс дизайн, а Qwen аж 72 раза – разработку софта
По ссылке выше больше деталей, включая сравнение распорядков дня персонажей
Decart в демку Oasis добавил возможность создавать представления на основе вашей входящей картинки.
Ожидаемо, такой мир довольно быстро начинает деградировать и разваливаться. В следующих версиях обещаем сделать его более стабильным. Все инсинуации с будущим оставляю вам в комментариях.
Пробовать всё там же. Свои миры кидайте в комменты — либо картинками, либо видосами.
@CGIT_vines
Unitree Go2 научили лучше держать баланс
Но меня больше всего впечатляет их маркетинг отдел – в каждом видео они просто пинают робота, палкой, ногой и подзатыльником
Лет через 70 наши металлические друзья оценят как мы с ними обращались 💡
Робот стоит $2800 и выше
А теперь к плохим новостям – похоже доступ к o1 был багом, который починили и модель стала недоступна
Если честно я даже рад – я из кровати не мог вылезти из-за о1 тестов – а теперь весь день снова мой, ура!
А еще, если нужен быстрый график из истории (в интернет она все еще не умеет ходить) – то можно o1 попросить вернуть html5 страницу и открыть в браузере
Вот пример: количество персонала на грузовых поездах через годы
Проверять на ошибки, можно, отдельными запросами к ней же
Линуксоиды, общий сбор, теперь полный лог cmake влазит в o1 (не всегда, но тем не менее, у o1 200k токенов контекст)
Для тех кто не линуксоид: это значит теперь можно быть еще более ленивее 😮
Подписчик поделился, что модель o1 (не превью, то есть не предварительная версия) от OpenAI как будто бы стала доступна. Для этого нужно перейти по ссылке https://chatgpt.com/?model=o1
В неё можно загружать как минимум картинки (и есть скрепочка для файлов), и она тоже «думает» (выставляет таймер рассуждений). Может, это всё ещё o1-preview, но в неё нельзя было загружать изображения.
Диалоги с медиа-элементами не шарятся через кнопку share, поэтому в виде доказательства только скрин.
Го тестировать! (вероятно, только Plus-подписчики)
Закидываем в модель самые сложные задачки на математику и программирование (и счёт объектов на картинках или видео, конечно)
UPD: в браузерной консоли разработчика видно, что тег модели o1, без preview, и тем более не 4o