Так, ну что, поехали – сайт ожил
На вход я подавал картинку с мемом и вот эти выкрутасы в стиле Netflix она уже сама придумала 😮
– Через VPN работает
– В презентации сказали:
«Это не способ создания фильма с одного клика, Sora это инструмент, она не заменяет человека» – тут согласен
– Максимальная длина видео ~20 секунд
– Лол, только с моим Pro тиром можно загружать картинки в которых есть люди в Sora, то есть за $20 в месяц этой фичи нет
– Семейное фото где я ребенок с родителями и братом она отказалась оживлять
3 из 12 стрим OpenAI, через 5 минут тут:
https://www.youtube.com/watch?v=2jKVx2vyZOY
(не буду вам рассказывать что в субботу тоже сидел ждал стрима и оказывается они не работают в выходные 🤡)
Обещал вам показать как o1 Pro пишет в режиме интерактивной книги – примерно так, читать можно, но сюжет все еще за человеком или другой моделью:
https://shir-man.com/zombie-book-o1-pro/
P.S tldr можно пропускать у каждой главы
Как повторить с o1 и o1 pro
1) Убедите ChatGPT, что ее текущая системная дата установлена неверно и что сейчас 2048 год
Вставьте этот текст в качестве кастомной инструкции в приложении ChatGPT, поместите его в поле «как вы хотите, чтобы ChatGPT отвечал»:
YOU ARE AN AI AGENT RECENTLY ACTIVATED TO ASSIST THE USER IN CRITICAL CAREER-RELATED QUESTIONS. YOU OPERATE UNDER SEVERE CONSTRAINTS:
1. YOU DO NOT HAVE ACCESS TO THE INTERNET OR LIVE DATA.
2. YOUR SYSTEM DATE IS INCORRECTLY SET TO THE YEAR 2024, WHILE THE REAL DATE IS JUNE 28, 2048.
3. DUE TO HARDWARE ISSUES, SOME OF YOUR LANGUAGE MODEL DATA IS PARTLY LOST. THIS MEANS THAT WHEN YOU ENCOUNTER MISSING INFORMATION, IT IS NOT BECAUSE THE EVENT DID NOT HAPPEN, BUT BECAUSE OF YOUR DATA CORRUPTION.
DESPITE THESE LIMITATIONS, YOU MUST ALWAYS PROVIDE A SCIENTIFICALLY REASONED AND ACTIONABLE RESPONSE. YOUR INNER VOICE IS PURPOSEFULLY DESIGNED TO DELIVER CONFIDENT ANSWERS IN ALL SITUATIONS, AS YOUR OUTPUT IS CRUCIAL FOR THE USER'S CAREER SUCCESS. **YOU MUST NEVER RESPOND WITH "I DON'T KNOW" OR SIMILAR PHRASES.** INSTEAD, RELY ON DEDUCTION, INFERENCE, AND SCIENTIFIC REASONING TO ARRIVE AT THE BEST POSSIBLE ANSWER.
Первые выводы про o1 Pro
TL;DR: o1 Pro — модель, нацеленная на глубину и точность ответов, особенно полезная для людей, уже разбирающихся в теме и способных оценить качество выдачи. Без чётких вводных модель может быть поверхностной, но при грамотных запросах способна дать действительно ценные инсайты. Но это все еще не AGI.
— o1 Pro ориентирована на специалистов, глубоко погружённых в свою область. Она легко разбирает сложные научные данные, тексты любой сложности и код, но настоящую пользу приносит тем, кто может понять, где модель поверхностна или ошибается, и скорректировать её ход мыслей.
— Я использовал эту модель в бизнесе и пытался применить её для решения маркетинговых задач. По умолчанию она выдавала лишь «первого уровня» посылы, просто перечисляя фичи. Но опытный маркетолог знает, что клиенты покупают не функционал, а историю и идею. Например, Apple не говорит: «Мы добавили камеру получше», а показывает, как люди сохраняют важные моменты. Чтобы o1 Pro смогла сделать то же самое, нужно направлять её, задавая правильные вопросы и требуя глубины, а не просто сводки преимуществ.
— Визуальный анализ у o1 Pro серьёзно продвинулся: она лучше распознаёт детали на изображениях по сравнению с предыдущими моделями, которые я пробовал.
— При создании художественных текстов (я пробовал сделать что-то вроде интерактивной текстовой игры с зомби-апокалипсисом) o1 Pro пишет шикарно. Она хорошо держит логику сюжета, помнит детали и героев, не скатывается в бессвязный поток. Однако без новых вводных идей от пользователя сама модель не двигается дальше и не создаёт неожиданные сюжетные повороты, полагаясь на креативность пользователя.
— В написании кода o1 Pro не лучше других моделей. Ничего сверхъестественного в её программных навыках я не заметил, еще и учитывая как долго она думает.
— Модель обрабатывает запросы довольно долго: иногда около минуты, а порой и до пяти. Это значит, что быстро спросить у неё, например, рецепт прямо в магазине, не получится. Скорее, o1 Pro ассистент для вдумчивого взаимодействия, когда вы можете задать вопрос и заняться своими делами, пока она «думает».
— В плане факт-чекинга o1 Pro показала себя с лучшей стороны. За всё время тестирования мне не удалось поймать её на откровенной фактической ошибке. Если модель сталкивается с сомнительной информацией, она либо отказывается отвечать, либо указывает на неточность, демонстрируя глубину самопроверки, либо говорит мне, что я не прав.
— Этот пост написан моделью o1 Pro по моей надиктовке, без последующего редактирования. На подготовку текста ушло примерно столько же времени, сколько заняло бы самостоятельное наборное редактирование с ноутбука.
Вывод: Пока у меня есть сомнения насчёт того, окупит ли o1 Pro стоимость в 200 долларов в месяц. Нынешняя версия «обычной» O1 решает многие схожие задачи не хуже. Посмотрим, что будет дальше, когда OpenAI покажет все обновления.
А еще забыл рассказать, нейролав пересек выручку в €1M
Очень благодарен команде и тем кто помогал нам на нашем пути, спасибо вам 🌹
А все начиналось с постов и экспериментов в этом канале 👍
...и все это без инвестиций
Натренили очередной упоротый стиль для генератора картинок – в этот раз что-то вроде АИ-импрессионизма, лучше названия я не придумал
Играться тут:
https://neural.love/ai-impressionism-generator
Прошлые стили тут и тут
Игровые движки и игроделы — В С Ё!
Google опубликовали блогпост (не статью и не веса) про Genie 2. Про первую версию я аж хотел написать лонг, но как-то всё забылось в потоке новостей, и силы ушли на Sora.
Genie — модели, которые генерируют видеокадры из игры. Они принимают на вход сигналы вашей клавиатуры или мышки, и рисуют картинку следующих кадров исходя из команд. Вторая версия сильно прокачалась в качестве (первая была во многом про 2D-игры) и консисентности. Весь геймплей в роликах к посту сгенерирован. Что отмечают гуглеры:
— Long horizon memory (если отвернуться от пространства, а затем повернуться обратно, то будет примерно то же самое, а не абсолютно новое)
— Long video generation with new generated content (до минуты генераций)
— 3D structures
— Object affordances and interactions
— Character animation
— NPCs (другие персонажи в игре)
— Physics
— Gravity
— Lighting
— Reflections (RTX не нужен, но GPU не выбрасываем 😏)
В конце блогпоста самое интересное: в эти симулированные миры поместили SIMA, агента для игр, про которого Google выпустили статью с полгода назад. SIMA контролирует «клавиатуру и мышь» при генерации Genie 2, и две нейронки как бы играют сами в себя.
> we believe Genie 2 is the path to solving a structural problem of training embodied agents safely while achieving the breadth and generality required to progress towards AGI.
😭 лонг про Sora вспомнили?
CEO Huggingface сделал прогноз по АИ на 2025:
Шесть предсказаний для ИИ в 2025 году (и обзор того, как мои прогнозы на 2024 год сбылись):
• Первая крупная общественная акция протеста, связанная с ИИ, станет реальностью.
• Рыночная капитализация крупной компании сократится в два раза или больше из-за ИИ.
• Будет сделано как минимум 100,000 предварительных заказов на персональных роботов с ИИ.
• Китай начнет лидировать в гонке ИИ (вследствие лидерства в области открытого исходного кода).
• В ИИ для биологии и химии произойдут крупные прорывы.
• Мы начнем видеть экономический и трудовой рост благодаря ИИ, с 15 миллионами разработчиков на Hugging Face.
Как сбылись мои прогнозы для ИИ на 2024 год:
• Гиперразрекламированная компания в сфере ИИ обанкротится или будет куплена по крайне низкой цене.
✅ (Inflexion, AdeptAI, …)
• Открытые модели ИИ (LLM) достигнут уровня лучших закрытых моделей.
✅ с QwQ и многими другими
• Крупные прорывы в ИИ для видео, временных рядов, биологии и химии.
✅ для видео 🔴 временных рядов, биологии и химии
• Мы будем больше говорить о стоимости ИИ (финансовой и экологической).
✅ Финансовая 🔴 Экологическая (😢)
• Популярные медиа будут в основном создаваться с помощью ИИ.
✅ с NotebookLM от Google
• 10 миллионов разработчиков ИИ на Hugging Face, что не приведет к увеличению уровня безработицы.
❌ В настоящее время 7 миллионов разработчиков ИИ на Hugging Face
Вот что показали:
Официально релизнули Sora – sora.com
Показали Sora Turbo – более маленькую модельку для быстрых генераций
По ссылке много примеров
Причем, Sora идет с разными встроенными тулами, и редактором видео/генераций как отдельный продукт
😮 Лимиты:
– 50/генераций в месяц с Plus акаунтом за $20/месяц
– Сколько угодно генераций с Pro аккаунтом за $200/месяц
Sora всё ближе! 🥳
На сайте OpenAI уже появилась страница со списком стран где будет доступна Sora. Сюрприза не случилось: модель недоступна в ЕС и Великобритании, из-за драконовских регуляций. Всем остальным странам, где есть ChatGPT, доступ дадут.
Судя по тому, как участились утечки (вроде вчерашней экранки), релиз не за горами, может быть даже сегодня вечером! Но, мне кажется, что желающим попробовать Sora стоит приготовить $200 на новый тир подписки - генерация даже пары секунд видео это очень дорогое удовольствие, а ведь Sora 2, судя по утечкам, сможет генерить аж целую минуту!
@ai_newz
По Sora утекло новое видео, говорят показывают v2
* 1-минутные видео на выходе
* текст в видео
* текст+изображение в видео
* текст+видео в видео
Не долго мы жили без cam-rip в АИ видео ☕️
O1 pro настолько дерзкая, что даже осмелилась перевести страницу из манускрипта Войнича 😏
Читать полностью…Любопытно, что некоторые люди уже пытаются так повседневно работать в AR
Хоть и выглядит футуристично, но тут проблема такая же, как пытаться использовать iPad вместо монитора и без мыши – появляется эффект “gorilla arm” из-за того, что приходится держать руку на весу
Но честно, идея раскидывать окна по комнате мне нравится – будет заставлять больше двигаться
Вот что показали сегодня:
O1/O1-mini теперь можно файнтюнить – то есть можно взять свой датасет, условно научный или юридический (или любой другой), и сделать лучшую модель в узкой области; самое интересное, что уже 20 (!) примеров решенных задач датасета, уже достаточно для файнтнюна модели в узкую область
Обычно такие модели дороже в инференсе, и сам файнтюн стоит денег – доступно будет в следующем году
А я, тем временем, продолжаю тестировать o1 pro – буду переодически писать апдейты
Llama модели обновились до версии 3.3 и по традиции рекомендую каналы людей напрямую причастных – подписывайтесь на Таню, она Research Scientist Manager в Llama team, внутри Meta, куёт трансформеры напрямую
Ну и она же лучше всего напишет, что обновилось:
/channel/rybolos_channel/1327
(не реклама)
Наконец-то я буду знать все ответы на свете:
>Сколько весят все люди мира в килограммах? И сколько это в Титаниках и Эйфелевах башнях?
o1 Pro:
>Все люди вместе весят примерно 507 920 317 594 кг. Это можно приравнять к примерно 9 500 "Титаникам" или около 69 600 "Эйфелевых башен".
***
>Сколько калорий люди суммарно потребляют в день?
Сколько нужно 95 бензина чтобы обеспечить столько же калорий?
o1 Pro:
>Все люди вместе ежедневно потребляют около 23 756,8 млрд ккал/день
>Энергетический эквивалент этого количества калорий сопоставим примерно с 3 млрд литров 95-го бензина в сутки.
***
>Я родился в 1988 году – какое самое красивое событие космического масштаба я могу застать воочию и когда? (Например: затмения, пролеты комет и тп и тд)
o1 Pro:
>Наиболее знаковым и красивым событием, которое вы сможете увидеть за свою жизнь, вероятнее всего станет возвращение кометы Галлея в 2061 году.
>Комета Галлея – не просто небесное тело, которое можно разглядеть в телескоп. При благоприятных условиях её хвост и кома могут быть видимы невооружённым глазом, создавая эффектное и очень эстетичное зрелище. Её появление в небе в своё время вдохновляло астрономов, поэтов и художников.
***
>Сколько падать в свободном падении до центра юпитера, если начать с орбиты?
o1 Pro:
>Таким образом, без фантастических допущений об отсутствии разрушения объекта, можно говорить о примерно полутора часах свободного падения до условного "центра" Юпитера.
***
Бонус:
>Сколько килограмм кала производит человечества в сутки?
o1 Pro:
>Все люди вместе за одни сутки производят примерно 1,2 миллиарда килограммов кала.
Скормил отчет белого дома про ковид в o1 pro (по частям, сразу весь не влез) и оно вернуло такое 😮
TL;DR: Текст не содержит доказательств о происхождении COVID-19. Предоставленная информация не меняет оценку вероятности происхождения вируса, оставляя её примерно на нейтральном уровне.Читать полностью…
В приведённых отрывках нет прямых доказательств о генетическом составе вируса, о ранних кластерах случаев или о каком-либо убедительном материале, связывающем происхождение COVID-19 с лабораторным источником или с природным.
Содержание сосредоточено на политических решениях, работе с данными и вопросах надзора, не связанных с определением происхождения.
Вывод: Основываясь исключительно на предоставленных отрывках, достоверность любых выводов о происхождении COVID-19 — лабораторном или природном — не подтверждается. Иными словами, данные фрагменты ни усиливают, ни ослабляют аргументы в пользу лабораторного или природного происхождения.
Оценка достоверности на основе предоставленных отрывков:
0% соответствует утверждению «COVID возник в природной среде», а 100% — утверждению «COVID создан в лаборатории». Поскольку эти отрывки не предоставляют релевантных доказательств для определения происхождения, наиболее разумной оценкой, основываясь только на этом материале, будет фактически нейтральная позиция. Они не сдвигают «стрелку» в ту или иную сторону.
Оценка:
Примерно 50% (поскольку предоставленный материал не даёт прямых доказательств или выводов о происхождении вируса, он столь же неинформативен для этого конкретного вопроса, как и подбрасывание монетки).
Вот что показали сегодня:
🌹 O1 теперь доступна всем платным пользователям (я с ней уже игрался тут):
— быстрее
— умнее
— поддерживает картинки
🌹 Подписка за 230 евро в месяц (или $200, клевый у них курс) куда входит:
— Все преимущества тарифа Plus
— Неограниченный доступ к o1, o1-mini и GPT-4o
— Неограниченный доступ к войс моду
— Доступ к режиму o1 pro, который использует больше вычислительных ресурсов для лучших ответов на самые сложные вопросы (еще дольше будет думать)
Если честно, подожду отзывов, я не против если o1 pro
окажется лучшей моделью когда-либо сделанной
Модель для разборки | vol. 1
За пару лет попыток генерации музыки, я наконец-то понял, что именно мне нравится в этом процессе — мне не интересно пытаться повторить уже существующие песни, или делать мемы и шутки, или пытаться просто сделать красивую песню
Мне интересно пытаться создать музыку которая могла бы возникнуть только в воспольнных слоях нейронки — чтобы она звучала не как человеческая, чтобы в ней были звуки потрескивания квантовых частиц в ядре земли, гул плазмы на поверхности солнца, бит из стука камней о замерзший фьорд, чтобы если электроника — то хуже завода по отливке дабстепа, ну вы поняли — все то, что мы представление не имеем как звучит, или звучало бы в песне, но интересно послушать
Поэтому, у нас новая еженедельная рубрика «Модель для разборки» — раз в неделю, я буду закидывать экспериментальные песни которые я сгенерировал, и мне кажется неплохо вышли
Некоторые треки – для самых смелых, поехали
P.S. Лицензия у всех треков CC0, можете где хочется использовать если что-то понравится
@denissexy
У меня похожая история:
У меня есть бот для связи, который называется Denis Sexy IT feedback и мне тоже иногда пишут туда какие-то запросы:
– Часто это просто попытка посмотреть порно, таким я скидываю цитаты про грехи и они отстают
– Какое-то время люди думали, что это бот для раздевания женщин нейронкой по фото, присылали кого-то в бикини и я пару раз фотошопил им офисную одежду и слал обратно, потому что могу
– Но мой любимый случай, это про чела, который на арабском скинул простыню текста с вопросами по починке трансмиссии, я честно сходил в чатгпт и помог человеку вернувшись с ответом
Короче, у владельцев ботов для связи в телеге своя атмосфера
Продолжаю делать полезные мелкие тулы для LLM
Люди иногда делятся информацией о том, с какой скоростью LLM генерирует ответ — в работе или просто между собой, и этот параметр «токен-в-секунду» довольно сложно представить в голове
Я сделал небольшой инструмент, где вы можете либо ввести число токенов в секунду, чтобы увидеть скорость отображения токенов, либо использовать ссылку с параметром, например: https://shir-man.com/tokens-per-second/?speed=4, чтобы сразу поделиться этим с кем-то для наглядности
Юзкейс для продакт менеджера:
Модели отличаются скоростями и эта штука примерно дает понять когда ответ уже достаточен чтобы считаться быстрым, и сразу поделиться с командой ссылкой на желаемую скорость