Тут кто-то замутил AI компаньона для любой игры👾 всё достаточно просто и гениально, делаются скрины областей экрана (или всего экрана, шорткаты забиты на любой случай, даже ваш вопрос голосом можно задать) и идёт аудио ответ через апишки любых моделей 👌 думаю даже попробовать, особенно будет прикольно когда модельки начунут видеть экран (а они начнут)
Кому интересно качать тут
По аналогии с началом сентября, когда некоторым пользователям показывали два варианта ответа, один из которых был от моделей o1 (Strawberry), сейчас в выдачу подмешивают варианты, где явно задействован поиск по интернету (или по крайней мере по набору внешних источников).
Напомню, что OpenAI летом анонсировали SearchGPT, которую выдали всего +-10'000 пользователей как раннюю альфу.
Возможно, релиз скоро 😟
Источник скрина
А ещё пишут Advanced Voice mode собираются выкатить даже бесплатным пользователям (видимо с сильным лимитом) - логичный ход, чтобы потом привлечь ещё больше ЗОЛОТА💰💰😈.... кхм подписок👌
Читать полностью…Немного про последние новости OpenAI 🌚🌚
В конце у руля останется AGI, который они и создают (или уже создали)👌
Институт искусственного интеллекта Аллена (Ai2) представил Molmo — новую линейку мультимодальных AI моделей с открытым исходным кодом. Эти модели превзошли таких конкурентов, как GPT-4o от OpenAI и Claude 3.5 Sonnet от Anthropic, на нескольких независимых тестах. Molmo умеет обрабатывать изображения и файлы, а для обучения использует в 1000 раз меньше данных, чем конкуренты.
Molmo превосходит другие модели на ряде бенчмарков, особенно по работе с изображениями и текстом. Вот некоторые ключевые тесты, где Molmo-72B показала лучшие результаты:
DocVQA — Тест на понимание документов в формате вопрос-ответ, где Molmo-72B набрала 96.3 балла, обойдя такие модели, как Gemini 1.5 Pro и Claude 3.5 Sonnet.
TextVQA — Бенчмарк для распознавания текста на изображениях, где модель также показала результат 85.5 балла, превосходя аналогичные модели.
AI2D (A Diagram Is Worth A Dozen Images) — Набор данных, состоящий из научных диаграмм и аннотаций, где Molmo-72B достигла наивысшего результата среди всех моделей, набрав 96.3 балла.
Сейчас доступно image-to-text демо
И сами модельки на huggingface
У Meta выходит свой voice mode и он будет open source 🔥🔥🔥
Доступен с сегодняшнего дня бесплатно!
✨✨✨
Неужели дождались, ещё и голоса новые😋
UPD
Advanced Voice пока недоступен в ЕС, Великобритании, Швейцарии, Исландии, Норвегии и Лихтенштейн, поэтому заходите через VPN других стран и будет работать 👌
А ещё Альтман разродился на манифест, который мне показался недостаточно эпичным, поэтому я попросил его же (Альтмана) творение исправить это упущение:
Эпоха Разума
В недалеком будущем мы сможем творить то, что наши предки считали бы магией. Человечество всегда шло по пути прогресса, но теперь его скорость стремительно нарастает. Наша сила — не в изменениях человеческой природы, а в знаниях и технологиях, возведённых поколениями до нас.
Искусственный интеллект откроет двери к новому миру. Он решит задачи, которые сегодня кажутся непосильными. Наши потомки будут работать с целыми AI-командами, создавая невероятные вещи и прокладывая путь к звёздам.
Эта грядущая Эпоха Разума принесёт беспрецедентное процветание. С неограниченным разумом и неиссякаемой энергией мы станем покорять галактику, пересекать космические просторы и сеять жизнь среди звёзд. Будущее ослепительно яркое, и перед ним меркнет всё, что человечество знало до сих пор. Мы стоим на пороге эпохи, где ни одна мечта не будет недосягаемой.
✨✨✨✨✨
На реддите пишут OpenAI начали выкатывать Advanced Voice Mode, у меня сообщенка тоже поменялась, ждём ✨
Читать полностью…Попалось крутое видео (не обращайте внимание, что мало просмотров) про возможности o1-preview. В видео Ульф Педерсен, физик из Роскилльского университета (Дания), тестирует модель на неформализованных вопросах по физике: «Какая температура у воздушного шара?», «С какой скоростью должен вращаться барабан сушилки?» и «Сколько электричества потребляет вентилятор?». Модель формализует задачи и решает их с использованием физики, а он разбирает так, как будто это ответы его студентов (спойлер - он очень впечатлён ответами). Меня особенно впечатлило, что модель отказалась отвечать на вопрос, который не относился к физике👌Вот это уже другой уровень тестов, когда модель можно считать уверенным ассистентом, который может помогать в научных исследованиях профессору, а не просто начинающим программистом или копирайтером, а что будет через год - похоже мой любимый жанр видео будет просмотр вот таких увлечённых учёных, которые испытывают детский восторг от новых открытий🤓⚗️🧬🧫✨
Если хотите попробовать сами, то промпт в описании видео
https://www.youtube.com/watch?v=wAnkM10FByY
Новые модели OpenAI завезли на арену
Комментарии излишни🌚 Взяли очередную планку, но это только начало👌
Эмм, тут 17 октября нас ждёт презентация "нового мира", а точнее Worldcoin, который представит Сэм Альтман 🤯
Напомню, что это был проект мировой криптовалюты, основанной на биометрии глаз👀 которые будут сканироваться специальным устройством ORB
Неужто Сэм начнёт реализацию своей идеи UBI (универсального дохода)? Только сначала нужно будет отдать часть души.. 😈
В общем полный киберпанк - ждём, смотрим✨
https://live.worldcoin.org/
Интересный поворот, все думают, что ИИ будет убивать профессии и отрасли, но тут Runway пошли против тренда:
The Hundred Film Fund от Runway предназначен для финансирования 100 фильмов, использующих технологии ИИ на разных этапах производства. Фонд поддерживает режиссёров, продюсеров и сценаристов, помогая им завершить проекты, предлагая гранты от $5000 до $1 млн, а также кредиты Runway на сумму до $2 млн. Фонд стремится поддерживать новые идеи и истории, которые не всегда получают финансирование через традиционные каналы. Проекты всех форматов, включая короткометражные, экспериментальные фильмы и музыкальные клипы, могут подать заявку.
https://runwayml.com/hundred-film-fund
Надеюсь фаны наконец переснимут известные адаптации типа Колец Власти и все новые части Звёздных Войн по канонам 🌚
Тут DeepMind представил AlphaChip — ИИ - систему для автоматизации проектирования чипов. (Вспоминаем AlphaGo и AlphaFold). Эта система используется для создания чипов для Google Tensor Processing Unit (TPU), которые играют ключевую роль в ускорении работы ИИ-моделей, таких как Gemini. Так вот CEO DeepMind поясняет - что это и есть начало рекурсивного самоулучшения ИИ: AlphaChip используется для создания лучших ИИ-чипов, которые затем помогают тренировать лучшие модели. Эти модели, в свою очередь, позволяют разрабатывать ещё более совершенные чипы... hello AGI🌚
Думаю Google нас ещё сильно удивит
На text-to-image арене появилась совершенно новая и непонятная модель для генерации картинок blueberry_0, которая побивает всех на свете, включая FLUX и Ideogram
Это тонкий троллинг strawberry или это опенАИ сами троллят?
Судя по тому, как она уходит от фотореализьма, это может быть та самая Dalle-4o, про которую нам намекали в мае.
Но качество (по крайней мере на арене.. ну такое).
Давайте сюда теории заговора, что это за модель?
И нет, это не Mystic v2, Мистик - это просто Флюкс с украшалками.
https://huggingface.co/spaces/ArtificialAnalysis/Text-to-Image-Leaderboard
На реддите народ бьется в истерике уже сутки...
https://www.reddit.com/r/StableDiffusion/comments/1fp6w4n/_/
@cgevent
Извините за качество аудио (не могу найти способ записать прямо с телефона, а другого девайса кроме ноута рядом нет) и за то что уставший, но вот вам ещё монолог Джокера на ночь🌚 По моему голос получился точно как в дубляже)
Матерную версию с Гарри Поттером оставлю на завтра)
Ну вот и мой первый тест, только так теперь с ним буду общаться 😈
Думаю если дальше буду его перебивать, то заберёт душу 🌚 а вообще я уже хочу рок оперу в таком исполнении 🔥
Ой, а что это за сообщение я получил ✨✨✨✨
Можете переустановить прилагу и по идее сразу будет обнова
Тесты пришлю позже🌚
Чуда не произошло, Google выпустила обновлённые модели Gemini 1.5 Pro и 1.5 Flash с улучшенными характеристиками. Стоимость 1.5 Pro снижена на 50%, а скорость вывода увеличена в два раза. Модели поддерживают более длинные контексты, улучшили качество работы с текстом, кодом и визуальными данными.
Ждём анонсов посерьёзнее
Чего не сделаешь ради ИИ, даже атомный реактор перезапустишь⚠️
Компания Constellation Energy планирует перезапустить реактор Unit 1 на АЭС «Три-Майл-Айленд» и продавать электроэнергию Microsoft для обеспечения потребностей дата-центров, поддерживающих искусственный интеллект. Этот реактор связан с аварией 1979 года, одной из крупнейших ядерных катастроф в истории США, хотя сам Unit 1 не был поврежден в результате аварии. Ожидается, что станция снова начнет работу в 2028 году, после получения одобрения Комиссии по ядерному регулированию, а также планируется продление срока её эксплуатации до 2054 года.
https://www.cnbc.com/2024/09/20/constellation-energy-to-restart-three-mile-island-and-sell-the-power-to-microsoft.html
Крутое название статьи, да и суть не хуже - Сэм Альтман заявил о способности нового поколения ИИ, таких как модель o1, к самоулучшению. Альтман отметил, что в ближайшие месяцы произойдут значительные улучшения, позволяющие ИИ решать более сложные задачи, демонстрируя быстрое развитие систем.
Модель o1является первым шагом на пути к созданию "агентных" систем (уровень 3), которые смогут не только отвечать на вопросы, но и самостоятельно выполнять действия в других системах и сервисах. Это даст возможность ИИ действовать как полноценный агент, способный выполнять комплексные задачи. В дальнейшем такие системы смогут не только решать проблемы, но и создавать инновации — что соответствует уровню 4 развития ИИ.
Интересно, где мы будем через год с таким ускорением🌚
А подробнее написано тут /channel/techsparks/4679
YouTube представил новые ИИ-инструменты для упрощения создания контента. На мероприятии Made on YouTube компания анонсировала вкладку Inspiration в YouTube Studio, которая предложит идеи для видео, придумает заголовок, создаст эскиз и напишет начало сценария. Это позволяет авторам быстрее генерировать контент и даже полностью строить видео с помощью ИИ.
Кроме того, модель Veo от DeepMind будет интегрирована в YouTube Shorts, позволяя создавать ролики с ИИ-сгенерированными фонами. Новые функции появятся к концу года. YouTube также расширяет возможности автодублирования видео и предлагает авторам ИИ-инструменты для взаимодействия с аудиторией через секцию «Сообщества».
Думаю в итоге мы придём к кнопке "Сгенерируй мне видео" с окошком для промптома и деваться будет некуда от ИИ-видосов🫣
https://www.theverge.com/2024/9/18/24247559/youtube-ai-videos-veo-inspiration-tab
Neuralink получила от FDA (Управление по контролю за продуктами и лекарствами США) статус революционного устройства для лечения слепоты. Такой статус может означать, что устройство обладает потенциальными преимуществами, которые значительно отличаются от существующих технологий, и его разработка может быть ускорена для более быстрого выхода на рынок. Это может также подразумевать, что устройство будет доступно для клинических испытаний или даже для широкой публики быстрее, чем обычные медицинские устройства.
https://x.com/neuralink/status/1836118060308271306
What a time to be ❤️