@Futuris - канал о технологиях, будущем и не только. Contact @antonod
🕶Умные очки Ray-Ban Meta теперь обладают мультимодальным ИИ, который позволяет обрабатывать несколько типов информации, таких как фото, аудио и текст. Эта функция стала доступна всем после нескольких месяцев бета-тестирования. Очки не только позволяют делать снимки и идентифицировать объекты, но и удобно использовать в качестве наушников. Несмотря на возможные ошибки ИИ при распознавании объектов, как например, с идентификацией моделей автомобилей, общий опыт использования оценивается положительно. Эти очки предлагают интересный опыт расширенной реальности, делая ежедневные задачи более удобными и интерактивными.
Понятно, что пока это первые версии, но думаю, тема умных очков очень перспективна, удобно когда при необходимости они могут и фото/видео сделать и объяснить и перевести и позвонить без необходимости постоянно тыкать в экран и отвлекаться на смартфон. А там ещё и распознавание эмоций собеседника и всякие риалтайм лайфхаки появятся, смотря как запромптить🌚
https://www.theverge.com/2024/4/23/24138090/ray-ban-meta-smart-glasses-ai-wearables
Мета AI - представляет нового умного помощника, основанного на Meta Llama 3, доступный бесплатно на Facebook, Instagram, WhatsApp и Messenger. Он поможет вам планировать ужин, учиться на экзамен, создавать изображения и многое другое. Мета AI интегрирован в поиск и позволяет получать информацию в режиме реального времени без переключения между приложениями. Вы также можете использовать его на своем компьютере через сайт meta.ai. Мета AI также предлагает функцию "Imagine", которая позволяет создавать изображения на основе текста в реальном времени.
Читать полностью…Если какая нибудь страна не воплотит это в реальность, то я не знаю зачем ещё нужны нейросети🌚
Made in mj6
Вслед за Google компания Meta представила новый подход к предварительному обучению и использованию LLM, под названием Megalodon. Он позволяет эффективно работать с бесконечно длинными текстами. Раньше трансформеры сталкивались с проблемами при обработке длинных текстов, но Megalodon решает эту проблему. Подход использует несколько новых технических компонентов, чтобы улучшить свою производительность и стабильность. В сравнении с другой моделью, Llama2, Megalodon показал лучшие результаты при работе с большим количеством параметров и обучающих данных. Это значит, что Megalodon может обрабатывать длинные тексты быстрее и точнее, чем другие модели.
Code: https://github.com/XuezheMax/megalodon
Похоже, даже смелые предположения о темпе развития ИИ-технологий не успевают за реальностью, что нас ещё ждёт до конца года🌚
Интересное будущее ждёт не только сферу высоких технологий на Земле, тут команда исследователей из NASA предложила миссию, которая больше звучит как начало фантастического фильма💫
Миссия направлена на изучение неизведанных аспектов физических законов в нашей Солнечной системе✨ Ключевым элементом миссии является использование космических аппаратов, расположенных в форме тетраэдра. Такая форма корабля позволит проводить высокоточные измерения, которые могут выявить отклонения от предсказаний теории общей относительности Эйнштейна и указать на возможное существование новых физических явлений. Миссия нацелена на решение загадок темной материи и темной энергии, фундаментальные вопросы, которые до сих пор остаются без ответов в современной науке🌚
https://www.sciencealert.com/radical-nasa-study-says-this-spacecraft-formation-could-reveal-new-physics
Таки моделька GPT-4 Turbo обновилась сегодня до новой версии и опять заняла первое место на чат-бот арене✨
Новая версия обучена на данных до декабря 2023 года и обещает улучшения в точности, сокращение излишеств в текстах и более естественный язык. Теперь ChatGPT может также использовать информацию из интернета для ответов на актуальные вопросы. (хотя вроде и так мог, но по конкретному запросу, а теперь видимо сам при желании сёрфить будет🌚)
Новая музыкальная LLM Udio теперь доступна всем✨
В месяц бесплатно можно нагенерить 1200 аудиофайлов 🔊 (но длительность не более 30 сек)
Вышла свежая версия GPT-4-Turbo (суффикс 04-09). Я бы про это не писал, если бы в Twitter сразу 3 сотрудника OpenAI не репостнули это со словами «big improvement». Один даже указал, что улучшения особенно заметны в математике.
Также эту модель должны принести в ChatGPT (веб-сайт с подпиской за $20, не API).
Ждём на LMSYS Arena, оценим, что это за «улучшения». Тайминг выбран интересный — вот только сегодня рейтинг обновился, и оказалось, что модель CMD-R+ от Cohere на 100B+ параметров обогнала GPT-4 (исходные версии весны 2023-го). Claude 3 Opus всё еще сидит на первом месте.
Ну что, началось..? Sama нажал большую красную кнопку?
Microsoft и Quantinuum добились прорыва в квантовых вычислениях, демонстрируя логические кубиты с рекордно низким уровнем ошибок — в 800 раз меньше, чем у физических кубитов. Этот успех открывает путь к разработке гибридных суперкомпьютеров нового поколения, обещая значительные прорывы в научных исследованиях и инновациях. В ближайшее время компании планируют предоставить доступ к этим технологиям в рамках приватного предварительного просмотра для пользователей Azure Quantum Elements, заложив тем самым основу для будущего научного и коммерческого преимущества в многочисленных отраслях.
Интересно, увидим ли мы когда нибудь квантовые LLM🌚
Всё это напоминает сцену из Американских богов, где создатель ИИ начинал именно с музыки, а вообще интересное будущее нас ждёт, у каждого будет персональная радио-станция под настроение и возможно даже под мозговые волны, для того чтобы быстро успокоиться, сосредоточиться, заснуть и тд..🌚
Читать полностью…Помните недавнюю новость про ИИ-разработчика Devin? Так вот умельцы уже запилили опенсорс аналог - OpenDevin✨ на github (за пару дней уже в топе трендов). Для работы нужно подключить GPT или Claude или вообще любую LLM через API. Всё это позволит разработчикам создавать приложения с помощью простых запросов, OpenDevin интегрирует терминал, редактор кода и браузер в единый интуитивно понятный интерфейс.
Тут видео инструкция для запуска и демонстрация возможностей https://www.youtube.com/watch?v=dKD4a_sv69o
Или вот:
git clone https://github.com/OpenDevin/OpenDevin.git
cd OpenDevin
conda create -n od python=3.10
conda activate od
docker ps
(optional) install docker if not already installed
docker pull ghcr.io/opendevin/sandbox
export OPENAI_API_KEY={your key}
(optional I had to install rust) curl --proto '=https' --tlsv1.2 -sSf [https://sh.rustup.rs](https://sh.rustup.rs/) | sh
(optional) restart terminal
python -m pip install -r requirements.txt
(optional) orjson issue (MacOS)
- pip uninstall orjson
- pip install --no-cache-dir --only-binary :all: orjson
uvicorn opendevin.server.listen:app --port 3000
Всё это навело меня на мысли, которые очень хорошо за меня изложил GPT-4 (потом обязательно спрошу тоже самое у GPT-5, 6 и 7, если разрешит🌚)
Читать полностью…⚡️OpenAI представляет предварительные результаты тестирования модели "Voice Engine", способной создавать естественно звучащую речь из текста и 15-секундной аудиозаписи, тесно имитирующей голос оригинала. Модель уже используется в API текста в речь, ChatGPT Voice и функции "Читать вслух". Несмотря на потенциал технологии, компания подходит к вопросу массового внедрения осторожно из-за возможности неправомерного использования синтетических голосов.
Чувствую сбудется мечта и смогу пересматривать современные фильмы в озвучке Володарского🌚
https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices
Яндекс анонсировал третье поколение YandexGPT, представив модель YandexGPT 3 Pro, доступную через API в Yandex Cloud, включая бесплатный демо-режим. Новая модель обещает улучшенную работу с сложными запросами и точность в соответствии с форматом ответов, что делает её особенно полезной для решения задач пользователей и компаний. Кроме того, YandexGPT 3 Pro можно дообучить для специфических нужд. Тестирование показало существенное улучшение качества и консистентности ответов по сравнению с предыдущим поколением. Нейросеть также предлагает сниженную стоимость использования и обширные возможности для интеграции в различные сферы деятельности.
Читать полностью…Японский стартап Sakana AI разработал новый метод создания генеративных моделей под названием Evolutionary Model Merge, вдохновленный процессом естественного отбора. Этот метод позволяет объединять части существующих моделей для создания более эффективных архитектур. Sakana AI, основанная в августе 2023 года ведущими исследователями в области ИИ, включая бывших сотрудников Google, предложила экономически выгодный способ разработки новых моделей без необходимости значительных затрат на их обучение и настройку. Компания выпустила крупномасштабную языковую модель и модель, объединяющую язык и зрение, созданные с помощью этой техники. (можно протестировать на HuggingFace) Sakana AI утверждает, что их метод позволяет автоматически создавать новые базовые модели с желаемыми возможностями, опираясь на существующие открытые модели.
"The future of AI will not consist of a single, gigantic, all-knowing AI system that requires enormous energy to train, run, and maintain, but rather a vast collection of small AI systems–each with their own niche and specialty, interacting with each other, with newer AI systems developed to fill a particular niche,”🫡
_____
А ещё хочу порекомендовать вам телеграм канал научно-технологического бизнес объединения Fusion Innovation Technologies – Moscow, где вы найдёте не только последние новости из мира технологий, но и сможете принять участие в множестве крутых мероприятий - @fitmorg
Тут компания Groq (не Grok), которая разрабатывает свою технологию LPU, Language Processing Units вместо GPU для более эффективной работы с языковыми моделями, добавила на свой плейграунд новые модели LLaMA 3 иии... они выдают по 800 (8b) и 300 (70b) токенов в секунду (~600/150 слов в сек)
можете проверить сами как будет выглядеть общение с LLM в ближайшем будущем - буквально на лету🤯
Meta AI представляет Llama 3 - новое поколение своих открытых больших языковых моделей✨
Новые модели Llama 3 с параметрами 8B и 70B демонстрируют значительное повышение производительности по сравнению с предыдущими моделями, включая улучшенные способности к рассуждению и кодированию. В ближайшие месяцы компания планирует представить новые возможности, увеличенное окно контекста (пока 8к токенов), дополнительные размеры моделей (400B) и повышенную производительность.
Пообщаться с модельками можно тут
Boston Dynamics представили гуманоидного робота нового поколения ✨
Новый Atlas спроектирован для реального мира и обладает улучшенной маневренностью и силой. Компания планирует тестирование с Hyundai на производственных площадках.
Основные моменты:
Завершение эры гидравлического Atlas: Boston Dynamics прекращает разработку гидравлического робота Atlas и представляет новую, полностью электрическую версию.
Тестирование с Hyundai: Hyundai не только инвестирует в проект, но и будет использовать нового Atlas для тестирования в автомобилестроении.
Улучшения в новом Atlas: Электрический Atlas обладает большей силой и маневренностью, чем предыдущие модели, и разрабатываются новые типы захватов для различных производственных задач.
Интеграция с цифровой трансформацией: Программа Orbit для управления роботами и данными уже доступна для модели Spot и будет расширена для новых моделей.
Развитие программного обеспечения: Роботы оснащены новыми инструментами ИИ и машинного обучения для адаптации к сложным условиям реального мира.
Atlas будет использоваться для решения сложных задач в промышленности, превышающих возможности человека🌚
Не терпится дождаться больше видосиков, а потом Atlas в каждый завод!🤖
https://bostondynamics.com/blog/electric-new-era-for-atlas/
Думаете в гонке LLM перерыв? не тут-то было✨
Компания Reka (основанная экспертами из DeepMind, Google Brain) анонсировала запуск LLM под названием Reka Core. Эта модель является мультиязычной и мультимодальной, что позволяет ей обрабатывать и анализировать текст, изображения, видео и аудио. Reka Core с контекстным окном 128к токенов сравнима по своим возможностям с GPT-4V, Claude-3 Opus и Gemini Ultra и превосходит их в задачах связанных с видео. Модель обучалась на массивных данных с использованием тысяч GPU и доступна для развертывания через API, на локальных серверах или непосредственно на устройствах. Важным аспектом сотрудничества Reka является партнерство с ведущими технологическими платформами и государственными организациями, такими как Snowflake, Oracle и AI Singapore.
Видео-преза модельки
Собственно playground Reka (контекстное окно 4к)
Конкуренция работает🌚
Ну года 2-3 назад, чтобы такое сделать понадобилось бы намноого больше времени и денег, чем сейчас с платной подпиской в Midjourney и Runway и музыкой в Suno или Udio 😎🤟 и это ещё Sora в общий доступ не дали🌚
Читать полностью…В новом исследовании от Google представлен эффективный метод масштабирования трансформеров для обработки бесконечно длинных входных данных с ограниченным объемом памяти и вычислительными ресурсами. Ключевым элементом метода является новая техника внимания, названная Infini-attention, которая интегрирует сжимающую память в стандартный механизм внимания. Это позволяет модели работать с очень длинными текстами, например, для подбора ключей из текста длиной в 1 миллион символов или суммирования книг длиной 500 тысяч символов. Модели на 1 и 8 миллиардов параметров показали превосходство над базовыми моделями на задачах с длинным контекстом.
Ждём апдейт Gemini до бесконечных окон контекста ✨хотя мне 1 млн уже более чем достаточно🌚
Ничего необычного, просто запустил модель по уровню прошлых версий GPT4 у себя на ноуте ☕️
Модель Command R+ размером 104B параметров; эта модель сейчас на 6 месте среди всех языковых моделей в мире и она в открытом доступе (с некоммерческой лицензией, правда)
Gguf версию качал тут
Подробнее о том как ее запустить в моем закрытом 💎 канале:
Лол, какой VIP канал, мир локальных моделей пока недружелюбный настолько насколько возможно, опции всего две: открываете llama.cpp на github и следуете инструкциями там, или просто ждете еще пару недель пока все популярные back-end аппы подключат ее поддержку (рекомендованный вариант)
Фотоны в массы💫
Компания Lightmatter представила инновационный подход к построению суперкомпьютеров для искусственного интеллекта, используя световые соединения (фотоны) вместо традиционных электрических. Эта технология, названная "Passage", позволяет чипам напрямую обмениваться данными через оптические интерконнекты, что значительно увеличивает скорость передачи данных и сокращает задержки, связанные с преобразованием сигналов. Система Passage способна подключать сотни тысяч или даже миллионы GPU, что существенно ускорит процессы обучения ИИ. В ходе презентации на мероприятии венчурной компании Sequoia, генеральный директор Lightmatter Ник Харрис заявил, что технология будет готова к 2026 году и сможет обеспечить работу свыше миллиона GPU в параллельном режиме (к слову GPT-4 использует где-то 20тыс GPU). Это открывает перспективы для создания следующих поколений ИИ и к достижению общего искусственного интеллекта (AGI)🤖
Lol, тут запилили настоящую арену для LLM, где модели могут сразиться в Street Fighter 3 (и не только, есть даже первый мортал комбат🔥) и выяснить, кто из них король ринга 🥊
Интересно будет посмотреть на битву титанов GPT-5 и Claude 3 например 🌚
Можно загружать локальные модельки или через api
Stable Audio 2 - генерация коммерческой музыки по промпту
Самое интересное в модели - это то что её тренировали только на лицензированных данных, так что новому CEO Stability AI будет поспокойнее.
Архитектурно это, как и Sora с SD3, Diffusion Transformer, похоже U-Net всё же отправляется на покой.
Моделька доступна на сайте, API, как и пейпер обещают позже. Весов нет и вряд-ли будут.
А ещё они запустили стрим с непрерывной генерацией музыки, lofi girl напряглась.
Сайт (бесплатно дают 10 генераций с новой моделькой в месяц)
Блогпост
Стрим с вечной музыкой
@ai_newz
CERN возобновила работу Большого адронного коллайдера (БАК) после двухлетнего перерыва, надеясь обнаружить "невидимую" материю, такую как темная материя, которая является ключом к пониманию Вселенной. Эксперимент, запланированный на 8 апреля, совпадает с солнечным затмением и предполагает столкновение протонов в 27-километровом туннеле под землей со скоростью, близкой к скорости света, чтобы воссоздать условия через секунду после Большого взрыва. Целью является изучение темной материи, составляющей около 28% массы Вселенной, и других субатомных частиц, которые могут дать ответы на вопросы о формировании и судьбе Вселенной🌚
https://www.dailymail.co.uk/sciencetech/article-13249813/amp/CERN-accelerator-smash-particles-solar-eclipse.html
Microsoft планирует построить для OpenAI суперкомпьютер за $100 миллиардов. Называется Stargate, запустят в 2028, это будет пятой стадией постройкой Microsoft суперкомпьютеров для OpenAI. Третью заканчивают сейчас, четвёртую запустят в 2026 году, а звёздные врата откроют уже в 2028, с планируемым расширением в 2030.
Жрать энергии оно будет вплоть до 5 гигаватт, так что питать его скорее всего планируют энергией ядерного синтеза – Microsoft год назад заключила контракт c Helion, компанией в которой у Сэма Альтмана большая доля, на поставку электроэнергии в больших объёмах, и как раз к 2028 году.
Большая часть денег уйдёт на чипы, а так как энергию скорее всего организовывает Альтман, то и с чипами может выйти такая история.
Со слов Альтмана, для создания superintelligence нам скорее всего понадобится значительынй прорыв в энергетике.
Проект очень рискован технически – не очень понятно получится ли питать, связывать и охлаждать такое количество чипов, особенно учитывая то что (по слухам) строить это всё будут в пустыне. Под землю что-ли все закопают? Реализация проекта ещё под вопросом и зависит от результатов GPT-5.
Что вообще они там собираются тренировать? 😢
@ai_newz
Компания xAI представила Grok-1.5, ИИ-модель с улучшенными рассуждениями и обработкой контекстов до 128 000 токенов. Особенностью Grok-1.5 являются выдающиеся результаты в задачах по программированию и математике: 50.6% на MATH, 90% на GSM8K и 74.1% на HumanEval (выше чем у GPT-4), что свидетельствует о продвинутых способностях генерации кода. Модель предлагает расширенную память для обработки длинных текстов и оптимизирована для эффективного масштабирования с помощью современной инфраструктуры на JAX, Rust и Kubernetes. Grok-1.5 скоро станет доступна для ранних тестировщиков на платформе 𝕏.
Читать полностью…Wow, тут стартап Hume AI выложил демо версию своего эмоционального ИИ-ассистента, который может по тону определять ваше эмоциональное состояние и отвечать в соответствии с ним🤯 Надеюсь OpenAI добавит такую же фичу в ChatGPT в ближайших апдейтах🌚
Пообщаться с ИИ-психологом тут (на англ), обратите внимание на реалистичность ИИ-голоса, интересно что у них там за LLM 🤔
Обожаю такие видосы ❤️
https://youtu.be/UNjMSFLkMZA?si=YvA_ryUvVxBtlQYH