Вот примерно так можно теперь работать с текстом (там ещё и самому правки можно inline вносить, но мне лень было)
Ещё почему-то отказался в сети инфу искать, но думаю скоро поправят - работать с текстом никогда не было так кайфово👌
Для сравнения вот изначальный текст
Тут уже с использованием Canvas
Ну и с кодом я уверен будет тож круто, постараюсь позже протестить
OpenAI представили Canvas - надстройка в чате, которая упрощает отслеживание и понимание изменений в коде и тексте.
Он также может проверять код, добавлять журналы и комментарии, исправлять ошибки и портировать его на другие языки программирования, такие как JavaScript и Python. Привет Artifacts от Anthropic. Пока доступно по платной подписке (ещё не получил доступ 🌚)
Тут модельку gpt-o1 (не preview) дали пощупать избранной группе учёных и вот такой комментарий "Researchers who helped to test OpenAI’s new large language model, OpenAI o1, say it represents a big step up in terms of chatbots’ usefulness to science."
Как пример в статье упоминается, что ученый из Bay Area Environmental Research Institute использовал модель o1 для воспроизведения кода своего проекта, который рассчитывал массу черных дыр. Он отметил, что модель справилась с задачей за час, тогда как ему самому потребовались месяцы на выполнение этой работы. Учёные отмечают её способность решать сложные задачи по физике/математике иногда даже превосходя уровень PhD специалистов, но также сохраняется достаточно высокий уровень галлюцинаций. Но учитывая, что это первая версия, которую Сэм сравнивает с GPT-2, можно предположить, что совсем скоро нас ждёт очередной скачок в её способностях🤓
А ещё Google подтверждает, что уже тестирует цепочку размышлений в своих новых моделях, да и кто бы сомневался, но видимо не спешат с релизом, чтобы уже наверняка выглядеть как минимум не хуже конкурентов 👌
В общем следующий год обещает быть ещё более ИИ-насыщенным чем все предыдущие, представьте новость в одной из ведущих тех-компаний "AGI was achieved internally", вполне возможно скоро мы это и увидим 🌚
Немного дистопии: студенты из очков и кода собрали шпионский гаджет, который в реалтайме ищет инфу о любом человеке в кадре (домашний адрес, телефон, кто по жизни и тд) и выдаёт короткое саммари на телефон, теперь представьте что есть у спец служб (любых стран) 🌚
Читать полностью…Тут кто-то замутил AI компаньона для любой игры👾 всё достаточно просто и гениально, делаются скрины областей экрана (или всего экрана, шорткаты забиты на любой случай, даже ваш вопрос голосом можно задать) и идёт аудио ответ через апишки любых моделей 👌 думаю даже попробовать, особенно будет прикольно когда модельки начунут видеть экран (а они начнут)
Кому интересно качать тут
По аналогии с началом сентября, когда некоторым пользователям показывали два варианта ответа, один из которых был от моделей o1 (Strawberry), сейчас в выдачу подмешивают варианты, где явно задействован поиск по интернету (или по крайней мере по набору внешних источников).
Напомню, что OpenAI летом анонсировали SearchGPT, которую выдали всего +-10'000 пользователей как раннюю альфу.
Возможно, релиз скоро 😟
Источник скрина
А ещё пишут Advanced Voice mode собираются выкатить даже бесплатным пользователям (видимо с сильным лимитом) - логичный ход, чтобы потом привлечь ещё больше ЗОЛОТА💰💰😈.... кхм подписок👌
Читать полностью…Немного про последние новости OpenAI 🌚🌚
В конце у руля останется AGI, который они и создают (или уже создали)👌
Институт искусственного интеллекта Аллена (Ai2) представил Molmo — новую линейку мультимодальных AI моделей с открытым исходным кодом. Эти модели превзошли таких конкурентов, как GPT-4o от OpenAI и Claude 3.5 Sonnet от Anthropic, на нескольких независимых тестах. Molmo умеет обрабатывать изображения и файлы, а для обучения использует в 1000 раз меньше данных, чем конкуренты.
Molmo превосходит другие модели на ряде бенчмарков, особенно по работе с изображениями и текстом. Вот некоторые ключевые тесты, где Molmo-72B показала лучшие результаты:
DocVQA — Тест на понимание документов в формате вопрос-ответ, где Molmo-72B набрала 96.3 балла, обойдя такие модели, как Gemini 1.5 Pro и Claude 3.5 Sonnet.
TextVQA — Бенчмарк для распознавания текста на изображениях, где модель также показала результат 85.5 балла, превосходя аналогичные модели.
AI2D (A Diagram Is Worth A Dozen Images) — Набор данных, состоящий из научных диаграмм и аннотаций, где Molmo-72B достигла наивысшего результата среди всех моделей, набрав 96.3 балла.
Сейчас доступно image-to-text демо
И сами модельки на huggingface
У Meta выходит свой voice mode и он будет open source 🔥🔥🔥
Доступен с сегодняшнего дня бесплатно!
✨✨✨
Неужели дождались, ещё и голоса новые😋
UPD
Advanced Voice пока недоступен в ЕС, Великобритании, Швейцарии, Исландии, Норвегии и Лихтенштейн, поэтому заходите через VPN других стран и будет работать 👌
А ещё Альтман разродился на манифест, который мне показался недостаточно эпичным, поэтому я попросил его же (Альтмана) творение исправить это упущение:
Эпоха Разума
В недалеком будущем мы сможем творить то, что наши предки считали бы магией. Человечество всегда шло по пути прогресса, но теперь его скорость стремительно нарастает. Наша сила — не в изменениях человеческой природы, а в знаниях и технологиях, возведённых поколениями до нас.
Искусственный интеллект откроет двери к новому миру. Он решит задачи, которые сегодня кажутся непосильными. Наши потомки будут работать с целыми AI-командами, создавая невероятные вещи и прокладывая путь к звёздам.
Эта грядущая Эпоха Разума принесёт беспрецедентное процветание. С неограниченным разумом и неиссякаемой энергией мы станем покорять галактику, пересекать космические просторы и сеять жизнь среди звёзд. Будущее ослепительно яркое, и перед ним меркнет всё, что человечество знало до сих пор. Мы стоим на пороге эпохи, где ни одна мечта не будет недосягаемой.
✨✨✨✨✨
На реддите пишут OpenAI начали выкатывать Advanced Voice Mode, у меня сообщенка тоже поменялась, ждём ✨
Читать полностью…Эмм, немного о том как создали Canvas, тоесть OpenAI уже в точке где ИИ использует синтетические данные и улучшает сам себя, теперь понятно почему там такие волны увольнений, люди больше не нужны 😅
Кстати очень крутая штука, уже тестирую👌
Ну вот, прошёл год и международная группа учёных смогла создать полную 3д карту мозга мухи дрозофилы (130к нейронов и 50 млн синапсов) ✨почему это важно? Ну с помощью исследования того как функционирует мозг мухи можно провести параллели и лучше понять как работает мышление в мозгу человека и потенциально применять открытия в новейших нейронных сетях, тем самым раскрывая секреты нашего мозга и способствуя созданию AGI 👌
https://www.bbc.com/news/articles/c0lw0nxw71po
Ожидаемо, у Microsoft обновился Copilot, но вот радует, что хоть это и клон chatgpt, но в него ещё добавили экспериментальную функцию Vision, которая позволяет ИИ видеть ваш экран в онлайне, пока будет доступна ограниченному кругу пользователей, но думаю скоро раскатят и на всех👌
А также: Copilot Voice (привет урезанный Advanced Voice Mode), Think Deeper (пошаговые размышления - привет gpt-o1), Copilot Labs (Площадка для тестирования экспериментальных функций) и новый дизайн интерфейса✨
Эмм, тут 17 октября нас ждёт презентация "нового мира", а точнее Worldcoin, который представит Сэм Альтман 🤯
Напомню, что это был проект мировой криптовалюты, основанной на биометрии глаз👀 которые будут сканироваться специальным устройством ORB
Неужто Сэм начнёт реализацию своей идеи UBI (универсального дохода)? Только сначала нужно будет отдать часть души.. 😈
В общем полный киберпанк - ждём, смотрим✨
https://live.worldcoin.org/
Интересный поворот, все думают, что ИИ будет убивать профессии и отрасли, но тут Runway пошли против тренда:
The Hundred Film Fund от Runway предназначен для финансирования 100 фильмов, использующих технологии ИИ на разных этапах производства. Фонд поддерживает режиссёров, продюсеров и сценаристов, помогая им завершить проекты, предлагая гранты от $5000 до $1 млн, а также кредиты Runway на сумму до $2 млн. Фонд стремится поддерживать новые идеи и истории, которые не всегда получают финансирование через традиционные каналы. Проекты всех форматов, включая короткометражные, экспериментальные фильмы и музыкальные клипы, могут подать заявку.
https://runwayml.com/hundred-film-fund
Надеюсь фаны наконец переснимут известные адаптации типа Колец Власти и все новые части Звёздных Войн по канонам 🌚
Тут DeepMind представил AlphaChip — ИИ - систему для автоматизации проектирования чипов. (Вспоминаем AlphaGo и AlphaFold). Эта система используется для создания чипов для Google Tensor Processing Unit (TPU), которые играют ключевую роль в ускорении работы ИИ-моделей, таких как Gemini. Так вот CEO DeepMind поясняет - что это и есть начало рекурсивного самоулучшения ИИ: AlphaChip используется для создания лучших ИИ-чипов, которые затем помогают тренировать лучшие модели. Эти модели, в свою очередь, позволяют разрабатывать ещё более совершенные чипы... hello AGI🌚
Думаю Google нас ещё сильно удивит
На text-to-image арене появилась совершенно новая и непонятная модель для генерации картинок blueberry_0, которая побивает всех на свете, включая FLUX и Ideogram
Это тонкий троллинг strawberry или это опенАИ сами троллят?
Судя по тому, как она уходит от фотореализьма, это может быть та самая Dalle-4o, про которую нам намекали в мае.
Но качество (по крайней мере на арене.. ну такое).
Давайте сюда теории заговора, что это за модель?
И нет, это не Mystic v2, Мистик - это просто Флюкс с украшалками.
https://huggingface.co/spaces/ArtificialAnalysis/Text-to-Image-Leaderboard
На реддите народ бьется в истерике уже сутки...
https://www.reddit.com/r/StableDiffusion/comments/1fp6w4n/_/
@cgevent
Извините за качество аудио (не могу найти способ записать прямо с телефона, а другого девайса кроме ноута рядом нет) и за то что уставший, но вот вам ещё монолог Джокера на ночь🌚 По моему голос получился точно как в дубляже)
Матерную версию с Гарри Поттером оставлю на завтра)
Ну вот и мой первый тест, только так теперь с ним буду общаться 😈
Думаю если дальше буду его перебивать, то заберёт душу 🌚 а вообще я уже хочу рок оперу в таком исполнении 🔥
Ой, а что это за сообщение я получил ✨✨✨✨
Можете переустановить прилагу и по идее сразу будет обнова
Тесты пришлю позже🌚
Чуда не произошло, Google выпустила обновлённые модели Gemini 1.5 Pro и 1.5 Flash с улучшенными характеристиками. Стоимость 1.5 Pro снижена на 50%, а скорость вывода увеличена в два раза. Модели поддерживают более длинные контексты, улучшили качество работы с текстом, кодом и визуальными данными.
Ждём анонсов посерьёзнее