@Futuris - канал о технологиях, будущем и не только. Contact @antonod
А теперь к важным новостям:
Учёные обнаружили в человеческом организме пришельцев👽 - ранее неизвестные микроскопические структуры, названные «обелисками». Эти образования, по форме напоминающие обелиски, были выявлены в бактериях, обитающих в ротовой полости и кишечнике человека. Обелиски схожи с вироидами — инфекционными РНК, поражающими растения, однако их влияние на здоровье человека пока не установлено. Открытие принадлежит группе исследователей под руководством лауреата Нобелевской премии по медицине Эндрю Файера из Стэнфордского университета. Обнаружение этих структур ставит под сомнение существующие представления о микробиоме человека и поднимает вопросы о возможном присутствии других невыявленных форм жизни в нашем организме.
Надеюсь это окажутся "медихлорианы" — источник силы в организме джедаев и ситхов 🌚
May the 4th be with you🙌
o3 и o3-mini пока в закрытом тесте (сказали будет публичный доступ в конце январе), но с ними OpenAI приблизились к созданию AGI. На первом скрине тест ARC-AGI — это тест, созданный для оценки способности искусственного интеллекта решать новые задачи с помощью абстрактного мышления, как это делает человек. Он состоит из визуальных головоломок и проверяет, насколько хорошо ИИ может адаптироваться вне рамок обучающих данных.
На других скринах тоже сильный прирост, в общем не шутки, но уверен будет стоить не меньше 2000$ за месячную подписку
Так, Google продолжает уничтожать 12 дней с OpenAI (что они сегодня релизнут? Возможность написать бумажное письмо ChatGPT без аккаунта и получить ответ через неделю?)
Так вот Google релизнули бесплатного конкурента o1 - модель с размышлениями (Gemini 2.0 flash thinking)
Тестим по традиции в AI studio с впн США
Команда из Google DeepMind представила новый бенчмарк - FACTS Grounding для оценки точности ответов больших языковых моделей. Этот инструмент проверяет, насколько модели опираются на предоставленные данные и избегают «галлюцинаций». Создана публичная база из 860 примеров, охватывающих такие сферы, как финансы, медицина и право. Результаты оценок ведущих моделей, включая GPT-4o и Claude 3.5, представлены на FACTS-лидерборде. Все ответы проверяются на соответствие запросу и точность. Разработчики надеются, что бенчмарк поможет улучшить точность LLM и стимулирует прогресс в индустрии👌
Читать полностью…А ещё вот такой плейграунд с картинками от гугл можно попробовать уже сейчас (с впн США) https://labs.google/fx/tools/whisk
Похоже, Google втянулись-таки в гонку AI-релизов 👌
Что показали
Поговорили про поиск в ChatGPT:
– Теперь он доступен для бесплатных пользователей тоже
– Поиск стал лучше, быстрее и тп.
– Поиск теперь работает во время разговора через Advanced Voice Mode
– Можно сделать поисковик чатгпт дефолтным в браузере (лицо Google представили)
Просто для понимания как можно юзать скриншер с нейронками, это оч круто, хотя пока немного и глючит, иногда вылетает, но представляю что будет через пару месяцев и когда им ещё дадут доступ к управлению🌚 (ChatGPT пока почемуто тока с мобилы получил доступ к видео, поэтому использовал гугл)
Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙♂️)
OpenAI обновили advanced voice mode, теперь он получил зрение и можно шарить экран, ну прям как гугл вчера
https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
Эмм, в Gemini 2, будет ( доступ дадут в январе) возможна не просто генерация картинок, а полноценное редактирование 🔥
Читать полностью…В Ai studio можно стримить/шерскринить и общаться с гемини 2.0 бесплатно✨ (То о чём я давно мечтал, просто пушка, можно с ним сериалы обсуждать которые смотрю, скрипты, игры, тексты, порядок в файлах на компе наводить да и вообще что угодно👌 такой а-ля Джарвис🤖)
https://aistudio.google.com/app/u/3/live
Помните DeepSeek китайский опенсорс аналог o1? Так вот, его обновили, сделали умнее и добавили веб поиск ✨
Юзаем тут (у меня рейндж поиска по 40-50 сайтов🤯)
https://sora.com/ - можно с обычной подпиской
Скоро будет доступна (в США сегодня) - заходим через впн проверяем
Чад Нельсон из OpenAI показал Sora v2 на C21Media Keynote в Лондоне. И он сказал, что мы увидим это очень очень скоро 🤯🤯🤯у меня нет слов, думаю у Netflix и подобных компаний тоже... чувствую это подготовка к публичному доступу к Sora v1, ну а мы можем посмотреть как будут выглядеть следующие генерации видео-LLM в ближайшем будущем🌚
Читать полностью…более подробно о тесте o3 на ARC-AGI
o3 — новая ИИ-система, которая продемонстрировала способность адаптироваться к новым задачам, значительно превышая возможности предыдущих моделей GPT.
Результаты:
На Semi-Private Evaluation (100 задач) o3 набрал:
75.7% при ограниченном бюджете вычислений ($10k).
87.5% с высоким уровнем вычислений (172x больше).
На Public Evaluation (400 задач) результаты составили 82.8% (ограниченный бюджет) и 91.5% (высокий уровень вычислений).
Прорыв:
Это первый случай, когда ИИ достиг такого уровня обобщения, что сравним с человеческим.
Для сравнения, GPT-4o ранее набирал только 5% на аналогичных тестах.
Особенности o3:
Применяет новый подход, основанный на поиске и выполнении программ в текстовой форме для решения задач.
Способен комбинировать знания и адаптироваться к новизне, что ранее было невозможно для моделей GPT.
Вызовы:
Затраты на решение одной задачи (в низкоэффективном режиме) всё ещё выше человеческих (~$17-20 против $5 у человека).
Несмотря на высокую производительность, система всё ещё далека от уровня AGI (общего искусственного интеллекта).
Будущее:
В 2025 году планируется запуск нового теста ARC-AGI-2 для повышения сложности и продолжения исследований.
OpenAI планирует делать эти технологии более доступными и эффективными.
Вывод: OpenAI o3 — это качественный скачок в ИИ, демонстрирующий адаптивность и способность решать принципиально новые задачи. Это пока не AGI, модель всё ещё может совершать ошибки на совершенно простых задачах.
Немного слухов👀
Сегодня посдений из 12 дней OpenAI и тут Сэм начал на что-то намекать (хохнул и охнул 3 раза) и в других местах просочилась (случайно?) инфа про релиз следующей генерации мыслящих моделей gpt4-o3 (сразу 3 потому что 2 якобы занята каким-то трейд марком)
В общем последний шанс у Сэма превратить shitmass в shipmass в этом году 🌚
🤯тут реддит взорвал проект Genesis — результат 24-месячного масштабного сотрудничества более 20 исследовательских лабораторий - это генеративный физический движок, создающий 4D-динамические миры для робототехники и физического ИИ. Разработанный на Python, Genesis в 10-80 раз быстрее GPU-решений и обеспечивает симуляции в ~430 000 раз быстрее реального времени. Обучение робота занимает всего 26 секунд на RTX4090.
Genesis — полностью открытая платформа (GitHub), которая интегрирует передовые физические алгоритмы для создания реалистичных виртуальных миров. Она предназначена для автоматической генерации данных: от задач для роботов до интерактивных 3D-сцен.
Github - https://github.com/Genesis-Embodied-AI/Genesis
BIG if true✨ pip install genesis-world
куча крутых примеров тут https://genesis-embodied-ai.github.io/
Короче, Танк - загружай (если что отсылка к Матрице🕶)
А вот и полноценная Gemini 2.0✨
Можно попробовать её в AI Studio (exp 1206) или в самом Gemini Advanced (месяц бесплатно)
к слову о "лице" Google - это количество источников которые лопатит Gemini если включить DeepSearch (по платной подписке)
Читать полностью…Google выкатили обновления для своих инструментов генерации видео и изображений⚡️ Veo 2 теперь поддерживает создание 3D-видео и анимации, а Imagen 3 улучшает качество и реалистичность сгенерированных изображений. Кроме того, представлен новый инструмент Whisk, предназначенный для упрощения совместной работы над мультимедийными проектами. Эти обновления будут доступны всем в ближайшее время (пишут про начало 2025) в Google Labs и направлены на расширение возможностей пользователей в создании визуального контента✨
Читать полностью…Microsoft испекли на синтетических данных свеженькую phi-4 модельку на 14B параметров, которая сравнима и даже местами лучше gpt4o 🤯🤯
From the report:
> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.
Можно будет локально запускать, I will believe it when I see it 🙈
Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
Компания Google представила шестое поколение AI-чипов Trillium, которые обеспечивают четырехкратный прирост производительности обучения по сравнению с предыдущей версией🤯 Эти чипы используются для обучения и вывода новой модели AI Gemini 2.0. Trillium также демонстрирует 67% увеличение энергоэффективности и 2.5-кратный прирост производительности на доллар, что может изменить экономику разработки AI. Google объединила более 100 000 чипов в единую сеть, создав один из самых мощных суперкомпьютеров в мире. Это усиливает конкуренцию в области AI-аппаратного обеспечения, бросая вызов доминированию Nvidia.
Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
Собственно вот и презентация нового поколения Gemini 2.0 и первая модель в этом семействе стала Gemini 2.0 flash. В 2025 году её интегрируют прямо в гугл поиск, также появятся агенты, которые смогут выполнять действия в браузере за вас. И ещё представили проект Astra - цель которого создание универсального ИИ-ассистента, для решения любых задач на пк (не тока в вебе) и проект Jules - инструмент для разработчиков, интегрирующий ИИ-агента в рабочие процессы GitHub для помощи в работе с кодом.
В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие✨
Google релизнули Gemini 2.0 Flash⚡️
Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США
А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
On Day 4 OpenAI обновили Canvas (который мне очень нравится, буду тестить😏)
– Теперь доступен для всех
– Модель может комментировать текст или код
– Поддержка кастомных GPT
– Выполняет и исправляет Python-код
за 20$ подписку дают 1000 кредитов в мес, которые сгорают если не пользоваться, WE NEED MORE 💰💰💰 MY LORD - мож через год будет бесплатно 480p, посмотрим🤷♂️
чёт меня не впечатлило, особенно когда увидели что сможет Sora2, в общем жду ответа конкурентов, а OpenAI, мало того что CLosed так ещё и Greed становится🤨
Сегодня выкатят Sora и по ней уже есть обзор https://youtu.be/OY2x0TyKzIQ?si=Eo_i1mPWeuHq6Wee
Ещё примеры тут
Осталась только интрига кому и за сколько будет доступна 🌚
Умельцы прикрутили нейронки к blender✨ эх запустить бы на какой LLaMA 3.3 70B локально🌚
https://github.com/huggingface/meshgen
если что у новой модельки Gemini-exp-1206, которая всех уложила на лопатки по метрикам ещё и 2 млн токенов контекст!!!
UPD
на стриме показали, что o1 можно будет файнтюнить по своему датасету на минимальном количестве примеров🫡