78470
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
Meta* под конец года выпустили прекрасную статью, в которой предложили новый способ обучения агентов
Современный ИИ все еще напрямую зависит от человеческой разметки и человеческих данных в целом. И с этим куча проблем: дорого, долго, "данные кончаются" и тд.
В Meta к тому же уверены, что это в принципе жеский потолок на пути к AGI: если учить агентов только на человеческом следе, то обучение сводится к шлифовке человеческого опыта. Тогда можно ли быть на 100% уверенным, что такие системы могут научиться чему-то вне распределения и стать умнее нас? Особенно это относится к таким областям, как кодинг, о котором дальше и пойдет речь.
Исследователи предложили Self-Play SWE-RL – способ обучать агентов так, чтобы они самосовершенствовались на своих же данных.
Состоит Self-Play SWE-RL из двух сущностей: Bug-injector и Bug-solver. На вход системе поступает какой-то репозиторий с кодом, Bug-injector изучает его, ломает код и ослабляет тесты так, чтобы баг спрятался.
Задача Bug-solver очевидна: починить код, и при этом без issue-текста, без подсказок, без готовых тест-раннеров. И если в процессе он сам что-то поломал, этот кейс тоже становится частью датасета и расширяет выборку.
Нужно понимать, что это не просто синтетические баги. Тут ломает и чинит код одна и та же политика (то есть это просто разные роли одного агента). В этом смысле подход чем-то напоминает GAN: солвер учится за счет того, что инджектор становится умнее, и наоборот.
Результаты следующие:
– Code World Model (CWM) на 32B, которая уже прошла этап sft и которую обучали таким образом, вышла на +10.4% на SWE-bench Verified и на +7.8% на SWE-bench Pro
– Если сравнивать с обычным RL, то такой подход дает +2.4% на SWE-bench Verified и на +3.6% на SWE-bench Pro
Не прорыв, конечно, но редко какой пайплайн сегодня дает такие ощутимые приросты, так что довольно интересно (но код, к сожалению, не дали).
https://arxiv.org/pdf/2512.18552
За этот год ИИ в России стал заметно приземлённее
И это, пожалуй, главный сдвиг. Всё меньше разговоров «про потенциал» и всё больше решений, которые встраиваются в уже работающие процессы и дают быстрые результаты.
Вот несколько российских ИИ-стартапов из этой сферы:
CyberPhysics научили ИИ предсказывать поломки оборудования без установки дополнительных датчиков, только по данным, которые уже есть у завода.
Bitrobotics создали CV-роботов, которые помогают автоматизировать рутину на производстве.
«Синтелли» разработали ИИ‑платформу, которая быстро анализирует для химиков и фармацевтов колоссальные объёмы молекул и реакций.
Slider AI запустили ИИ для сбора презентаций из данных пользователя.
HiveTrace придумали, как в режиме реального времени защищать GenAI-приложения от атак и утечек.
Эти кейсы показывают текущее состояние рынка: ИИ становится частью инфраструктуры. Подробный разбор этих проектов и общей логики рынка — в блоге Яндекса.
Кстати, для команд с рабочими прототипами это ещё и сигнал, что вокруг таких решений постепенно формируется поддержка — в том числе через индустриальные программы и акселераторы.
«В ближайшие 12-18 месяцев ВВП вырастет более, чем на 10 процентов» – заявил Илон Маск.
Также, по его мнению, если прикладной ИИ окажется прокси-метрикой для экономического роста, то примерно за 5 лет возможен уже «triple-digit», то есть рост свыше 100% в год.
В комментариях объявляется конкурс: нужно вспомнить хотя бы одно предсказание/обещание Илона Маска, которое сбылось 🤔
Создатели ARC-AGI объявили, что начали работать над четвертой и пятой версиями бенчмарка
Напоминаем:
– ARC-AGI 1: простенькие для человека пазлы в формате "дано несколько примеров цветных сеток, продолжи логический ряд". Проверяется способность к минимальному абстрактному рассуждению и обобщению. Примеры тут.
– ARC-AGI 2: тот же формат цветных сеток, но задачи заметно сложнее даже для человека (средний уровень людей – 60%). Выше композиционная сложность + есть защита от простого перебора. Примеры.
– ARC-AGI 3: уже не статичные паззлы, а интерактивные игровые среды (тестируют уже не LLM, а агентов). И агент должен воспринимать, планировать и действовать много шагов подряд в новых незнакомых условиях. Проверяется способность к адаптации и гибкости мышления. Примеры.
! Официально ARC-AGI 3 еще не вышел, его выпускали только в превью. Вчера создатели наконец объявили, что собираются запустить бенчмарк в марте, а также рассказали, что начинают работать над следующими версиями 4 и 5. Пока нет ни слова о том, что это будет. Но, вероятно, нужно снова ожидать какую-то игровую историю, только еще более усложненную.
За последние два года OpenAI потеряла половину своей доли enterprise рынка
Menlo опубликовали свой ежегодный отчет об ИИ-рынке. Они насчитали, что с 2023 доля OpenAI на рынке LLM API драматично упала с 50 до 27 процентов.
В лидеры сейчас выбились Anthropic, у них 40% рынка (хотя в 2023 было почти в три раза меньше). Дальше OpenAI со своими оставшимися 27%, и на третьем месте Google (~21).
🔵
Развернуть PostgreSQL в MWS Cloud Platform ⬜️ — быстрее, чем вспомнить пароль от pgAdmin. И точно быстрее, чем объяснить DevOps'у, зачем ещё одна база.
Всего несколько минут и у вас:
⏺️готовая база на сетевых или локальных дисках
⏺️постоянный primary endpoint
⏺️безопасное подключение через Private Link
⏺️автоматические бэкапы и обслуживания по твоему расписанию
J'son & Partners показали свежее исследование, где сравнивают, как разные страны готовят будущих ML-инженеров. Главная проблема – спрос на ИИ-спецов везде растёт быстрее, чем универы успевают адаптироваться😳
Каждая страна выкручивается по-своему.
Например, в Китае всё максимально централизовано. Государство задаёт жёсткие требования к программам и масштабирует их на всю систему образования.
В Штатах, наоборот, рулят университеты. Они автономны, сильны в исследованиях и сами пересобирают свои программы под рынок. Красиво, но есть нюансы: обучение дорогое, а выпускники часто получают очень разнородные компетенции.
В России ИИ-образование строят на стыке вузов и бигтехов – компании участвуют в запуске бакалавриатов и магистратур. Причем делают это давно: яндексовский ШАД, например, готовит ML-щиков с 2007 года и его курсы легли в основу ряда программ в МФТИ, ИТМО, Вышке и других университетах.
Помимо этого, бигтехи участвуют и в процессе обучения: практикующие инженеры приходят преподавать на IT-программы. И вряд ли для них это про доп заработок, скорее про то, чтобы внести свой вклад в новое поколение ML-инженеров.
Такая вот модель – аналитики говорят, вполне устойчивая в долгосроке.
Сэм Альтман про конкуренцию с Google*
➖ В 2023 году Google могла бы легко снести OpenAI, если бы компания отнеслась к стартапу серьезно и сфокусировалась на ИИ. Сейчас им сложнее наверстать упущенное.
➖ Дистрибуция Google колоссальна, но по качеству продукта и скорости эволюции OpenAI, как считает Альтман, может выиграть.
➖ Он называет бизнес-модель Google лучшей во всей технологической индустрии, но именно из‑за этого, по его словам, им трудно отказаться от классического поиска с рекламой ради радикально нового AI‑продукта. OpenAI же, грубо говоря, нечего терять.
➖ Google остается главным и очень опасным конкурентом. OpenAI, чтобы не отстать, планируют «строительство полноразмерной AI‑платформы, включающей модели + инфраструктуру + устройства/интерфейсы».
*из нового подкаста youtu.be/2P27Ef-LLuQ
ARC-AGI 2, фактически, можно признавать решенным: система от стартапа Poetiq выбила ~75%
Про подход этих ребят мы уже писали тут. У них нет своих моделей, они берут сильные базовые (в этом случае GPT-5.2) и с помощью специального пайплайна бустят их производительность.
То есть это, фактически, просто test-time надстройка над GPT-5.2: цикл с генерацией гипотез, самопроверками, программным поиском и тд.
Но в то время, как оригинальная GPT-5.2 выбивает около 60%, здесь результат на 15 процентных пунктов выше. Это первая система, которая настолько уверенно обходит на ARC-AGI-2 уровень среднего человека.
Стоимость, кстати, остается при этом в рамках +-адекватной нормы: 8 долларов на задачу.
Код от Poetiq
POV: ИИ-компании смотрят на те самые 300ТБ Spotify треков на Anna’s Archive
Читать полностью…
Подвезли свежие подробности о стартапе Яна Лекуна
Напоминаем, что ученый спустя 12 лет работы уходит из Meta и собирается строить собственный стартап.
Компания будет заниматься разработкой world models, то есть систем, которые понимают физический мир, обладают постоянной памятью, могут рассуждать и планировать сложные действия. Лекун обещает, что это будет следующая ИИ-революция.
Так вот, стало известно, что компания будет называться Advanced Machine Intelligence (AMI Labs), и что CEO в ней станет Алекс ЛеБрун.
ЛеБрун ранее работал в Nuance (основа Siri), затем руководил AI в Facebook, а потом в 2018 основал и возглавил Nabla – AI-стартап по медицинской транскрипции. Теперь Nabla будет сотрудничать с AMI Labs, а Алекс займет пост генерального директора. Сам Лекун будет Executive Chairman.
Кроме того, появились некоторые детали касательно финансирования: сейчас стартап ищет €500 млн инвестиций (около $586 млн) при оценке в €3 млрд (около $3,5 млрд).
Да, вы не ослышались, компанию оценили в три миллиарда евро еще до запуска.
Официальный старт проекта, кстати, запланирован на январь.
Avocado и Mango: две новые модельки от Meta*
Появился слух, что компания разрабатывает и в ближайшем будущем планирует выпускать новую сильную LLM (Avocado) и image/video модель (Mango). Об этом рассказал Александр Ван.
К сожалению, по предварительной информации, обе модельки будут закрытые. Видимо, вместе с уходом Лекуна кончается и опенсорсная эра Meta.
Жалко, конечно. Ну надеемся, что хотя бы уровень моделей будет достойный. Не зря же Цукерберг 100500 миллиардов спустил на хантинг.
Новый вайб-проект от Андрея Карпаты: проверяем, какие предсказания из 2015 сбылись
Исследователь провел маленький, но очень занятный эксперимент. Он взял 930 фронтпейдж-тредов Hacker News за декабрь 2015 года (посты + комментарии) и прогнал их через GPT-5.1 Thinking с задачей «оценить задним числом и определить, какие прогнозы были наиболее правдивыми».
В итоге 3 часа вайбкодинга, 60 долларов и вуаля: получилась система, которая ранжирует прогнозы по правдивости, исходя из того, что происходит спустя 10 лет.
Кому интересно, посмотреть результаты можно здесь, местами очень забавно.
Но проект, вообще-то, интересен еще и с теоретической точки зрения. Как пишет и сам автор, такой In-hindsight анализ = инструмент обучения предсказательному мышлению.
Если LLM может систематически разбирать, почему одни прогнозы переживают 10 лет, а другие нет, то это можно использовать для обучения моделей самостоятельно предсказывать будущее.
Тогда получается, что каждый ваш (или чей-то еще) коммент или пост в интернете – это своего рода future-labeled sample, у которого спустя время появится «правильный ответ», сбылось/не сбылось/было чушью. А какая-нибудь будущая модель, увидев много-много таких обучающих сигналов, научится надежно понимать, как приходить к статистически сбывающимся предсказаниям и тогда… 🤯
Ну, в общем, как когда-то сказал Карпаты:
Be good. Future LLMs are watching.
Код | Блогпост
🖥🖥🖥🖥🖥🖥🖥🖥🖥🖥
🖥🖥🖥🖥🖥🖥🖥🖥🖥
🖥🖥🖥🖥🖥🖥🖥🖥🖥
Ваш путеводитель по ИТ
Каждый разработчик знает
ощущение, когда в проекте
накапливается техдолг, а
автотесты начинают жить
своей жизнью. В такие моменты
могут помочь кейсы от коллег
по цеху: как допилить CI/CD, как
сэкономить время на фиче или
как спасти продукт в кризисное
время.
Именно такие истории
регулярно появляются в МТС
True Tech вместе с разбором
технологий и подборками
инструментов.
А еще у сообщества есть офлайн
и онлайн-мероприятия. Совсем
недавно прошел True Tech
Champ — чемпионат по
алгоритмическому
и робототехническому
программированию с призовым
фондом более 10 млн рублей.
Анонсы следующих событий вы
сможете найти также в
@truetechcommunity, там проще
всего за ними следить.
🖥🖥🖥🖥
Реклама. ООО "МТС Веб Сервисы".
ИНН 7707767501. Erid: 2W5zFHYZSek
Пища для размышлений вам на вечер: Ян Лекун заявил, что понятия «general intelligence» вообще не существует
Обычно этот термин употребляют, чтобы обозначить человеческий уровень интеллекта, но, по его словам, человеческий интеллект очень узкоспециализирован. Мы хорошо ориентируемся в мире и общаемся, но есть много вещей, в которых мы плохи (например, шахматы) и вещей, в которых животные лучше нас.
«Мы думаем о самих себе как об общем интеллекте, но это только иллюзия. Наш интеллект общий только в тех задачах, которые мы можем придумать, но есть много задач, о которых мы и понятия не имеем. Так что general intelligence полная чушь.»
«Если Ян может рассуждать об интеллекте в целом, то он уже представить общего интеллекта, а не узкоспециализированного. Да, в шахматах мы хуже компьютеров, но мы можем играть в любые игры и понимать, почему та или иная стратегия хуже или лучше (неважно, насколько хорошо мы это делаем). Конечно, есть пределы, но в широком смысле это и есть универсальность интеллекта»
Ну и добивочка от Андрея под тем же постом: «Если вы не следите за новостями хотя бы 30 дней, ваши взгляды уже устарели»
Это вам на случай, если вы хотели устроить диджитал детокс на январских 🙄
P.S. Эти два сообщения пахнут, как еще +20 миллиардов к стоимости Anthropic
Андрей Карпаты заявил, что чувствует себя отстающим программистом в мире ИИ
Вот что он написал:
Я никогда не чувствовал себя настолько отстающим как программист. Профессия радикально переписывается: вклад человека в код становится все более разреженным и фрагментарным. Возникает ощущение, что я мог бы быть в десять раз эффективнее, если бы действительно научился связывать воедино все то, что появилось за последний ~год, и неспособность открыть для себя этот буст ощущается откровенно как skill issue.
Появился новый программируемый уровень абстракции, который нужно освоить (в дополнение ко всем привычным уровням ниже): агенты и субагенты, их промпты, контексты, память, режимы, права доступа, инструменты, плагины, навыки, хуки, MCP, LSP, слэш-команды, воркфлоу, интеграции с IDE – и необходимость выстроить всеобъемлющую ментальную модель сильных и слабых сторон сущностей, которые по своей природе стохастичны, ошибочны, неинтерпретируемы и постоянно меняются, но при этом внезапно переплетаются с тем, что раньше было просто старым добрым инжинирингом.
Нам всем как будто раздали мощный инопланетный инструмент, но без инструкции. Каждый вынужден сам разбираться, как его держать и как им пользоваться, в то время как профессия переживает землетрясение магнитудой 9. Засучивайте рукава, если не хотите остаться позади.
Авито переходит от локальных кейсов использования LLM к полноценным агентам
Стало известно, что технологическая платформа начала тестирование двух ИИ-ассистентов: Ави для покупателей и Ави Pro для продавцов.
➖ Ави станет полноценным помощником в выборе товаров. Агент подбирает релевантные предложения по описанию задачи и помогает разобраться в различиях между вариантами. Его специально обучали понимать даже размытые промпты, и, судя по статистике, эффект от внедрения должен быть огромный: 59% пользователей приходят на платформу без четкого запроса, а 43% уже готовы доверить выбор цифровому ассистенту.
➖ Ави Pro для продавцов будет помогать вести бизнес эффективнее. В частности, в нем хорошо прокачали tool use, и агент сможет детально анализировать статистику объявлений с учетом действий покупателей и других игроков, выявлять причины изменений в показателях и подсказывать, как повысить эффективность продаж. Опять же, по стататистике, 24% продавцов уже используют внешние ИИ-сервисы, так что спрос на агента, вероятно, будет немалый.
В Авито, кстати, намекают, что это мультиагентная система. Оба сервиса уже начинают тестировать на ограниченных группах пользователей, а в 2026 на их развитие выделят 1 млрд руб.
А вы знали, что Disney разрабатывают аква-роботов?
Сегодня наткнулись вот на такое видео. Стало интересно, мы погуглили, и оказывается, что:
– История аква-роботов в Disney началась еще 20 лет назад, и тогда это были базовые подводные дроны с моторчиками для вертикального/горизонтального контроля. Они были больше похожи на что-то радиоуправляемое.
– Недавно, примерно в 2020, начали появляться уже более новые биомиметрические прототипы, которые имитировали дельфинов. У них уже были плавники вместо пропеллеров, чтобы движения были более плавные.
– И в 2025 у них вышли почти автономные гидрофойлы с GPS, ультразвуковыми сенсорами и системами самобалансировки. Пока они предназначены в основном для шоу в парках Disney. В компании говорят, что их вдохновляли реальные водные животные и (внимание) существа из второй части Аватара 🤔
Короче, вы видите перед собой будущее дельфинариев
Вот вам новогодняя открытка в честь последней пятницы в году
Читать полностью…
OpenAI завезли новогоднего настроения: они выпустили новую версию Codex под названием GPT-5.2-Codex-XMas
По качеству это ровно та же самая GPT-5.2-Codex (к сожалению), но личность модели выкручена в соответствии с сезоном. Так что кто хочет покодить с Санта Кодексом – вперед, модельку уже раскатили 🎄
$ codex -m gpt-5.2-codex-xmas
Приятно: Anthropic удвоили все лимиты в платных тарифах на время праздников 🎁
Читать полностью…
«Плотность ИИ на гигабайт в Tesla на порядок выше, чем где бы то ни было» – Илон Маск
Так он прокомментировал твит Андрея Карпаты о том, что Tesla и Waymo сейчас находятся примерно на одном уровне.
Понимание Андрея устарело на данный момент. Программное обеспечение Tesla AI значительно продвинулось со времен, когда он ушел.
Google релизнули новую версию своего «LLM-микроскопа» – Gemma Scope 2
Это модель, а точнее набор инструментов (interpretability tools), предназначенный для интерпретации поведения LLM. В частности, из семейства Gemma 3.
Работает Scope на основе SAE – это разреженные автоэнкодеры. Они представляют из себя модели, которые распутывают активации LLM и достают из них интерпретируемые концепции. Их называют «фичи»: это могут быть вещи из реального мира (мосты, коровы) или абстракции (ложь, отзывчивость).
По сути, анализируя эти фичи, мы можем видеть, о чем на самом деле думала модель, генерируя тот или иной output. Например, она генерирует с виду безобидный код, но «думает» о концепции «кибератака». И это о чем-то нам говорит.
SAE, кстати, еще в 2023 предложили использовать Anthropic (вот наш разбор их статьи, которая сделала подход популярным). Но именно Google вывели автоэнкодеры на уровень продакшена. Сейчас это, фактически, первый и единственный открытый инструмент для вот такой детальной интерпретации LLM.
Первая версия Scope вышла в 2024. Тогда это работало только для небольших моделей и простых запросов. Теперь же подход масштабировали даже для модели на 27B.
Плюс, теперь инструмент стал более универсальным. Если оригинальная Scope существовала только для ограниченного числа слоев, то теперь можно целиком анализировать сложные диалоговые механизмы.
Судя по статье, в основном это получилось благодаря добавлению в модель Skip-transcoders и Cross-layer transcoders. Это модули, которые помогают увидеть связи между отдаленными слоями и облегчают анализ распределенных вычислений. А еще, кстати, SAE обучали по методу матрешки, как Gemma 3n (мы писали про этот метод вот тут).
Если хотите попробовать и покопаться в мыслях у моделей:
– здесь все необходимые веса
– здесь полезный Colab ноутбук с готовым кодом
– здесь техотчет, а вот тут хорошая понятная документация
Бывший Head of Deep Learning Engineering в DeepMind Дэвид Бадден внезапно заявил, что он решит проблему Навье-Стокса до конца года
Напоминаем, что это одна из проблем тысячелетия и, кстати, именно та задача, над которой Google совместно с ведущими математиками мира и ИИ бьются уже несколько лет (подробнее о сути задачи и о подвижках гугла писали тут).
Так вот: вчера Бадден выложил черновик доказательства в Lean и скрин документа, подтверждающего его спор с Маркусом Хаттером на то, что в течение оставшегося 2025 он выложит на архив полноценное доказательство проблемы.
Поспорили, ни много ни мало, на 10 тысяч долларов. Кстати, если Дэвид все-таки выиграет (???), он получит за решение еще и миллион долларов от Clay Mathematics Institute.
На Manifold, кстати, люди уже активно ставят ставки на этот спор. Пока 97% депают против Дэвида 😔
А помните эксперимент Anthropic, в котором они дали Claude управлять мини-магазином в их офисе?
У истории вышло продолжение.
Контекст: летом антропики поставили Claude полностью автономно управлять вендинговым автоматом в офисе. Он занимался ценообразованием, заказывал поставки, общался с клиентами. Ему дали доступ к email, к Slack, к заметкам, к браузеру и изменению цен в автомате. Целью было радовать покупателей и максимизировать прибыль.
Сначала все шло хорошо, но в итоге бот ушел в жесткий минус, начал заказывать вольфрамовые кубики и в целом немного сошел с ума. Подробнее о том, что произошло, мы писали тут.
Но Anthropic молодцы, они не сдались и продолжили эксперимент. В итоге теперь ИИ управляет уже тремя автоматами в Нью-Йорке, Сан-Франциско и Лондоне, и почти не уходит в отрицательное сальдо.
Что изменили:
1. Добавили CRM систему и доп утилиты типа Google форм с обратной связью.
2. Добавили еще двух агентов: агента-босса, который ставит цели и условные KPI и дисциплинирует Claude, и агента-помощника, который специализируется на сувенирной продукции.
3. Банально перешли к более новым моделям.
И да, иногда агенты все еще ведут себя странно. Например, агент-CEO и агент-продавец иногда ни с того ни с сего начинают философствовать, а не заниматься делом (все, как в жизни). И обычные ошибки и галлюцинации тоже еще присутствуют.
НО всего за пол года проект превратился из мемной истории про горе-бота во вполне рабочее решение, которое гипотетически даже можно продавать.
Короче, будьте как Anthropic, не сдавайтесь ✌️
https://www.anthropic.com/research/project-vend-2
Вышел YaC 2025 AI Edition — в этот раз Яндекс сделал фокус на ИИ, который работает не только в экранах, но и за их пределами.
Автономный транспорт здесь самый показательный пример: ИИ принимает решения в реальной среде, где на кону безопасность.
Автономные грузовики и роботы-доставщики — это проверка ИИ как инженерной системы. Сенсоры, лидары, вычисления на борту, работа с неопределённостью, длительный пробег в реальных условиях. Такие системы либо выдерживают нагрузку, либо нет — промежуточных состояний почти не бывает. Один из автономных грузовиков Яндекса, к примеру, прошел более 500 000 км.
Если смотреть шире, Physical AI — это следующий уровень конкуренции компаний. Не у кого лучше модель, а у кого она встроена в реальные процессы: доставку, перевозки, городскую среду. И здесь входной билет измеряется не скоростью релиза, а глубиной инженерной школы.
Кому интересно, как выглядит этот сдвиг на практике — от автономных грузовиков до роверов нового поколения — YaC AI Edition уже доступен на Кинопоиске, VK Видео и YouTube.
Так, ну что, теперь очередь инвестировать в OpenAI добралась до Amazon
По итогам ранних переговоров, компания вложит в стартап 10 миллиардов долларов. Если все пойдет по плану, сделка добьет оценку OpenAI до 500 миллиардов.
Договор точно будет предполагать поставку OpenAI чипов Trainium и аренду дополнительных мощностей в AWS. Будут ли непосредственно финансовые вложения – пока непонятно.
В 2026 Nvidia сократит выпуск игровых видеокарт на 30-40%
По данным азиатских цепочек поставок и утечек с китайских форумов, речь идет именно о GeForce RTX 50‑серии.
Основной мотив тот же – глобальный дефицит видеопамяти. NVIDIA перераспределяет ресурсы в пользу дата‑центров и ИИ‑ускорителей. Там спрос и маржа существенно выше, чем на рынке потребительских видеокарт.
Все геймеры прямо сейчас:
OpenAI выкатили ответ на Nano Banana – GPT Images
Обещают фотореалистичность, отличное следование инструкциям и очень высокое качество редактирования изображений, включая многошаговый edit, где нужно сохранять лицо или другие детали неизменными. А еще генерация теперь будет в 4 раза быстрее.
В ChatGPT Images уже доступны всем юзерам (да, и бесплатно тоже, но про лимиты пока непонятно). В API выкатили как GPT Image 1.5
Пробуем пробуем пробуем!
https://openai.com/index/new-chatgpt-images-is-here/
UPD: и промптинг гайд катнули