66251
Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса. Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/+i_XzLucdtRJlYWUy
Маленький апдейт по этому опросу.
Спасибо всем, кто поучаствовал и скинул картинку в комментарии — всего результатом поделились 44 человека:
— 538 голосов за GPT-5 против 253 за GPT-4o (68% vs 32%)
— лишь у четырёх человек GPT-4o получила больше голосов, чем GPT-5. Ещё было 2 ничьих. — для 38 пользователей из 44 GPT-5 была хоть немного, но лучше (главное не хуже)
— для 17 голосующих GPT-5 победила с большим отрывом (75%+ голосов от одного человека)
Анализ результатов от GPT-5 Pro: ссылка
Что опять же показывает, что в супер-простых ежедневных запросах average Joe модель стала получше. За более полным анализом и выборкой на разных языках, задачах и прочим как всегда — на Арену: lmarena.ai/leaderboard
Такими темпами AGI до 2030 точно не видать (нижняя оценка Демисса Хасабиса, CEO Google DeepMind)
Вот кстати очень хороший анализ таймлайнов от Дваркеша, какие сейчас есть core-проблемы, которые до сих пор не решены: https://www.youtube.com/watch?v=nyvmYnz6EAg
Вкратце,
Bottleneck #01: Continuous Learning. Сложно дообучить в ходе чата, In-Context Learning в чате, когда говоришь "вот как надо" или "это говно" - не такой магический, как хотелось бы
Bottleneck #02: Agentic Computer Use Tasks. В интернетах полно текстовых/видео данных, в интернетах почти нет мультимодальных данных для предобучения на agentic задачи (их сбор нужно организовывать с нуля) + это все дело сильно более compute-intensive, как для обучения, так и, тем более, для валидации + больше рисков, поэтому релизы ожидаемо будут удлиняться, а не ускоряться (горизонт ризонинга у моделей будет часы-дни-недели)
Но может, RL-дообучение будет настолько sample-efficient, что этот вопрос порешается быстро и мы нагенерим эти данные / насоздаём симуляторов
Стрим-анонс GPT-5 начинается через 10 минут вот тут: https://www.youtube.com/watch?v=0Uu_VJeVVfo
Будут все наши, Сама, Грег, Марк, Якуб, Себастьян и другие
OpenAI разродились двумя опенсурсными моделями, на 120b и 20b параметров.
Модели рассуждающие, поддерживают 3 типа длины рассуждений: low, medium, high.
Ссылки:
— https://openai.com/open-models/
— https://openai.com/index/gpt-oss-model-card/
— https://cookbook.openai.com/articles/openai-harmony
— https://gpt-oss.com/ - тут можно поиграть с моделью
OpenAI... снова привлекают деньги: NYT пишет, что в копилку скоро капнут 8,3 млрд долларов инвестиций (по той же оценке, что и раньше — 300 млрд долларов). Согласно источнику, это произойдет даже на несколько месяцев раньше запланированного срока, существующего в рамка плана по обеспечению финансирования в размере 40 млрд долларов в этом году.
Вкидываются буквально все: Blackstone, TPG, Fidelity Management, Founders Fund, Sequoia Capital, Andreessen Horowitz, Coatue Management, Altimeter Capital, D1 Capital Partners, Tiger Global и Thrive Capital.
В ходе раунда спрос превысил предложение в пять раз, и некоторые ранние инвесторы OpenAI остались разочарованы меньшими суммами, которые они получили, поскольку компания отдала приоритет привлечению новых стратегических спонсоров.
Бизнес OpenAI продолжает расти — ARR (annualized recurring revenue, выручка за последние 30 дней умножить на 12) подрос до 13 миллиардов — в июне было 10(!). К концу года ожидается рост до 20 миллиардов долларов — это примерно столько же, сколько у BlackRock, Philips, Mitsubishi Motors, ASUS, Baidu, Spotify.
Для сравнения, у Anthropic ARR 4 миллиарда (рост с четыре раза с начала года), и сейчас они привлекают инвестиции по оценке примерно в 170 миллиардов долларов — предыдущий раунд в начале года закрыли по оценке $61.5B.
===
OpenAI подтвердили цифру в 700 миллионов активных пользователей в неделю. Напомню, что по плану дотянуться до планки в миллиард пользователей в день к концу года — в январе это казалось заоблачным показателем, но траектория солидная.
Картинка отсюда
TheInformation написали немного про GPT-5:
— один из ранних тестировщиков оценил невыпущенную модель «крайне положительно» и сказал, что она превосходит Claude Sonnet 4 при прямом сравнении отевтов
— самый большой скачок стоит ожидать в программировании; OpenAI какое-то время находились в тени Anthropic, теперь нагонят и перегонят
— GPT-5 демонстрирует улучшения в ряде областей, включая точные науки, выполнение заданий для пользователей в их браузерах (выйдут ли новые Agent / Operator???) и письмо
Конечно, пока не увидим и не попробуем — говорить нечего, но напомню, что про GPT-4.5 TheInformation писали, что модель не выигрывала на внутренних сравнениях и OpenAI ожидали большего. А тут — лучше.
Готовы к запуску через пару недель? 👀
Прочитал пост Gary Marcus про результаты AI моделей на IMO 2025. На удивление не так много бреда, я ожидал худшего, но кто знает, может быть дальше выйдет вторая половина.
Gary два раза написал, что результат сам по себе выдающийся, что это круто. Правда как истинный противник LLM он не написал, что его это удивило или что он не верил, что это произойдет так скоро. Мне не удалось найти его предсказаний и утверждений что этого прям не случится, но есть косвенные улики:
— в апреле этого года он написал эссе «Reports of LLMs mastering math have been greatly exaggerated», где показывал, мол, вот текущие модельки не могут порешать олимпиаду.
— за день до результатов от OpenAI, он репостил замеры MathArena, где Gemini 2.5 Pro получила всего 13 баллов (золотая медаль 35) на IMO, и этим подкреплял своё мнение.
Так что я считаю, что было бы честным написать «я был очень удивлён и не ожидал настолько хороших результатов. Это меняет моё мнение так-то и так-то». Но после прочтения поста не складывается ощущения, что это его удивило или хоть как-то противоречит его взглядам, которые он высказывает 20 лет! Что нейросети это тупик и что нужно искать другие способы создать AGI. 😀 20 лет прогресса нет
===
Также в посте он цитирует математика Kevin Buzzard: «...[AI полезны] так же, как когда я приехал в Кембридж, будучи студентом, сжимая в руках золотую медаль IMO; я не имел возможности помочь ни одному из тамошних исследователей-математиков». Мне кажется Gary утешает себя этим, мол, посмотрите ! Вот настоящий математик говорит что модели, взявшие золото, не факт что смогут привнести ценность в исследованиях!
Зная Gary и его навык двигать goalposts для моделей — как только LLM смогут помочь Terence Tao в его открытиях, он тут же скажет «ну так модели не сами получили Нобелевку». А когда получат — «ну так это же мы определили проблемы, которые им дать, сформулировали задачу, а уж доказательство и ежу понятно как сделать».
Всё это и бесполезно, и не конструктивно, и принижает реальный прогресс. Я вижу большую ценность в промежуточных прокси-бенчмарках. Не имеет смысла сидеть и ждать, пока не произойдет событие X, нужно как-то оценить движение в его направлении. Уж точно у модели, решающей IMO на золото, шансов помочь исследователю в рамках реально задачи больше, чем у ChatGPT на релизе в 2022-м году.
Таблица с информацией про 44 человека, пришедших в команду Meta's Superintelligence team.
— 50% — Китайцы
— 75% имеют PhD (кандидат наук), 70% исследователи
— 40% из OpenAI (18 человек), 20% из DeepMind, 15% Scale.AI
— 20% получили грейд L8 и выше. Это очень высокий уровень. Например, Валера Бабушкин был в META L6 (и через год ему предложили L7). Подробнее про L8 от Валеры: /channel/cryptovalerii/101
— 75% иммигранты в первом поколении
Источник
А, ну и да, не знал, что столько хороших сотрудников были в МТС 🤡
Вчера не стало Felix Baumgartner 🥲 Это он целых 13 лет назад прыгнул с высоты 39 километров и приземлился целым на землю (конечно, с парашютом и в специальном костюме).
Я помню, как смотрел видео прыжка ещё в школе, как от самого зрелища захватывало дух. Можете посмотреть сами: полную или короткую версии.
В ходе прыжка было поставлено 4 рекорда:
— Высота прыжка (побита ~2 годами позже)
— Дистанция свободного падения
— Преодоление человеком звукового барьера
— Скорость в свободном падении — 1357 километров в час. Это самая большая скорость, с которой когда-либо передвигался человек без помощи летательного аппарата.
Перегрузки во время вращения в штопоре, который продолжался 13 секунд, могли в любую секунду привести к потере сознания и последующей гибели. Felix в одном из видео говорил, что он почти вырубился, и еле смог понять, как расположить руки так, чтобы замедлить вращение и выкарабкаться.
Лично для меня Felix — фигура по величине хоть и значимо ниже Гагарина, но находится примерно в одном порядке. Довериться технологии и учёным, залезть в капсулу против страха и выполнить безумную штуку, отодвигающую границу возможного человечеством.
🫡
(а, ну и Земля не плоская 😀)
Сегодня в 5 вечера по Лондону и в 7 по Москве OpenAI проведёт стрим — анонс появился в Твиттере компании.
Видео с анонсом напоминает интерфейс Operator — браузерного агента, выпущенного ранее в этом году. Возможно, что его прокачали и сделали доступным для Plus-подписчиков.
1. OpenAI планируют на следующей неделе выложить модель, сравнимую с o3-mini, в открытый доступ.
2. OpenAI близки к запуску своего браузера, который призван конкурировать с Chrome. Браузер должен «коренным образом изменить способ, которым пользователи сёрфят интернет»
3. Через 6.5 часов xAI планируют показать Grok 4. Ожидания пока такие же, что и от Grok 3 (цитирую сообщения из лички): «покажут что самая лучшая модель, доступ по API будет неюзабельный, с нулевыми лимитами, а на всех выходящих после релиза модели бенчмарках Grok 4 будет внизу или хотя бы на уровне с уже доступными моделями». Но посмотрим, как пройдёт.
Меня в комментах часто спрашивают, а как конкретно в работе применяю AI штуки.
В последнее время супер активно ревьюю 2-/ 6- pager'ы команды и других команд в рамках всяких stage-gate. Читать текст и давать фидбек весьма накладно по времени, а учитывая, что принципы хорошего пейджера стандартные и общие, сделал проект в клоде, куда загрузил доку по stage-gate, принципам хорошей стратегии и продуктовой разработки, принципам написания хорошего пейджера, примеры таких и дал инструкции для трех типов задач:
- когда прошу клод дать фидбек;
- когда прошу оценить его свой фидбек, чтобы удостовериться, что я не галлюцинирую и объективен;
- инструкции написания финального коммента с фидбеком автору документа.
И в этом проекте просто стартуешь новый чат, прикладываешь пейджер и, надиктовывая собственные мысли по нему, получаешь ответ. Смотришь, копипастишь, правишь, отправляешь.
Теперь хочу сделать агента, к которому дам доступ ребятам, чтобы они сначала об него обстучали, а потом уже мне кидали во имя максимально быстрых итераций.
Вот так я делегировал работу ИИ и продолжаю получать свою зарплату. Главное, чтобы начальство не узнало. Oh wait...
Хоть на ЧГК посылай (ну сейчас в комментариях конечно объяснят что это вопрос уровня 3-ьего класса)
Что это за странные города-соседи у Челябинска в этом списке? Что объединяет их и ещё более 75 городов?
Проснулись потянулись и читаем новости o3:
1) возможно уже на этой неделе (обычно релизы по четвергам) выйдет o3 pro: она ещё в начале прошлой недели засветилась в коде сайта, потом её было видно на стриме одного из разработчиков OpenAI, а сегодня на сайт загрузили логотип модели
2) o3, возможно, подешевеет: кто-то написал в твиттере, что запрос стоил сильно дешевле, чем они ожидали (то есть цена упала, хоть об этом нигде и не написано), а официальный аккаунт разработчиков OpenAI под двумя другими постами ответил «hmmm» на сообщения в духе «o3 отличная модель, но цена высоковата»
3) OpenAI достигли аннуализированной выручки (экстраполяция последнего месяца на год) 10 миллиардов долларов. Если мне не изменяет память, последний раз официальные цифры были в декабре и составляли $5.5B — неплохой рост за полгода!
Это мы смотрим https://www.youtube.com/watch?v=uq1Vzi-52dA
Сон > Тренировки > Питание > Бизнес/Работа
🌙 1. Сон (должен быть твой №1 приоритет в жизни, non-negational)
- последний приём пищи за 2 часа, а лучше за 4 часа до сна
- wind-down за 1 час до сна: прогулки, книги, медитация - ок
- никаких экранов перед сном (мелатонин), минимум света
- постоянство: одно и то же время сна ежедневно (+- 30 мин)
- избегать кофе за 8-12 часов до сна
💪 2. Тренировки
- 30+ минут каждый день: кардио / силовые - не важно
- двигайся в течение дня [я сам хожу, когда думаю или на созвоне]
🧀 3. Диета (на 3 месте потому что когда хорошо спишь и тренируешься - хочется само собой хорошо питаться)
- никогда не надейся на силу воли, полагайся на дисциплину/систему [от себя добавлю, что насколько знаю к концу дня у нас спадает вниз уровень дофамина, меньше хочется напрягаться/поднимать жопу/решаться на что-то, поэтому к концу дня поддаться соблазнам проще, сила воли слабее - и это нужно учитывать!]
- избегай переедания, чувствовать лёгкий голод - это нормально [и даже полезно, потому что наш организм развивался, когда приёмы пищи были редкие и быть голодным было наше default state, состояние нашей максимальной продуктивности]
- придерживаться среднеземноморской диеты; не нужно задротить с питанием и подсчитывать каждую калорию [в этом плане приложения аля Cal AI / CalSnap несмотря на неточности уже вырабатывают правильную привычку сознательного отношения к питанию, но без задротства, которое только увеличивает стресс]
Ну вот теперь заживём: OpenAI только что добавили фичу, показывающую, что за модель была использована для ответа.
Напомню основную проблему: на каждый запрос вызывается роутер, который определяет, какую модель использовать для ответа — даже в рамках одного чата. Какие-то из запросов, особенно у бесплатных пользователей (или у платных, но после лимита), могли отправляться на gpt-5-mini или вообще на gpt-4o.
Это добавляет прозрачности, завтра попробуем чуть лучше понять, как работает роутер, и когда какую модель выбирает.
Все бенчмарки можно найти вот тут во второй половине страницы: https://openai.com/index/introducing-gpt-5-for-developers/
(правда сравнения только с моделями OpenAI, но it's a good model sir)
Бенчмарков на длинный контекст аж 4 штуки (и 7 строк)
Как спит Сама, зная, когда релиз GPT-5 и насколько она хороша:
Читать полностью…
^ подписчик говорит, что, вероятно, нашел способ делать запросы к GPT-5 в Perplexity. Сделали пару проверок в чате, может быть похоже на правду: SVG рисует неплохо (как в твиттере рассказвают), Doom смогла закодить: https://www.perplexity.ai/search/create-html-game-like-a-doom-w-_Bap6EpDRHSacXWPtCKb6A
Скидывайте ваши тесты в комментарии
OpenAI объявили о втором партнёрстве (из десяти) со страной в рамках проекта Stargate — Норвегия. Масштаб куда скромнее, чем в ОАЭ: к концу 2026-го должен появиться датацентр с ~100'000 GPU и потреблением энергии ~230 МегаВатт. После этого запланировано расширение ещё на 290 МегаВатт — суммарно чуть больше половины ГигаВатта, то есть в 10 раз меньше США/ОАЭ.
Датацентр будет работать исключительно на возобновляемых источниках энергии и будет оснащен замкнутым циклом жидкостного охлаждения с прямой подачей воды на чипы для обеспечения максимальной эффективности охлаждения. Кроме того, избыточное тепло от графических процессоров будет использоваться для поддержки предприятий в регионе.
Интересен формат взаимодействия: проектированием и строительством объекта займется компания Nscale, а его владельцем, как ожидается, станет совместное предприятие Nscale и Aker, 50/50. Я думал, что за проектирование отвечает OpenAI и их подрядчики, и они делятся знаниями и опытом от уже строящихся ДЦ. Но возможно они и будут делиться, просто не отвечают за проект от и до.
По плану, местные ИИ-стартапы и исследователи смогут воспользоваться мощностями в ДЦ. Излишки будут доступны пользователям государственного и частного секторов Великобритании, стран Северной Европы, удовлетворяя региональный спрос и ускоряя развитие европейской ИИ-экосистемы.
Дополнительно, постройка суверенных ДЦ позволит предоставить гражданам персонализированный ChatGPT. Это поможет улучшить здравоохранение и образование, повысить эффективность государственных услуг итд. Модели могут быть дополнительно обучены под надобности стран, локализованны, лучше разбираться в культуре.
Всё ещё не ясно, что получает OpenAI от подобных сделок. Доступ к данным внутри страны? Контракты на разработку и дообучение моделей? Будут ли они делиться общей условной GPT-6 и 7, будут ли модели доступными на эксклюзивных правах для проекта Stargate?
Если OpenAI будет согласна отдавать свои модели для запуска на Stargate в странах, то появляется ответ на вопрос «а кто будет решать на что натравить AGI? Как решить, важнее ли лекарство от рака или доказательство новой теоремы?» — вот как ваша страна решит, так и будет.
Unitree представили нового робота, Unitree R1 Intelligent Companion. Цена от $5900, вес всего 25 килограмм. Лендинга пока нет (блин, а я бы прямо сейчас тыкнул в предзаказ...).
Манёвренность поражает — вместо робопса рядом с вами по улице теперь сможет передвигаться ЭТО на руках.
Твит с анонсом
Потратил утро на то, чтобы почитать эссе + вайтпейпер mechanize.work . Это новая компания Tamay Besiroglu и Ege Erdil, двух бывших сотрудников Epoch.AI, эссе, прогнозы и модели которых я часто упоминаю в канале. Ниже — краткое изложение того, как они видят ближайшие пробелмы и способы их решения в контексте полезных агентов.
Сегодня RL (метод дообучения) обычно порождает модели, которые очень эффективно выполняют узкий набор задач, на которых они были обучены, но плохо обобщаются за пределами знакомого. Фаундеры компании полагают, что это проблема данных, а не алгоритмов.
Авторы считают, что у RL скоро наступит собственный «GPT-3 момент». Вместо того чтобы дообучать модели на небольшом количестве виртуальных сред, ожидается переход к масштабному обучению в тысячах разнообразных окружений. Такой подход позволит создавать модели со способностями к само-обучению, не зависимому от задачи, и способные быстро адаптироваться. Другими словами, RL поможет выучить мета-навыки.
Некоторые из проектов написания программного обеспечения, над которыми работали люди, оцениваются в десят(ки) тысяч человеко-лет работы. Ребята считают, что расширение RL до такого масштаба (делать десятки-сотни попыток разработки схожих проектов) экономически целесообразно. Однако для этого необходимо кардинально увеличить масштабы сред RL (их глубину + длительность одной «попытки»), при этом сохраняя возможность автоматической оценки выполнения задач. Вероятно, для этого потребуются новые подходы к созданию RL сред.
Авторы считают, что GPT-3 момент для RL во многом станет возможен благодаря парадигме обучения через репликацию. Эта парадигма заключается в постановке перед ИИ задач по точному воспроизведению существующего программного обеспечения или отдельных его функций. Простые инструменты командной строки, реализующие малоизвестные алгоритмы хеширования и шифрования, представляют собой понятные для достижения цели, однако этот подход легко расширяется и на более сложные продукты, такие как веб-сайты, профессиональное ПО и игры.
Стоит заметить, что задачи репликации несколько искусственны, поскольку точное воспроизведение существующего ПО не является типичным для повседневной разработки. Но несмотря на это обучение через репликацию даёт понятный путь для масштабирования сред RL до огромных объёмов, необходимых для содержательного обобщения. Будет ли обучение через репликацию последней парадигмой, которая позволит полностью автоматизировать человеческий труд? Ege и Tamay сомневаются в этом.
Однако обучение через репликацию может послужить мостом к следующей парадигме, аналогично тому, как претрейн моделей на всём интернете стал необходимой ступенью на пути к (достаточно слабым) агентам, которые есть сейчас.
===
(а читать я про это начал потому, что увидел их вакансию, где они предлагают зарплату в $500k/год программистам для разработки инфраструктуры всего этого)
((более чем уверен, что OpenAI думают в схожем направлении, и их команды уже трудятся над задачей))
«Ну так конечно это ожидаемо, ничего удивительного» — скажет хрен с умным видом, поправляя очки.
Для наглядности вот график ставок на Polymarket, где люди на свои прогнозы ставят деньги. До анонса OpenAI вероятность получения золотой медали в этом году оценивалась в 34% ($750 тысяч суммарно ставок).
AtCoder World Tour Finals 2025 (Heuristic). 2nd place!
Как-то все в итоге слишком хорошо прошло, даже не пришлось ничего в спешке чинить во время контеста... Контест начался, проверили, что все работает, а потом можно было с удовольствием смотреть трансляцию и следить за результатами.
Большую часть контеста OpenAI был на первом месте с довольно большим отрывом, и только в самом конце Psyho вырвался вперед. Так что всех, кто проголосовал за вариант "2-3" в предыдущем опросе, поздравляю :)
В твиттере увидел картинку с количеством баллов у OpenAI и у Psyho от времени (чем меньше скор — тем лучше). Мне кажется, она довольно хорошо показывает текущее состояние AI. Он может гораздо быстрее человека запрототипировать хорошее решение. Но при этом на дистанции в 10 часов человек уже может догнать и перегнать за счет каких-то более интересных идей. Интересно, как такой же график будет выглядеть через год.
Не всё хорошо в королевстве: двое ключевых разработчиков Claude Code, ушедшие 2 недели назад работать в Cursor... вернулись в Anthropic 🧠(Boris Cherny and Cat Wu)
Интересно, сколько людей вернутся из META в OpenAI... (на днях тут ещё пара топовых исследователей перешли 😢)
Уже совсем скоро, 14-го июля, из API исчезнет GPT-4.5, самая большая модель OpenAI. Будет ли она заменена на что-то более продвинутое (пятёрку? 😑) сразу или лишь в будущем — пока не ясно, но OpenAI вернулись из отпуска и готовы писать в твиттер работать
Вероятно на прошлой неделе вы натыкались на упоминания статьи от Apple, где рассказывалось про «ограниченность» мышления рассуждающих моделей. Может быть вы даже видели разгромные разборы этой статьи, где в красках описывалось, где именно авторы налажали (ну например давали задачу, где доказано, что начиная с определенной сложности решений не существует в принципе — а авторы-то выносили это в ограничение моделей). Почитать можно, например, тут (или вот более детальный пост на LW с контекстом).
Решил об этом написать, когда увидел вот этот твит от Dan Hendrycks, который на бенчмаркинге моделей собаку съел (он был авторов нескольких самых именитых бенчей).
«Apple недавно опубликовала статью, показывающую, что современные системы искусственного интеллекта не способны решать простые для людей головоломки.
Люди: 92,7%
GPT-4o: 69,9%
Однако они не проводили оценку самых свежих рассуждающих моделей. Если бы они это сделали, то обнаружили бы, что OpenAI o3 набирает 96,5%, опережая людей»
😂 every single time
Новое эссе Sama: The Gentle Singularity
(«это может быть последний раз, когда я пишу что-то подобное без какой-либо помощи ИИ»)
— Мы прошли горизонт событий; взлет начался. Человечество близко к созданию цифрового суперинтеллекта, и, по крайней мере, это гораздо менее странно, чем должно быть. Роботы не ходят по улицам, люди умирают от болезней, и всё же у нас есть системы, которые умнее людей в чём-то.
— Гораздо больше людей смогут писать программы и творить. Но мир хочет гораздо больше и того, и другого, и эксперты, вероятно, все равно будут намного лучше новичков, если только они будут пользоваться новыми инструментами. В общем, способность одного человека сделать гораздо больше в 2030 году, чем он мог бы сделать в 2020 году, станет поразительным изменением, и многие люди поймут, как извлечь из этого пользу.
— В 2030-х годах интеллект и энергия — идеи и способность воплощать идеи — станут дико изобильными. Эти два фактора долгое время были фундаментальными ограничителями человеческого прогресса; при изобилии интеллекта и энергии (и хорошем управлении) мы теоретически можем создавать и иметь что угодно.
— С этого момента инструменты, которые мы уже построили, помогут нам найти дальнейшие научные идеи и помогут нам в создании лучших систем ИИ. Конечно, это не то же самое, что система ИИ, полностью автономно обновляющая свой собственный код, но тем не менее это личиночная версия рекурсивного самосовершенствования.
— Создание экономической ценности запустило маховик комплексного строительства инфраструктуры для работы этих все более мощных систем ИИ. И роботы, которые могут строить других роботов не так уж далеки.
— С точки зрения релятивизма, сингулярность происходит постепенно, а слияние происходит медленно. Мы поднимаемся по длинной дуге экспоненциального технологического прогресса; она всегда выглядит вертикальной, если смотреть вперед, и плоской, если идти назад, но это одна плавная кривая. (Вспомните 2020 год и то, как бы звучало, если бы к 2025 году было что-то близкое к AGI, по сравнению с тем, как на самом деле выглядели последние 5 лет.)
— Наряду с огромными преимуществами предстоит столкнуться с серьезными проблемами. Одна из них — контроль намерений ИИ систем, другая — сделать ИИ дешевым, широкодоступным и не слишком сконцентрированным на каком-либо человеке, компании или стране.
— «Intelligence too cheap to meter» вполне достижим. Это может показаться безумным, но если бы мы сказали вам в 2020 году, что мы будем там, где мы есть сегодня, это, вероятно, прозвучало бы более безумно, чем наши нынешние прогнозы о 2030м.
Интересная информация от TheInformation:
Пока OpenAI защищает свою будущую корпоративную реструктуризацию от целого ряда критиков со стороны некоммерческих компаний, они, вероятно, довольны своим прошлогодним решением нанять ряд сотрудников с глубокими связями с демократами.
Эти назначения, включая демократа Chris Lehane, который возглавляет команду OpenAI по международным делам (global affairs team), выглядели просчетом, когда Donald Trump победил на президентских выборах, особенно учитывая прежнюю позицию CEO Sam Altman (он изменил свою позицию после выборов, пожертвовав 1 миллион долларов в инаугурационный фонд президента и сотрудничал с президентской администрацией над проектом дата-центра Stargate).
Но OpenAI удвоила ставку на демократов. После того как Lehane был нанят, команда Global Affairs привлекла Debbie Mesloh, которая консультировала Kamala Harris во время ее кампаний на посты генерального прокурора и сенатора, и Marisa Moret, ранее занимавшую должности управляющего юриста и руководителя аппарата городского прокурора Сан Франциско.
В качестве внешнего юрисконсульта OpenAI также наняла Ann O’Leary, которая ранее занимала пост руководителя аппарата губернатора Калифорнии Gavin Newsom и консультировала Hillary Clinton во время ее президентской кампании 2016 года. Юридическая фирма Ann O’Leary Jenner & Block — одна из фирм, против которых Президент недавно издал не самые приятные указы — за наем юристов, работавших над расследованиями против него самого.
Хотя демократы не у власти в Вашингтоне, OpenAI больше ориентируется на местный уровень. Все вышеперечисленные демократы помогают OpenAI сравняться по мощи с группами, выступающими против ее планируемой реструктуризации, включая коалицию из более чем 60 некоммерческих организаций, многие из которых базируются в Калифорнии и которые обратились к генеральному прокурору штата с петицией о вмешательстве. Критики реструктуризации утверждают, что некоммерческая организация, которая владеет и контролирует OpenAI, может быть обделена при реструктуризации ее коммерческой дочерней компании.
Fred Blackwell, CEO филантропического фонда San Francisco Foundation, и Orson Aguilar, президент и CEO правозащитной группы LatinoProsperity, возглавляют эту коалицию.
Blackwell и Aguilar встретились с представителями OpenAI в марте в сопровождении Julián Castro, который занимал пост министра жилищного строительства и городского развития во времена президенства Obama. С другой стороны стола находились Mesloh, Moret и Daniel Zingale, работавшие на трех губернаторов в Калифорнии.
Zingale собирает консультативную комиссию, которая в июле представит рекомендации совету директоров OpenAI относительно ее структуры управления и способов реализации ее благотворительной миссии. В состав комиссии из пяти человек входят два бывших руководителя California Endowment, одной из организаций в коалиции некоммерческих организаций, выступающих против преобразования, и Dolores Huerta, легендарная профсоюзная активистка, соосновательница профсоюза United Farm Workers вместе с Cesar Chavez.
В письме, отвечающем на требования коалиции, OpenAI заявила, что ее консультативная комиссия связалась с некоммерческими критиками для получения их мнения «о том, как Nonprofit может достичь реального воздействия в таких областях, как здравоохранение, образование, государственные услуги и научные открытия». Коалиция некоммерческих организаций и консультативная комиссия OpenAI должны встретиться на следующей неделе.
<А Маска забыли спросить 😀>
Давно хотел про это написать, а сейчас наткнулся на блог трёхлетней давности в Astral Codex Ten и решил пора.
В машинном обучении на самых ранних этапах знакомятся с метриками и объясняют простую и понятную вещь — если у вас задача бинарной классификации (да/нет), и один класс покрывает абсолютное большинство наблюдений, то вам нельзя использовать метрику «доля правильных ответов». Она не будет нести смысла.
Вот представьте онколога, который осматривает пациентов и определяет, есть ли у них рак. Представим, что из 1000 пациентов, проходящих чекап, рак в среднем есть у 1. То есть доктор 999 раз скажет «у вас нет рака», и 1 раз, по-хорошему, должен сказать «у вас рак».
Этого доктора можно заменить на камень, на котором написано «у вас нет рака». И камень будет на 99.9% точен. Он почти не ошибается. Множество благодарных и радостных пациентов узнали, что у них нет рака — ведь Великий Камень так сказал! А камень почти не ошибается.
То же самое с людьми, у которых AI — это «просто ещё один хайп». NFT помните? А крипту? Всё хайп. А доткомы? А озоновую дыру? и где она? А помните как эксперт X ошибся в предсказаниях? Ну и что что на полтора года, ошибся же? А у другого эксперта вообще есть материальная заинтересованность в одной позиции, поэтому ему нельзя верить, поэтому моя позиция — правильная, что и требовалось доказать.
У таких людей ничего никогда не случается, никаких прорывов, в новостях всегда повестка, все врут, все преследуют свои цели. Опубликованные исследования проплачены, результат подтасован, итд. И они получают дикую уверенность от того, что в 99.9% случаев оказываются правы. Они никогда не берут на себя риск сделать ставку на вещь, которая пойдет не по сценарию.
Но есть одна проблема: они ошибаются в 0.1% самых важных вещей. По сути эти люди — камни с надписью «nothing ever happens». Или говоря умным языком «эвристика».
Ну а камни нам в комментариях не нужны 😀🤣☺️
И на их фоне настоящие эксперты, которые делают аналитику, осторожные предсказания итд, могут просто выглядеть глупо — потому что ошибаются чаще
(а вам рекомендую за 5 минут прочитать блогпост по первой ссылке в посте, там есть пара занятных примеров)
Понятно, что в каждую тему не залезешь, не разберешься в нюансах и не выстроишь цельную картину — времени на всё не хватит. Но что уморительно — это что люди не отдают себе отчёта в своей заКАМЕНелости, и действительно считают, что выражают очень ценное и важное мнение: https://youtu.be/DJRL3OXKvME