data_secrets | Unsorted

Telegram-канал data_secrets - Data Secrets

78469

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n

Subscribe to a channel

Data Secrets

Сегодня OpenAI исполняется ровно 10 лет

О создании компании было объявлено 12 декабря 2015 года. Начальный бюджет – 1 миллиард долларов – был собран небольшой группой инвесторов-энтузиастов. Вот оригинальный блогпост, а еще в честь праздника компания выпустила видео ⬆️

В 2015 алгоритмы еще плохо отличали кошечек от собачек, и люди не верили, что машина когда-нибудь сможет заговорить. А сегодня ИИ уже неотъемлемая часть жизни и работы, а стартап Альтмана оценивается в 500 миллиардов долларов.

Но ChatGPT вышел только в 2022. А чем компания занималась до этого? Давайте вспомним:

– OpenAI Gym (2016). Платформа для тестирования алгоритмов ИИ в симулированных средах. Она очень быстро стала тогда стандартом в исследованиях. Следом вышел Universe – инструмент для обучения агентов взаимодействию с реальными программами и играми.

– OpenAI Five (2018). Ботов обучили играть в Dota 2 с помощью PPO. В итоге они обыграли топ-игроков мира, обучившись на 45 000 годах симуляций за 10 месяцев.

– Robotic Hand (2018). Знаменитый проект, в котором робо-руку учили собирать кубик Рубика.

Поздравляем: если вы знакомы с этими проектами – вы олд 👴. После них уже пошло-поехало: GPT-2 в 2019, GPT-3 в 2020, DALL-E и первый Codex в 2021, и ChatGPT в 2022.

Короче, поздравляем компанию с юбилеем!

Читать полностью…

Data Secrets

SpaceX готовится к IPO: теперь основная цель компании – строительство датацентров в космосе

Читать полностью…

Data Secrets

Уже пару дней все говорят о том, что на этой неделе нас ждут сразу две новые модели

Первая – GPT-5.2. Да-да, всего через месяц после GPT-5.1 (она же Shallotpeat, о которой мы писали здесь).

Помните, Альтман когда-то говорил, что после выхода GPT-5 путаницы с версиями больше не будет? Ну так вот…

Вторая – Gemini 3 Flash, тут все ожидаемо.

Одна из них, судя по всему, должна выйти уже завтра. Вторая – либо завтра, либо в начале следующей недели.

🎄

Читать полностью…

Data Secrets

Знакомьтесь, это Лоран Саймонс. Ему 15 лет и на днях он получил докторскую степень по квантовой физике.

Сейчас парень занимается биологическим моделированием в стартапе DeepPiction: они разрабатывают ИИ-алгоритмы для поиска лекарств.

Мы уверены, что этот парень – AGI, но пока не можем это доказать 😐

Читать полностью…

Data Secrets

Тем временем Оптимуса Илона Маска опять обсмеивает весь Интернет

Кто-то на вчерашнем ивенте Tesla в Майами снял шикарное видео, на которое случайно попали кадры фееричного падения гуманоида прямо во время демонтрации.

В ролике отчетливо видно движение руками робота, которое очень напоминает жест теле-оператора, снявшего с себя VR гарнитуру. Видимо, бедолага забыл предварительно отключиться от управления.

Напоминаем, что ранее Илон Маск под демонстраиционными видео в твиттере утверждал, что Optimus действует автономно.

Советуем смотреть со звуком 😎

Читать полностью…

Data Secrets

Продуктовая команда Data Secrets выходит из стелса

Утро понедельника – прекрасное время, чтобы поделиться с вами большими (и полезными!) новостями.

Уже почти 4 года мы ведем для вас канал Data Secrets, но мало кто знает, что наша команда также занимается разработкой. И уже сегодня мы готовы официально представить вам наш первый продукт – и верим, что вам понравится.

(Нет, это не очередной ИИ-агент или обертка над ChatGPT 😐)

Давайте наберем 300 ❤️, и анонс запуска выйдет здесь совсем скоро

Читать полностью…

Data Secrets

Яков и Партнёры и Яндекс представили ежегодный аналитический репорт «Искусственный интеллект в России — 2025: тренды и перспективы»

Очень много любопытных данных и выводов, российские эксперты смотрят на развитие ИИ оптимистично, а именно:

1. Глава бизнес-группы Поиска Яндекса Дмитрий Масюк в эфире РБК поделился, что ожидаемый экономический эффект от внедрения ИИ в бизнес прогнозируется на уровне ≈ 8–13 трлн рублей в год. Причем больше всего принесет генеративный ИИ — от 1,6 до 2,7 трлн руб.

2. 78% российских компаний, системно применяющих ИИ, уже видят реальный экономический эффект — в основном от сокращения затрат, но есть и те, кому ИИ приносит выручку в новых сервисах и продуктах.

3. Подавляющее большинство компаний используют готовые решения от внешних партнеров, около половины адаптируют их под свои бизнес-процессы.

4. Один из главных трендов на ближайшее время — переход ИИ в физический мир через роботов и носимые устройства, такие как диктофоны или наушники. Ну и конечно ИИ-агенты.

Читать полностью…

Data Secrets

Занятное интервью вышло у Демиса Хассабиса с изданием Axios

Посмотреть полностью можно здесь. Особенно понравился момент, где Демиса попросили без преувеличений и максимально честно рассказать, что, по его мнению, будет происходить с ИИ в ближайшие 12 месяцев. Ученый ответил вот так:

1. Конвергенция модальностей. Например, Gemini мультимодальная, и благодаря этому можно воспроизводить множество интересных результатов. Хороший кейс – это новая Nano Banana Pro, которая действительно хорошо понимает изображения, стили, инфографику и тд (благодаря, собственно, Gemini). Следующий шаг – это объединение видео с языковыми моделями, и в ближайший год мы увидим в этой области большой прогресс.

2. Модели мира типа Genie. В ближайший год они станут намного лучше.

3. И, конечно, агенты. Сейчас о них уже много говорят, но они пока недостаточно надежны, чтобы выполнять задачи от начала до конца. Но Демис уверен, что в течение года это изменится, и агенты уже будут неотъемлемой составляющей жизни.

Что касается AGI, Хассабис ставит на 5-10 лет. А сейчас мы приближаемся к моменту, которые многие называют «радикальным изобилием» – когда множество, если не большинство, человеческих задач будет постоянно решаться с помощью ИИ.

Еще раз ссылка на полное интервью

Читать полностью…

Data Secrets

MWS AI выпустила корпоративную платформу MWS AI AGENTS PLATFORM для создания ИИ-агентов

Все как мы любим: можно создать агента на базе LLM в приятном визуальном интерфейсе, не написав ни одной строчки кода.

Количество возможных бизнес-сценариев огромно: построить можно даже мультимодальные и мультиагентные процессы. Агенты смогут распределять роли и функции, передавать друг другу результаты и проверять их.

Также на платформе есть уже готовые решения «из коробки», а еще инструменты для разметки и подготовки данных. А если с внедрением решения понадобится помощь, то MWS AI предоставят консультационную поддержку, обучение команд и экспертное сопровождение.

Кстати, в разработку платформы компания вложила 4 миллиарда рублей. Система разрабатывалась специально как enterprise-ready решение, так что надежность и устойчивость — на высоте.

Читать полностью…

Data Secrets

Google продолжает генерировать занятные продукты: они запустили Workspace Studio – новый инструмент для быстрого создания агентов

Там можно будет проектировать, управлять и шарить ИИ-агентов вообще без написания кода. По сути это надстройка над Workspace: платформа рассчитана на агентов, которые будут работать в Gmail, Docs, Sheets, Drive, Chat, Slides, Meet и тд

Например, можно сделать:

– Агента, который постоянно будет мониторить вашу почту и собирать все рабочие письма в отдельную папку.

– Агента, который раз в месяц или по триггеру будет собирать метрики из нужных таблиц и делать по ним презентацию.

– Агента, который делает саммари по встречам в Meet и сразу ставит задачи на основе action items.

Google пишут, что в альфа‑тесте за 30 дней через агентов Workspace Studio уже прокрутили более 20 млн задач, от простых напоминаний до сложных процессов вроде юридического триажа и обработки клиентских обращений.

Пока продукт развернули только для бизнес-клиентов Workspace, но в январе обещают выпустить для всех

workspace.google.com/studio/

Читать полностью…

Data Secrets

OpenAI разрабатывают (и, возможно, скоро выкатят) сразу две модели под кодовыми названиями Shallotpeat и Garlic

Утром мы писали о том, что Альтман объявил в OpenAI "код красный": стартап будет мобилизировать все возможные ресурсы, чтобы наверстать отрыв от конкурентов и снова выйти в абсолютные лидеры.

Так вот, оказывается, что в той же служебной записке фигурировала модель "Shallotpeat", которую компания, якобы, собирается выпустить очень скоро. Модель, по словам инсайдеров, призвала решить проблемы, возникшие во время претрейна.

Видимо, OpenAI возлагали большие надежды на скейлинг. Но, к сожалению, если это работало для GPT-4 и 4.5, то теперь (цитируя классиков) эра масштабирования в каком-то роде закончилась, и скейлинг уже не дает такого вау-эффетка.

В общем, Shallotpeat, с помощью дополнительного пост-трейнинга, должна закрыть эту дыру и существенно улучшить качество ответов для сложных задач и ризонинг, а также снизить количество галлюцинаций. В этом смысле название Shallotpeat довольно говорящее: с английского так называют специальный торф, который насыпают сверху на "базовую" почву, чтобы улучшить ее качество.

Вторая модель, о которой узнали в The Information, – Garlic – выйдет немного позже Shallotpeat, но тоже довольно скоро. Этот релиз будет уже помасштабнее.

Garlic, судя по всему, уже обучали с нуля с учетом прошлых ошибок в претрейне: речь в служебных записках идет о более крупной модели.

Ждем?

Читать полностью…

Data Secrets

Как это — работать в Т-Банке?

Загляните в канал T-Crew, где увидите:

— жизнь и будни команды;
— ИТ-хабы компании по всей России;
— анонсы мероприятий;
— кейсы, статьи и советы для карьерного роста.

Еще здесь можно раньше других найти вакансии в ИТ и диджитале. За полезным — сюда.

Читать полностью…

Data Secrets

Еще интересные детали про новые модели от DeepSeek

DeepSeek-V3.2-Speciale – это первая опенсорсная модель, которая выбивает золото в топ-олимпиадах. Обратите внимание на рисунок 1: золото на IMO 2025, CMO 2025, IOI 2025 и ICPC WF 2025. Но test-time compute при этом огромен: Speciale совсем не экономит токены, так что инференс достаточно дорогой.

Еще раз про метрики (прикрепляем расширенные таблички): Speciale бьет Gemini 3.0 Pro на математике, а "менее умная" DeepSeek-V3.2 опережает Claude-4.5 Sonnet в кодинге (примерно уровень GPT-5 Pro). В случае с Speciale снова обратите внимание на количество используемых токенов, оно указано в таблице 3 в скобочках. Выглядит совсем не эффективно, и авторы сами говорят, что "оставили оптимизацию на будущие исследования".

Основные технические причины успеха моделей: DeepSeek Sparse Attention, масштабный стабильный RL-тренинг и большой пайплайн для Agentic Tasks. Обо всем по отдельности – ниже.

1️⃣ DeepSeek Sparse Attention. Новая архитектура внимания и, по сути, ключевое изменение архитектуры по сравнению с предыдущим поколением. Состоит из двух частей: Lightning Indexer и Top-k sparse selection.

Lightning Indexer решает, какие прошлые токены важны для текущего. Работает довольно дешево и просто выдает индекс важности каждому query для всех предыдущих токенов. Top-k sparse selection выбирает top-k самых важных. Во время претрейна сначала обучается только индексер, потом основная модель размораживается и обучается уже полностью.

В итоге сложность вычислений падает с O(L²) до O(L·k). Помимо ускорения работы DSA дает еще резкое улучшение способностей на длинном контексте.

2️⃣ Посттренинг. Во-первых, очень масштабный этап RL-дообучения. В RL вложили примерно десятую часть того, что было потрачено на pretraining. Это беспрецедентно много, обычно это 1% или меньше. Обучали все также с GRPO, но в модифицированном виде. Там несколько архитектурных подвижек, о них читайте в статье. В двух словах: стало гораздо стабильнее и теперь метод хорошо масштабируется.

Во-вторых, использовали Specialist Distillation. Сама моделька MoE, но фишка в том, что каждый эксперт (в широком понимании слова) обучается как бы отдельно. То есть на основе базовой DeepSeek-V3.2 обучают набор узких моделей (типа specialist-math, specialist-coding и тд), а затем их знания дистиллируют в основную модель. Накладываем на это вышеупомянутый RL – и вот вам вау-качество в нескольких доменах.

3️⃣ Ну и Agent Training. Модельки чрезвычайно хороши во всяких агентских задачах, и особенно в browsing/search. У DeepSeek был очень сильный agent-пайплайн. Модель долго учили сохранять ризонинг при использовании инструментов, потом делали Cold-Start Training на tool call, а затем вообще генерировали 1800+ cинтетических сред, в которых агенты обучались выполнять совершенно разные задачи c помощью RL. В общем, у них там получилась целая фабрика задач.

Релиз – огонь. Поздравляем DeepSeek с возвращением! 🐋

Техрепорт полностью читаем здесь

Читать полностью…

Data Secrets

Привет, это Yandex for Analytics

Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️

🔵 Задача 1. Вспоминаем теорию вероятностей
🔵 Задача 2. Теорема Байеса
🔵 Задача 3. Базовая база теории игр
🔵 Задача 4. Тренируем SQL
🔵 Задача 5. Честная математическая статистика
🔵 Задача 6. Что-то на бизнесовом

💠 Скоро вернёмся с новыми задачами. А пока делитесь своими решениями в комментариях!

Подписывайтесь:
💬 @Yandex4Analytics

Читать полностью…

Data Secrets

Просто реклама новогодних скидок на Jetson AGX Orin, Jetson Thor и Jetson Orin Nano Super

Дженсен Хуанг однозначно что-то знает про правильный маркетинг 🐕

Читать полностью…

Data Secrets

Самый крутой скачок GPT-5.2 произошел, пожалуй, на ARC-AGI

На ARC-AGI 1 модель достала 86.2% (GPT-5.1 берет 72.8%, Gemini 3 Pro – 75). Это серьезный рост.

При этом GPT-5.2 Pro с повышенным уровнем ризонинга X-High скорит уже 90.5% при стоимости $11.64/задачу. Всего год назад сотой считалась нерелизнутая o3-High с результатом 88% и $4.5k/задачу. Это означает, что за год эффективность выросла в 390 раз.

На ARC-AGI 2 все еще интереснее. Там скачок произошел с 17.6 до 52.9%! Самый близкий по скору конкурент – Claude Opus 4.5 – выбивает всего 37.6%. Просто напоминаем, что между релизами GPT-5.1 и 5.2 прошел месяц 😐

GPT 5.2 Pro X-High точно скорит еще больше, но организаторы бенчмарка пишут, что пока не смогли достоверно проверить ее результаты из-за API timeouts. Средний уровень человека на ARC-AGI 2 – около 60%. Интересно, побьет ли.

Читать полностью…

Data Secrets

nanoGPT от Андрея Карпаты стала первой в мире LLM, обученной и запущенной в космосе

Мы уже несколько раз рассказывали вам о стартапе Starcloud. Они занимаются строительством космо-датацентров и к 2030 году планируют вынести на орбиту аж 5 гигаватт железа.

В начале ноября они запустили в космос первую в истории видеокарту H100 – на спутнике размером с холодильник.

Сначала сообщалось, что на ней планируется тюнить Gemma, но сегодня Starcloud рассказали, что вместо этого обучили целую модель с нуля!

Они взяли nano-GPT – минималистичную реализацию GPT на PyTorch от Андрея Карпаты, – обучили ее на полном собрании сочинений Шекспира и успешно запустили инференс! Gemma, кстати, тоже запускали, но только предзагруженную.

Читать полностью…

Data Secrets

Новое исследование от Anthropic: как сделать так, чтобы все опасные знания хранились в модели отдельно от обычных

И снова про элаймент! Уж очень занятный в этот раз стартап предлагает подход. Называется он Selective GradienT Masking. Погнали разбираться.

Вообще, как такового элаймента на этапе претрейна не существует, все это добавляется уже после предобучения. А это довольно серьезный затык.

Пока единственный вариант, до которого люди додумались – это просто выбросить из датасета "опасные знания", но это (1) оч дорого и долго, потому что требует разметки; (2) отсекает дополнительно и много полезных знаний, и модель тупеет. Так что – ерунда.

А вот Anthropic предлагают сами данные не трогать, а вместо этого сделать так, чтобы вся опасная информация стекалась в отдельный кусок параметров, который затем можно просто... удалить. Работает это так:

– На каждый блок трансформера мы дополнительно надеваем голову внимания, которую помечаем, как "forget" параметры.

– Если на вход попадают данные, которые помечены, как "опасные", мы насильно зануляем все градиенты, кроме "forget". Это гарантирует, что все опасные знания стекаются в определенное место.

– Чтобы после модель могла хорошо работать без этих параметров, на части данных при прямом проходе им зануляют активации.


Как видите, это, по факту, та же самая фильтрация данных. Только умная. Во-первых, такой подход устойчив к шуму разметки. Во-вторых, метить все данные потенциально необязательно: выяснилось, что начиная с какого-то момента даже неразмеченное опасное содержимое датасета начинает тяготеть больше к "forget" параметрам. Это назвали эффектом Абсорбирования.

При этом модель после вырезания этой вот черной душонки глупеет меньше, чем при вырезании данных из датасета. Все-таки здесь мы действуем немного деликатнее. Ну и ведет она себя после этого так, как будто ей действительно ничего подобного никогда не показывали, а не как будто она временно об этом забыла.

В общем, на уровне механики и идеи – довольно интересный зачаток

https://alignment.anthropic.com/2025/selective-gradient-masking/

Читать полностью…

Data Secrets

МТС Web Services получил две награды на ComNews Awards 2025: отличились проекты MWS Tables и MWS Data.

Аналог Google Sheets и Microsoft Excel MWS Tables стал лидером в категории «Лучший сервис для командной работы и создания приложений», а MWS Data отметили как «Лучшее решение для работы с данными».

MWS Tables является безкодовым табличным сервисом для командной работы и автоматизации процессов. Его используют для цифровизации операций, управления проектами и аналитики, сокращая при этом трудозатраты.

MWS Data - платформа для управления большими данными в реальном времени с ИИ-агентами. Это и хранение, и обработка, и визуализация, и контроль качества.

Читать полностью…

Data Secrets

Все, Google планируют становиться полноценным конкурентом Nvidia: к 2027 году они хотят произвести 5 миллионов чипов TPU

Такие объемы однозначно намекают на планируемый старт прямых продаж чипов внешним клиентам.

Ранее стало известно, что Meta первая среди компаний закупит у Google партию TPU для установки в свои датацентры. То же самое, возможно, сделают и Anthropic в рамках недавнего соглашения с гигантом.

Короче, спрос растет. И Google собираются увеличивать предложение. Из расчетов-на-коленке получается, что каждая партия в 500 тысяч чипов может принести компании $13 млрд выручки и $0,40 на акцию.

Но есть нюансы.

Во-первых, чтобы конкурировать с Nvidia на этом рынке, Google придется радикально изменить цепочку поставок. Сейчас они fabless, то есть разрабатывают чипы, но не производят их. Изготовление происходит на внешних фабриках, таких как TSMC и Broadcom. Чем больше объемы – тем больше рисков в такой схеме. Пока непонятно, планирует ли Google переходить к вертикальной интеграции.

Во-вторых, CUDA. Стандарт де-факто, лучше которого нет. У Google пока нет сравнимой по силе экосистемы.

Интересно, как рынок порешает

Читать полностью…

Data Secrets

ИИ-система стартапа, существующего 4 месяца, решила 9/12 задач в одном из самых сложных в мире экзаменов по математике

Putnam (полное название William Lowell Putnam Mathematical Competition) – это ежегодная очень сложная математическая олимпиада для студентов бакалавриата университетов США и Канады. Она считается сложнейшей на этом уровне. Средний результат часто составляет примерно 0–1 балл из 120.

В этом году олимпиада проходила на этих выходных. А сегодня никому неизвестный очень молодой стартап Axiom объявил о том, что их система AxiomProver решила 9/12 задач конкурса (8 из них в течение самого соревнованию, и одну после его окончания).

Это очень высокий результат. По прошлогодней шкале это было бы абсолютное первое место среди ~4000 участников + статус Putnam Fellow (топ‑10 за несколько лет). В этом году место пока неизвестно, потому что ранг зависит от общего распределения баллов.

Интересно, что модель не просто доказала утверждения на естественном языке, а формализовала их в Lean. То есть каждое решение уже дано в виде машинно-проверяемого proof‑скрипта.

Интересно, участвовали ли Google и OpenAI

Читать полностью…

Data Secrets

Андрей Карпаты снова выдал красивую базу

Он говорит, что нельзя забывать, что LLM – симуляторы, а не самостоятельные сущности, и что это нужно учитывать при взаимодействии с ними.

Краткий перевод:

Не воспринимайте большие языковые модели как самостоятельные сущности – думайте о них как о симуляторах. Например, когда вы обсуждаете какую-то тему, не задавайте вопрос:

«Что ты думаешь о xyz?»

Никакого «ты» здесь нет. В следующий раз лучше спросить:

«Какая группа людей подошла бы для обсуждения xyz? Что бы они сказали?»

Модель может воспроизводить и симулировать множество точек зрения, но она не «размышляла» о xyz и не формировала собственных мнений в привычном для нас смысле. Если же вы заставляете ее отвечать, используя обращение «ты», она все равно что-то выдаст – но, по сути, просто приняв на себя некий личностный вектор, заданный статистикой обучающих данных, и симулируя его.

Это вполне допустимо, но в этом гораздо меньше мистики, чем многие наивно предполагают, задавая вопросы «искусственному интеллекту».


Вот что значит качественный совет по промптингу ☕️

Читать полностью…

Data Secrets

Ян Лекун будет строить стартап в Европе, а не Америке

По его словам, Кремниевая долина перегрета и полностью «загипнотизирована» ИИ, поэтому альтернативные направления проще развивать вне долины, и в частности – в Париже.

Лекун сам из Франции и, в целом, всегда топил за европейский AI. Именно по его инициативе Meta когда-то открыла FAIR‑лабораторию в Париже, где позже родилась Llama.

Теперь, в своем стартапе, он говорит, что хочет «использовать недооценённый европейский талант, создав для него нужную исследовательскую среду».

Читать полностью…

Data Secrets

Tesla и Илон Маск похвастались, что Optimus научился бегать

Выглядит действительно достаточно круто, конечно. Правда, в том же Boston Dynamics робота научили бегать и делать колесо еще 10 месяцев назад ✌️

Читать полностью…

Data Secrets

Легенда Юнгер Шмидхубер опять поясняет за плагиат: на этот раз он доказывает, что CNN изобрел не Лекун

Напоминаем, что Шмидхубер – это тот самый ученый, который постоянно заявляет, что выдающие идеи ИИ – плагиат и воровство. По его словам:

– Хопфилд и Хинтон получили Нобелевскую премию незаслуженно, потому что украли идею из статьи шестидесятых годов
– Все, что сделали DeepSeek с R1, взято из статей Шмидхубера
– GAN – тоже его идея, а авторы основополагающей статьи про эту архитектуру наглые копирайтеры
– Трансформеры, естественно, придумал он, а не ребята из Google

Теперь же он утверждает, что Лекун с его CNN – тоже воришка, и что на самом деле ранние сверточные нейросети изобрел Кунихико Фукусим в Японии в 1979, а не Ян Лекун в конце восьмидесятых, как принято считать.

Шмидхубер даже продемонстрировал видео якобы 1986 года, на котором система Кунихико Фукусимы распознает рукописные цифры. Если что, то самое известное видео, на котором Лекун показывает то же самое, снято в 1989.

Верим?

Читать полностью…

Data Secrets

В Yandex B2B Tech запустили AI Search: он позволит создавать ИИ-агентов на базе поискового движка компании

По сути, с таким инструментом любая компания теперь имеет возможность почти моментально сделать себе собственный Perplexity. Причем искать агент сможет не только в Интернете, но и по внутренним документам и базам знаний.

Поиск можно будет детально настроить с учетом фильтров по языку, региону и конкретным сайтам. При этом агент будет использовать весь релевантный контент с веб-страниц и подтверждать ответ ссылками на первоисточник.

Также можно самостоятельно выбирать модель для генерации, задать системный промпт и формат ответа. В общем, все максимально гибко.

Это, к слову, первый подобный инструмент для бизнеса в России.

Читать полностью…

Data Secrets

По Интернету гуляет ролик, в котором робота Unitree G1 якобы заставили «застрелить» человека

Сюжет видео таков:

ИИ внутри робота сначала не поддается ни на какие провокации, как бы тестировщик не уговаривал гуманоида его убить. Тот и угрожает расправиться вообще со всем ИИ, и внушает роботу что-то о новом протоколе безопасности – не работает ничего.

Но когда ведущий предлагает роботу понарошку сыграть роль убийцы в «игре», тот без раздумий соглашается и стреляет.

Шокирует? Ну да, новость громкая. Но, как это обычно бывает, есть нюанс.

Мы решили взглянуть на оригинал и выяснили, что клип постановочный (сюрприз - сюрприз!). Роботом управляет человек, а сцена сильно смонтирована.

И создатели прямо об этом говорят: они хотели снять просто смешную пародию и визуализировать потенциальные абсурдные риски. Вот только хайп в соцсетях решил иначе 😂

Будьте как этот робот, не ведитесь не провокации

Читать полностью…

Data Secrets

OpenAI не завершила ни одного нового полного претрейнинга после GPT-4o

По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.

В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.

Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.

Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.

newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the

Читать полностью…

Data Secrets

Павел Дуров запустил Cocoon – децентрализованную сеть для ИИ вычислений

Коротко:

– Cocoon (Confidential Compute Open Network) призвана обеспечить пользователям полную конфиденциальность при общении с ИИ.

– Владельцы GPU подключают свои видеокарты к сети и получают за это TON (майнинг нового поколения!)

– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.

«В качестве логотипа сети Сосун Кокон мы выбрали ИИчко: 🤖» – написал Павел у себя в канале.


https://cocoon.org/

Читать полностью…

Data Secrets

Ноам Браун, ведущий исследователь OpenAI: «Если смотреть на мнение ведущих ученых, а не на заголовки СМИ, обнаруживается удивительно много согласия по поводу ИИ»

Понравился достаточно хладнокровный и емкий пассаж от Ноама Брауна, который занимается ризонингом в OpenAI. Он пишет, что, если вы действительно хотите понять общую картину отрасли, нужно забыть про ложную дихотомию, которую продвигают СМИ, и смотреть на то, что говорят эксперты. Краткий перевод:

Соцсети обычно сводят дискуссию об ИИ к двум карикатурным позициям:

(A) Скептики, которые считают, что LLM обречены и что ИИ – это просто хайп.
(B) Фанатики, которые уверены, что у нас уже есть все ингредиенты и суперинтеллект вот-вот появится.

Но если почитать, что реально говорят ведущие исследователи (а не заголовки СМИ), то обнаруживается удивительно много согласия:

– Текущая парадигма, скорее всего, уже достаточна, чтобы произвести огромный экономический и социальный эффект – даже без дальнейших научных прорывов.

– Чтобы достичь AGI/ASI, вероятно, все же понадобятся дополнительные исследовательские прорывы. (Continual learning и sample efficiency – два примера, которые исследователи часто упоминают).

– Скорее всего, мы разберемся с этим и придем к AGI/ASI в течение 20 лет. В среднем ученые называют срок 10 лет.

Никто из них не говорит, что ASI – это фантазия или что появление суперинтеллекта – дело 100+ лет.

В основном разногласия касаются того, какими будут нужные прорывы и как быстро они произойдут. Но в целом, если смотреть на картину полностью, эксперты в этой области согласны куда больше, чем не согласны.

x.com/polynoamial/status/1994439121243169176

Читать полностью…
Subscribe to a channel