data_secrets | Unsorted

Telegram-канал data_secrets - Data Secrets

55444

Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n

Subscribe to a channel

Data Secrets

Дилан Патель считает, что у Anthropic есть модели сильнее, чем o3, но они не релизят их из соображений безопасности

Патель – очень известный в сети ИИ-аналитик и ведущий эксперт SemiAnalysis, которые как раз специализируются на исследованиях и консалтинге в области железа и ИИ. Он знаменит своими обзорами и выступлениями на подкастах.

Вот и сейчас в гостях у redpointai?si=_7qR66DWdjmV6VYo">Redpoint’s AI Podcast (советуем, кстати) он вдруг заявил, что у Anthropic уже несколько месяцев есть модель умнее, чем o3, но к ней нет доступа из-за повышенной опасности использования.

Кстати, Дилан говорит об этом не первый. Помните цитату знаменитого Gwern? «Anthropic так и не показали Claude-3.6-opus не потому что модель провалилась, они просто решили сохранить ее в тайне и использовать для обучения других более умных и дешевых моделей».

Как бы там ни было, с последнего релиза Антропик прошло уже пол года. Интересно, что они нам готовят кроме интересных ресерчей про элаймент.

Интервью Пателя полностью

Читать полностью…

Data Secrets

✨искусство нейминга✨

Читать полностью…

Data Secrets

На стриме про Deep Research, кстати, проскользнула пасхалка (или это троллинг?) DeepSeek: чат с темой «Является ли Deeper Seeker хорошим названием для…»

… видимо, для агента-ресерчера

Читать полностью…

Data Secrets

График с LiveBench Coding, кстати

Соотношение цена/качество о3 сильно выделяется, как ни крути

Читать полностью…

Data Secrets

The Kobeissi Letter провели интересное расследование и выяснили, могли ли действительно DeepSeek нелегально выкупать чипы Nvidia

Напоминаем, что несколько дней назад стартап обвинял в этом известный предприниматель и CEO ScaleAI Александр Ванг. Он говорил (и его поддержал Илон Маск), что на самом деле у компании есть кластер с 50к H100, но они не могут это разглашать, так как из-за текущих условий экспорта США закупали GPU нелегально.

И действительно: в Сингапуре, через который предположительно закупались видеокартами DeepSeek, с момента основания стартапа продажи чипов скакнули на колоссальные +740%.

Кроме того, в отчетных документах Nvidia исследователи нашли следующую занятную строку:

«Место конечного потребителя и место доставки могут отличаться от места выставления счета нашему клиенту. Например, большинство оборудования, которое продается в Сингапур, находится в других регионах»


Казалось бы, с чего бы Nvidia отдельно отмечать Сингапур в своих документах? А оказывается с того, что за последние 3 квартала Сингапур принес Nvidia рекордную прибыль в $17.4 млрд и оказался на втором месте среди стран потребителей. Для сравнения, в Китай продали железа на $11.6 млрд.

При этом темпы роста выручки в Сингапуре растут даже быстрее, чем в США (+278% против +133%). Вы скажете «но может быть они все эти GPU используют сами?»

Но нет. В Сингапуре всего 99 датацентров, в то время как в США их 5к+, а в Китае около 500. 99 датацентров – это даже не топ-20 стран мира, это примерно уровень Польши.

Так куда же деваются все эти видеокарты?

США этот вопрос тоже интересует, и поэтому они начинают расследование. Если ограничат продажи в Сингапур, под угрозой окажется около 20% доходов Nvidia.

💀

Читать полностью…

Data Secrets

OpenAI смотрит в сторону опенсорса

Вчера в честь выхода o3-mini Сэм Альтман запустил на реддите AMA (ask me anything). Его спросили, не планирует ли стартап релизить какие-нибудь веса или ресерчи, на что Сэм ответил так:

«Да, мы обсуждаем это. Лично я считаю, что мы оказались на неправильной стороне истории и нам необходимо разработать другую стратегию опенсорса. Но не все в openai разделяют эту точку зрения. Также это не является для нас высшим приоритетом на данный момент»


Кроме того, в этом треде с лидами OpenAI поднялись еще несколько интересных тем:

Сэм признал, что DeepSeek очень хорош. «Мы, конечно, создадим лучшие модели, но сохраним меньшее преимущество, чем раньше», – сказал он.

На вопрос о том, каким будет ИИ в 2030, вице-президент по инжинирингу Шринивас Нараянан предсказал, что к тому времени наше взаимодействие с ИИ «в корне изменится», поскольку он будет постоянно работать над задачами в фоновом режиме от нашего имени.

Вскоре нас ждут обновления в голосовом режиме, а еще OpenAI все еще планирует выпустить GPT-5. Таймлайна пока нет, но Сэм написал: «быстрый взлет ИИ более вероятен, чем я думал пару лет назад».

Прочитать ама полностью можно здесь

Читать полностью…

Data Secrets

🚀 Вышла o3-mini

Модель будет доступна даже для бесплатных юзеров (правда, лимиты будут небольшие, скорее всего). С ней можно будет использовать поиск + она сразу же доступна в API по цене ниже o1.

В зависимости от скейла рассуждений o3 либо немного хуже o1-mini (low режим, самый дешевый), либо немного лучше нее (medium режим), либо обходит даже полноценную o1 (high режим).

🍯 🍯 🍯

Читать полностью…

Data Secrets

"Поступашки — ШАД, Стажировки и Магистратура", - лучший гайд в мире образования и карьеры.
Канал ведут преподаватели Яндекса, ВШЭ и ШАД.

Внутри:
🔺Вопросы с собеса в Яндекс
🔺Как бесплатно вкатиться в айти
🔺Подборка топовых магистратур по Data Science

...и еще море полезнейшего контента. Вы пожалеете, что не нашли этот канал раньше.

Подписывайтесь, потом сами себе спасибо скажете: ⬇️
@postypashki_old

Читать полностью…

Data Secrets

Data просто хочет быть свободной

Читать полностью…

Data Secrets

Спорим, тебе советовали книгу “Грокаем алгоритмы”

А как насчет грокнуть уже эти алгоритмы?
Да так, чтобы РАЗ И НАВСЕГДА

Ты не смог выучить алгоритмы, потому что:
- cложно и бессистемно объясняли
- практика не билась с теорией
- отправляли читать устаревшие книги...

Ребята из Т-навыков - опытные разработчики. Они научат тебя решать алгоритмические задачи по четкой и понятной системе!

Регистрируйся на открытый урок в предверии курса
"Хакни алго-собесы". И за 1 час ты:

☝️ получишь четкую систему решения алгоритмических задач

☝️ решишь топ-3 популярные задачи

☝️ получишь RoadMap изучения алгоритмов

12:30 по МСК в эту субботу (1 февраля) стартуем.

Регистируйся, чтобы не упустить шанс выучить алгоритмы навсегда

Читать полностью…

Data Secrets

Воу: вышел Mistral 3 Small

24B параметров, лицензия Apache 2.0, на инференсе летает со скоростью 150 токенов/секунду. По метрикам сопоставима с Llama 3.3 70B, Qwen 2.5 32B и GPT-4o mini.

Блогпост здесь

Веса уже на торенте, ссылка тут

Читать полностью…

Data Secrets

Сегодня опубликовали международный AI Safety Report, в котором неожиданно показали некоторые ранние метрики o3

График наверху (конкретные модели, с которыми сравнивали, не указывают, тут только абстрактное сравнение относительно дат релизов). В отчете результаты прокомментировали так:

Это значительно более высокие результаты, чем у любой модели до этого, в ряде самых сложных тестов в области программирования, абстрактного и научного мышления.

В некоторых из этих тестов o3 превосходит многих (но не всех) экспертов-людей. Кроме того, она совершает прорыв в ключевом тесте на абстрактное мышление, который многие эксперты до недавнего времени считали недостижимым.


Полностью отчет можно посмотреть здесь (300 страниц на секундочку!)

Читать полностью…

Data Secrets

Грядет Llama4 reasoning!

От этом написал на фейсбуке Марк Цукерберг. Он также говорит, что Meta уже закончили претрейн Llama4 mini, и что полномасштабная Llama4 станет omni-моделью (как GPT-4o) и будет обладать фичами агентов (как Sonnet).

Я думаю, что 2025 вполне может стать годом, когда Llama и опенсорс станут самыми передовыми и широко используемыми моделями ИИ.

Наша цель при создании Llama 3 состояла в том, чтобы сделать модели с открытым исходным кодом просто конкурентоспособными по сравнению с закрытыми моделями, а цель Llama 4 — занять лидирующие позиции на рынке.


Ну какова гонка! 🤩

Читать полностью…

Data Secrets

Слив данных DeepSeek. Что известно?

Сегодня ночью компания Wiz, которая занимается облачной кибер-безопасностью, объявила у себя в блоге, что обнаружила открытую базу данных DeepSeek, содержащую «чувствительную информацию».

Эта база данных ClickHouse включает в себя более миллиона строк логов, содержащих историю чатов, секретные ключи, детали бэкенда и другую высококонфиденциальную информацию.


Никаких особых навыков белым хакерам не потребовалось: они просто поискали по субдоменам с необычными портами, и нашли хосты, которые привели к БД. Чтобы в нее зайти, также не потребовалось никакой аутентификации, и ресерчеры сразу попали на страницу с доступом к исполнению SQL запросов и добрались до таблиц.

Хакеры предупреждают, что если ИИ будет развиваться такими темпами и дальше, а разработчики не будут уделять нужного внимания безопасности, нас всех ждут еще более ужасные утечки.

DeepSeek ситуацию пока не прокомментировали

Читать полностью…

Data Secrets

HuggingFace делятся статистикой: количество скачиваний и лайков на аккаунте DeepSeek растет вертикально и R1 уже вошла в топ-10 самых залайканных моделей в истории платформы

P.S. не будьте как HuggingFace, следите за читаемостью цветовой палитры на ваших графиках

Читать полностью…

Data Secrets

Вышло свежее исследование от Anthropic про новый метод элаймента LLM

Давненько антропики не выпускали крутых ресерчей, а тут сразу очень объемная статья с крутыми результатами, да еще и Ян Лейке (бывший ключевой ученый OpenAI) в соавторах. Разбираемся, что показали 👇

Начнем с того, что стартап уже давно занимается в частности изучением джейлбрейков – техник «хитрого» промптинга, которые позволяют обходить ограничения моделек. В ноябре, например, у них выходила статья (наш разбор) про метод обнаружения новых методов джейлбрейка. Сейчас они тоже показывают что-то похожее: Constitutional Classifiers, то есть систему классификации для защиты LLM.

В основе метода safeguard классификаторы, которые обучают полностью на синтетических данных. Такие данные генерируются на основе набора естественно-языковых правил, которые определяют, какие запросы допустимы, а какие должны блокироваться. Эти правила называются конституциями, потому метод и зовется Constitutional.

При этом так фильтруются не только выходы LLM (как происходит традиционно), но еще и сами запросы. И такой рецепт в совокупности с качественной генерацией синтетики сработал ну очень хорошо.

Надо сказать, что обычно основная проблема таких систем – это то, что они плохо приспосабливаются к новым методам промптинга. Но тут в ходе тестирования не нашлось ни одного промпта, которым бы удалось стабильно сломать защищенную таким методом систему.

А тестирование, чтобы вы понимали, было действительно масштабное: Anthropic провели целый хакатон, на котором предлагали до 15к долларов за успешные джейлбрейки. В нем приняли участие 405 человек, включая профессиональных red teamer’ов (это типа белые хакеры в мире LLM). Плюс внутренние тесты стартапа, конечно: у них есть собственная red team.

При этом по словам Anthropic процент false positive остается достаточно низким (до 0.5%), так что моделька получается даже не слишком пугливой.

В общем результаты крутые, правда. Полностью статью читайте тут: arxiv.org/abs/2501.18837

Читать полностью…

Data Secrets

Альтман: «Deep Research уже решает полноценный процент экономических задач всего мира и это не предел»

Сэм говорит, что DR – это только первый шаг на пути к агентам, которые могут делать научные открытия (помните пять ступеней AGI?)

Кстати, кодовое название проекта – Caterpillar, то есть гусеница 🐛

Читать полностью…

Data Secrets

OpenAI абсолютно внезапно выпустили Deep Research

Это агент для автономного проведения исследований. На основе вашего промпта DR проведет глубокий анализ источников и за 10-20 минут выкатит подробный отчет по теме.

Внутри крутится версия o3, «оптимизированная под веб-браузинг и python аналитику». Питон ей нужен для того, чтобы что-то считать или даже строить графики. Модель анализирует не только текст, но и картинки, и pdf-файлы.

OpenAI пишут, что агент очень силен в риал-ворлд задачах. Например, на ставшем знаменитым Humanity Last Exam (пост), на котором модели набирали максимум 9.4% до o3, Deep Research бьет аж 26.6!

Примеры юзер-кейсов можно посмотреть в блогпосте OpenAI. Сейчас агент уже доступен в тарифе Pro, скоро обещают раскатить на Plus и Team.

Читать полностью…

Data Secrets

Бывший CRO OpenAI Боб МакГрю говорит в новом интервью, что путь к AGI чист и ясен

"Последние 5 лет люди искали что-то, что должно было заполнить разрыв между претрейном и тем, что можно масштабировать до AGI. Сейчас, когда мы нащупали ризонинг, мы находимся в чистом режиме скейлинга"


Напоминаем, что должность Боба была связана с безопасностью (буквально "директор по управлению рисками" с упором на ресерч), но он оставил свое место в OpenAI и в сентябре ушел из стартапа вслед за Мирой Мурати.

Полностью интервью лежит тут, вышло вчера

Читать полностью…

Data Secrets

Пользователи, кстати, заметили, что o3-mini может думать даже дольше, чем o1 full. Время раздумий в режиме high доходит до 10 минут, а длина цепочек рассуждений достигает 44 страниц

Читать полностью…

Data Secrets

Вышли результаты o3-mini на LiveBench

(Livebench примечателен тем, что он постоянно обновляется, минимизируя всевозможные лики и гарантируя, что задачи не устаревают и не становятся слишком простыми. В общем это почти как арена)

На кодинге модель рвет абсолютно всех с огромным отрывом, и в среднем она лучше R1 (но не по математике).

В математике, кстати, сначала результаты были аномально низкими, но затем организаторы признались, что случайно допустили ошибку, и пересчитали среднее.

Читать полностью…

Data Secrets

CEO Nvidia вызвали на ковер в Белый Дом

По сообщениям сразу нескольких СМИ Трамп и Хуанг должны встретиться сегодня, в пятницу. Цель встречи неизвестна, предположительно разговор пойдет о DeepSeek и о том, как они могли заполучить GPU несмотря на ограничения США.

Напоминаем, что сразу после выхода R1 акции Nvidia драматично обвалились, убытки компании составили сотни миллиардов долларов

Читать полностью…

Data Secrets

Сэм продолжает тратить инвестиции на мощное железо и пообещал, что завтра нас ждут какие-то апдейты 😉

Читать полностью…

Data Secrets

EpochAI говорят, что в 2025 нас ждет еще больше моделей, обученных на огромных кластерах

Сейчас примерная планка передовых моделей – 10^25 FLOP (10 септиллионов операций с плавающей запятой). В переводе на железо это больше 5к H100 и больше 15к А100.

Всего сейчас таких моделей насчитывают 24. Первой стала GPT-4. В 2023 ее обучали на 25000 А100, следом пошли Inflection-2 и Gemini.

Если тенденции сохранятся, в этом году таких моделей станет намного больше. Нечто подобное уже случалось: GPT-3 обучался на 10^23 FLOP в 2020 году, а к 2024 было уже 80+ моделей выше этого уровня.

epoch.ai/data/large-scale-ai-models

Читать полностью…

Data Secrets

У некоторых юзеров ChatGPT в модели GPT-4o появился переключатель «Thinking»

Пока непонятно, в чем концепция. Возможно это какой-то low-compute режим рассуждений, возможно переключатель на o1 (?). Пока единственное отличие видится в том, что в 4o можно грузить файлы.

Может быть, так OpenAI собирается раскатить немного ризонинга на фри пользователей (хотя пока непонятно, будет ли фича доступна им вообще).

Читать полностью…

Data Secrets

Разбираем релиз Perforator от Яндекса: система профилирования уровня Google, но в опенсорсе

Яндекс выложил в открытый доступ систему непрерывного профилирования, которую использует внутри компании для анализа производительности сервисов. Если проще, то это инструмент, который анализирует код компании в реальном времени и показывает, где идут лишние расходы на серверы. До этого подобные инструменты были доступны только внутри крупных технологических компаний, за деньги или тратили больше ресурсов на мониторинг.

Что интересного:

🔷 Масштаб внедрения впечатляет: Perforator уже внедрен в крупнейших сервисах Яндекса. К примеру, он мониторит нагрузки серверов Поиска и Рекламы.

🔷 Техническая реализация: Инструмент работает без необходимости модификации исходного кода и использует возможности eBPF для сбора данных прямо в ядре Linux. Поддерживает C, C++, Go и Rust.

🔷 Экономический эффект: до 20% снижение затрат на серверное оборудование.

Ну мед 🍯

Статья: https://habr.com/ru/companies/yandex/articles/875070/

https://github.com/yandex/perforator

Читать полностью…

Data Secrets

А вы знаете все о PostgreSQL?
 
Ребята из @Selectel собрали для вас топ инструментов базы данных PostgreSQL. В карточках рассказали, как упрощать запросы, сохранять результаты в виде таблицы, проводить сложные вычисления и многое другое.
 
Читайте подборку на канале @Selectel и подписывайтесь, чтобы не пропустить топовые IT-материалы в удобном формате.

Реклама, АО «Селектел», ИНН: 7810962785, ERID: 2VtzqxbsPBS

Читать полностью…

Data Secrets

А вот и более приятные новости: там заехал PyTorch 2.6!

🔷 Теперь torch.compile наконец можно использовать с последним Python 3.13

🔷 AOTInductor – компилятор для ускорения моделей – получил сразу несколько новых фичей. Теперь в нем появился "минификатор", который помогает находить ошибки в моделях, создавая минимальный код, воспроизводящий проблему.

Также добавили совместимость в режиме режим ABI (это означает, что ничего гарантировано не сломается при переезде на будущие версии торча). А еще появился новый формат упаковки моделей и поддержка вычислений на GEMM/CONV.

🔷 Появился параметр torch.compiler.set_stance, с помощью которого можно управлять поведением torch.compile. Например, настроить, чтобы код выполнялся в "жадном" режиме (без лишней компиляции).

Полный список обновлений можно посмотреть здесь

Читать полностью…

Data Secrets

Ян Лекун: «Реакция рынка на DeepSeek необоснована»

«Большинство заблуждается по поводу инвестиций в AI-инфраструктуру. Большая часть этих миллиардов тратится на инфраструктуру для инференса, а не на обучение.

Запуск AI-ассистентов для миллиардов людей требует огромных вычислительных ресурсов. Если добавить обработку видео, логическое рассуждение, работу с памятью и другие возможности в AI-системы, стоимость их работы будет только расти.

Единственный важный вопрос — будут ли ваши пользователи готовы платить достаточно (напрямую или косвенно), чтобы оправдать капитальные и операционные затраты. »


Переводим: по мнению Лекуна, качество модели не имеет смысла, если у компании нет устойчивой экономики. Другими словами, даже если DeepSeek технологически конкурентоспособен, его способность изменить рынок зависит только от того, сможет ли он эффективно монетизироваться.

Тем временем OpenAI, которые работают в огромный минус уже 10 лет: 😐

Читать полностью…

Data Secrets

Тем временем вокруг DeepSeek продолжают строить теории заговора

Один из крупнейших ИИ-инвесторов в мире Дэвид О. Сакс на американском телевидении говорит, например, что R1 – это дистилляция из o1, и этому есть доказательства.

В стартапе Альтмана, видимо, позицию разделяют: Bloomberg сообщает, что Microsoft начали расследовать возможную "кражу" данных OpenAI компаниями из группы DeepSeek.

"Должно быть обидно, когда кто-то крадет твою интеллектуальную собственность и делает из этого прибыль" – комментируют в Твиттере статью Bloomberg пользователи. На данный момент на стартап подали уже более 10 групповых исков, связанных с авторскими правами.

Читать полностью…
Subscribe to a channel