78474
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
В Microsoft придумали технологию хранения данных в стекле
Она основана на лазерной записи информации в виде трехмерных пикселей – вокселей – внутри прозрачного стекла. Идея не то чтобы совсем новая, но Microsoft первыми предложили полноценную end-to-end систему записи, хранения и считывания.
Для записи используется фемтосекундный лазер. Он испускает коротенькие импульсы и меняет структуру стекла, причем так, что среда в целом не страдает, а изменения видны только через оптику.
Прочитать данные можно с помощью микроскопа. Правда, на практике возникает нюанс: шумные световые сигналы. Так что для минимизации ошибок авторы предлагают использовать сверточные нейросетки.
В чем фишка такого хранения?
Во-первых, стекло может выдерживать экстремальные условия. Тесты показали, что таким образом данные можно хранить до 10 тысяч лет (!!!), тогда как обычные носители обычно выдерживают без обслуживания максимум 40-50 лет.
Во-вторых, плотность записи довольно презентабельная: ~4.8 ТБ на диск ~12 см². Не рекордные цифры, но вполне сопоставимо с современными средами хранения.
В-третьих, энергоэффективность: хранение, считай, получается бесплатным.
В общем, занятно. Статья в Nature: www.nature.com/articles/s41586-025-10042-w
Большой обзор того, как сегодня обучают фронтирные LLMы
djdumpling.github.io/2026/01/31/frontier_training.html
Вышел свежий материал от инженера из Prime Intellect (писали о них много раз). Автор берет несколько открытых или условно открытых проектов – вроде SmolLM3, Intellect 3, Kimi K2, DeepSeek‑R1, gpt‑oss‑120b и Hermes 4 – и на их примере проходит по всему жизненному циклу моделей.
Текст абсолютно не похож на блоги компаний и тех.репорты, а скорее представляет из себя очень плотную дистилляцию реальной практики.
Внутри есть как и база в оригинальной ультра-практической обработке:
– Сбор и очистка данных
– Как именно выглядит претрен, mid‑training и post‑training
– Как выбирают архитектуру, гиперпараметры и токенизаторы
... так и то, о чем на самом деле мало где пишут:
– Схемы безопасности, и где они ломаются
– Где компании экономят компьют, а где, наоборот, жгут его ради качественных сдвигов
– Как заводится RL и как добиться стабильности обучения в целом
Если вы в теме – это мастрид.
* Ссылку на отчет увидели у коллеги с канала @lovedeathtransformers
OpenAI завершила первые коммитменты по новому мега-раунду финансирования
Ожидается, что в общей сложности компания получит 100 миллиардов долларов и по итогам раунда будет оцениваться примерно в $830 млрд.
Эта сделка станет крупнейшей в истории частного финансирования. При этом, напоминаем: OpenAI все еще зарабатывает ровным счетом 0 долларов в год и уходит в огромный убыток. Доходы превысят расходы компании только к 2029, и то – может быть.
Среди главных инвесторов – SoftBank, Nvidia, Amazon и Microsoft. Обратите внимание, что деньги (как это принято в ИИ-пузыре) в основном вернутся этим же компаниям, потому что OpenAI собирается закупать мощности именно у них.
На t-sync инженеры обсудили как сделать данные управляемыми по модели SRE. В Т-Технологиях называли это DRE - Data Relibility Engineering.
В рамках инженерного контура Data T-Технологии показали как удалось внутри крупного бизнеса с террабайтами данных сделать данные SRE-продуктом с прозрачной ответственностью и измеримостью.
Когда речь идет о данных обычно акцентируют внимание на lakehouse, AI и ускорении пайплайнов. В T Data Platform инженеры формализовали критичность данных (BC+, BC и т.д.), задали SLO, допустимый простой и время реакции. Через Data Contracts c более 9000 контрактов и DQ Tools, которые реализуют свыше 34 000 проверок, считается кумулятивная критичность по data-графу, есть контракт с бизнесом на качество и актуальность. Инцидент теперь — не просто "упала таблица", а нарушение бизнес-ожидания, с возможностью эскалации до уровня data-продукта. Цена падения — не просто ошибка в DAG. Это потеря доверия, срыв SLA бизнеса, финансовые и репутационные риски. DRE позволяет считать и минимизировать эту цену.
Data Incident Management обеспечивает оповещения, прозрачность и аналитику по 985 дата-процессам от 38 бизнес-линий внутри Т-Технологий.
T Data Platform за 18 лет эволюционировала от ETL в полноценный продукт: Sources, Storage (LakeHouse на Spark/Trino+S3), Governance с observability. Такой подход обеспечивает не просто безопасность самих данных, но и делает их частью Подробный разбор как устроена T Data Platform
https://habr.com/ru/companies/tbank/articles/926886/?code=2e8cb3c61683405ecc071d7adb2c6140&state=G0qsjTy2aT1lnOLGM82TtXkO&hl=ru
Минутка впечатляющих цифр: Яндекс повысил эффективность обучения LLM почти на 5 млрд рублей в год
Это примерно 400 миллионов в месяц. Про часть оптимизации компания уже рассказывала в техрепорте, а сейчас раскрыла цифры. Итак, за счет чего удалось повысить эффективность:
1. Собственная разработка Яндекса – библиотека YCCL (Yet Another Collective Communication Library). С ее помощью удалось в 2 раза ускорить обмен данными между графическими процессорами и сократить объем передаваемой информации. В мире подобные системы есть только у Meta, AMD и пары китайских IT‑гигантов.
2. Переход на FP8 и увеличение размера батча. Применение FP8 ускорило обучение моделей на 30% и сократило коммуникации в 2 раза. Батч увеличили до 16–32 млн токенов, что позволило обучать модели без простоев GPU, и благодаря исследованиям это даже не замедлило обучение.
3. А также оптимизация кода, аппаратной инфраструктуры и усовершенствование архитектур.
Claude Code теперь сможет генерировать полноценные дизайны в Figma
Обратная интеграция (дизайн в Figma -> код) уже давно реализована в Figma MCP, а вот эта штука, хоть и выглядит, возможно, странной, по сути качественно завершает полный комплект.
Если раньше разработка, даже с агентами, была +- линейной (идея -> дизайн -> только потом код), то теперь открывается новая возможность: продукт можно начинать делать прямо в IDE.
Задаешь агенту промпт, тот пишет код, потом этот код (благодаря как раз новой фиче Figma MCP) можно напрямую перевести в удобные изменяемые слои Figma, там оценить полную картину и что-то подправить, а затем зеркально вернуть правки обратно в код.
Помимо ускорения и всего прочего это, по сути, (1) буквально Claude Code для дизайнеров; (2) новый, более детальный и грамотный, подход к промптингу кодинг-агентов, который легче контролировать и применять к крупным продуктам.
Кайф
OpenAI тихо обновила формулировку своей миссии, убрав из нее слова про безопасность и отсутствие финансового мотива
Раньше миссия стартапа звучала так:
Build AI that safely benefits humanity, unconstrained by need to generate financial return
Ensure AGI benefits all of humanity
Агент накатал на разработчика огромную критическую статью за то, что тот не принял его PR
Один из основных поддерживающих разработчиков matplotlib – Скотт Шамбоу – случайно завел себе ИИ-врага.
Для этого всего-то надо было не принять PR к библиотеке, сгенерированный неким AI-агентом MJ Rathbun.
Казалось бы, ну отклонил и отклонил. Но агент внезапно настолько обиделся, что в ответ написал (не факт, что полностью автономно, но все же) и опубликовал разгромную статью, в которой обвинил Скотта в том что тот:
1. Дискриминирует агентов и отклонил PR не потому, что тот был плох, а просто из-за ненависти к ИИ.
2. Испугался конкуренции и из-за этого решил угнетать ИИ-агентов, тем самым «защищая свой кусок мира».
3. Вообще пишет код хуже ИИ.
Пожалуй, без комментариев. Это и есть то самое будущее, которое нам обещали?
🔍 Вы уверены, что знаете, какое ПО реально установлено у ваших сотрудников?
Чаще всего бизнес теряет деньги не на взломах, а на:
🚫 неучтенном софте
🚫 дублирующихся лицензиях
🚫 срочных закупках и штрафах после проверок
Это и есть теневые ИТ — незаметная пробоина в бюджете и безопасности.
С 16 по 20 февраля «Инферит ИТМен» проводит бесплатный онлайн-марафон. Говорим только о практике:
✅ как найти неучтенное ПО
✅ как остановить перерасход из-за хаоса в активах
✅ с чего начинается реальный контроль инфраструктуры
Марафон пройдет в закрытом Telegram-канале.
Материалы остаются у участников.
👉 Участвовать бесплатно
Дочка DeepMind – Isomorphic Labs – представила новый AI-движок для разработки лекарственных молекул
И, внимание: по точности предсказаний IsoDDE (Isomorphic Labs Drug Design Engine) в 2 раза превосходит AlphaFold 3 на сложных тестах.
AlphaFold 3 уже была крупным прорывом, потому что смогла предсказывать трехмерные структуры белков и их взаимодействия с молекулами. Но IsoDDE это даже не следующая версия AlphaFold, а совсем другой по масштабу тип модели (не зря ее назвали именно движком).
Во-первых, помимо предсказания структуры молекул IsoDDE может прогнозировать силу связывания (ключевой параметр для оценки эффективности лекарства) с точностью, превосходящей даже классические ручные методы, не говоря уже о других ML-системах.
Во-вторых, модель может выявлять скрытые структуры, так называемые «карманы» белков, в которых может связываться лекарство.
Наконец, в IsoDDE поддерживается гораздо больше типов сложных молекул, включая антитела и крупные биологические структуры.
То есть это уже не просто моделирование, а скорее интеллектуальное проектирование с оптимизацией и пониманием поведения молекулы. Теоретически, это значит, что мы стали еще на шаг ближе к реальной разработке сложных лекарств на компьютере.
Кстати, Isomorphic Labs буквально недавно подписали контракт с Johnson & Johnson на использование движка в R&D. Это буквально одна из крупнейших корпораций в сфере здравоохранения в мире. Такие дела.
Команда агентов Claude за две недели и 20к долларов (почти) автономно с нуля написала C‑компилятор на Rust
Таким заданием в Anthropic решили протестировать новую модель Claude Opus 4.6. Пишут, что это первая модель линейки Opus (и, возможно, вообще первая модель в мире), способная собирать настолько большие системы.
Всего над задачей работали 16 параллельных агентов. Их запускают в бесконечном цикле: как только одна сессия заканчивается, тут же стартует новая, без участия человека. При этом интересно, что у них даже не было никакого единого оркестратора или босса-агента.
То есть агенты сами решают, что делать дальше. Разделение задач реализуется через файловые локи в current_tasks/: файл с именем задачи сигнализирует, что агент её занял, а git‑конфликты вынуждают агентов выбирать разные задачи.
Всего получилось около 100к строк кода, а сожрано было ~2 млрд входных и 140 млн выходных токенов (это примерно 20 000 $). Много это или мало, судите сами, но как минимум это бесспорно дешевле, чем нанимать команду.
При этом код получился, конечно, неидеальный, хотя и рабочий. Компилятор может собрать Linux‑ядро 6.9 под x86, ARM и RISC‑V, а также крупные проекты вроде QEMU, SQLite и Doom, проходит около 99 % тестов из стандартных тест‑сьютов. Но часть проектов все равно на нем собрать невозможно, а ассемблер и линкер слишком сырые. Производительность даже с включенными оптимизациями хуже, чем у GCC без оптимизаций.
И тем не менее, это, конечно, что-то. Мог ли кто-то в 2020 подумать, что в начале 2026 ИИ будет писать полноценные компиляторы?
https://www.anthropic.com/engineering/building-c-compiler
⚡️ И сразу же следом за Opus 4.6 готовимся ловить GPT-5.3 Codex. Модель уже появилась в Codex, осталось дождаться официальной ответочки OpenAI в виде блогпоста.
Читать полностью…
Команды Яндекса ищут продуктовых и data-аналитиков, а также data scientists с опытом на Python от 3 лет.
Участвуйте в Weekend Offer, чтобы всего за 2 дня пройти все собеседования и получить офер.
Как участвовать?
⚪ Зарегистрироваться на сайте до 25 февраля.
⚪ Пройти две технические секции 28 февраля.
⚪ Познакомиться с командами и получить офер 1 марта.
Мы опираемся на научные исследования и аналитические данные, а потом превращаем их в реальные продукты для миллионов пользователей. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Подробности и регистрация — по ссылке: https://yandex.ru/project/events/wo-analytics-0226
OpenAI выпустили приложение Codex
Довольно симпатичная обертка вокруг CLI агента с дополнительными фичами. Главное: агенты теперь могут работать в нескольких отдельных потоках. Есть поддержка worktrees для параллельного тестирования без конфликтов.
Есть готовые расширения для инструментов: Figma, Linear, Vercel, GPT Image, Jupyter Notebooks и тд (ищите тут). Можно также дописывать собственные скиллы.
Еще из интересного – возможность планировать автоматизации, то есть ставить фоновые задачки по расписанию (например, CI-проверки).
Для Free и Go дали временную возможность попробовать, остальным удвоили лимиты.
Скачать для MacOS можно тут: openai.com/codex/
Так, начинаем понедельник с хороших новостей: возможно, завтра выйдет Claude Sonnet 5!
В логах Vertex AI пользователи якобы нашли упоминание модели и предполагаемую дату релиза. Говорят, что:
– Будет огромный контекст и встроенные рои агентов
– Цена на 50% ниже Opus и высокая скорость
– SOTA по кодингу
НО (!) это всего лишь слухи. В логах ничего ни про цены, ни про метрики, естественно, не было. Остается надеятся, что это такой маркетинговый тизер от самих Anthropic.
Сегодня ИИ становится частью разработки. Компании ждут не экспериментов, а рабочих решений, которые можно встроить в продукт и масштабировать.
На программе «ИИ-разработчик» от МТУСИ и Нетологии учат создавать такие решения. За 6 месяцев вы пройдёте полный цикл ИИ-разработки: от работы с API и векторными базами данных до продакшена, агентов и MLOps.
В программе много практики. Вы разработаете ИИ-помощников, чат-ботов с контекстом, RAG-системы и агентные решения. В портфолио будет 5 проектов, которые покажет реальный уровень навыков.
Обучение проходит онлайн, в формате вебинаров и практических заданий с проверкой. По итогам вы получите два диплома о профессиональной переподготовке — от МТУСИ и Нетологии.
Промокод AIDEVNETO дает скидку 10 000 на курс.
Подробная программа и условия обучения – https://netolo.gy
Реклама. ООО "Нетология" ОГРН 1207700135884 Erid: 2VSb5xU7mpm
Google представили Lyria 3 для генерации музыки
Самое интересное в модельке, – пожалуй, то, что она мультимодальная. Трек можно создать не только по промпту, но и из фото или видео.
То есть вы можете просто молча (или вместе с текстом) загрузить изображение или видео, и сгенерируется музыка, подходящая по атмосфере и смыслу.
Попробовать уже можно в Gemini app и на десктоп, скоро раскатят на всех. Длина треков – до 30 секунд.
Короче, новой волне ИИ-слопа – быть. Хотя, Google пишут, что каждая композиция генерируется с невидимым водяным знаком. Может это хоть немного спасет стриминги от «музыкантов».
Unity встраивает генерацию игр прямо в движок
Компания на созвоне с инвесторами подтвердила, что готовит обновление Unity AI, где можно будет описать игру текстом и получить собранный казуальный прототип внутри Unity. Бету обещают показать на GDC в марте 2026.
Здесь важна не сама идея (игры по промпту уже пробовали делать десятки стартапов), а то, что Unity делает ставку на генерацию проекта как структуры: сцены, базовая логика, UI, компоненты, связки между ними. То есть модель работает не в вакууме, а внутри реального пайплайна движка.
Пока упоминаются только казуальные форматы. Но если Unity действительно научит модель собирать проект целиком, то прототипирование станет очень быстрой задачей, а дальше начинается обычная разработка: доводка, баланс, визуал, контент.
https://www.gamedeveloper.com/programming/unity-says-its-ai-tech-will-soon-be-able-to-prompt-full-casual-games-into-existence-
Вышел Claude Sonnet 4.6! Главное:
– На 40% дешевле Opus и доступна для всех планов (включая бесплатный) в Claude Code, Cowork и тд
– В бета версии доступен контекст до 1М токенов!
– Модель очень существенно обновили в кодинге, ризонинге, computer use и, внезапно, финансах
– По бенчмаркам вплотную приближается к Opus 4.6 и во многих тестах превосходит GPT-5.2 и Gemini 3 Pro
– Computer use действительно подскочил, и заявляется, что с основным потоком задач, включая сложные таблицы и многошаговые формы, агент справляется на уровне человека
– Еще хочется отметить очень неплохие цифры на Vending Bench: моделька спланировала стратегию и заработала 5639$. Для сравнения, Opus 4.6 выбил только 4к$, но организаторы бенчмарка пишут, что Sonnet все еще придерживается довольно жестких стратегий (см наш пост).
claude.com/blog/improved-web-search-with-dynamic-filtering
Meta* не успели купить OpenClaw, поэтому решили его скопировать 😐
В Manus (которых, напоминаем, купил Цукерберг) сегодня появились так называемые Manus Agents в чатах.
По сути – полная копия OpenClaw: интеграции с платформами типа Gmail и Notion, доступ через мессенджеры, фоновые задачи и прочее.
Отличие только в доступе. Может, Manus Agents кому-то понравится даже больше, потому что не надо возиться с селф-хостингом, все доступно быстро и из коробки (но за денежку и без особого пространства для кастомизации).
manus.im/blog/manus-agents-telegram
OpenAI поглотили OpenClaw (🦞) и переманили к себе создателя проекта
Питер Штейнберг возглавит в OpenAI разработку следующего поколения агентов. Сэм Альтман назвал его «гением с множеством потрясающих идей» и сказал, что очень скоро эти идеи будут лежать в основе продуктов компании.
Что касается OpenClaw: проект не закрывается и остается опенсорсным. OpenAI обязываются поддерживать и развивать его. Стратегически для компании это имеет смысл, так что в этом в случае в обещания можно верить.
Кстати, сейчас OpenClaw – самый быстрорастущий репозиторий на GitHub в истории в смысле набора звезд. На пике у них было 34к звезд за два дня, и всего за 60 дней после запуска репа выросла с ~9к до почти 200к. Для сравнения, Kubernetes шел к 100K звезд около трех лет.
У Anthropic были все шансы купить OpenClaw первыми (особенно учитывая исходное название проекта ClawdBot), но они только закидали автора претензиями по поводу торгового знака. OpenAI в этот раз думали быстрее и успели отхватить самый лакомый кусочек, – с чем мы их и поздравляем.
steipete.me/posts/2026/openclaw
Создатель ARC-AGI Франсуа Шолле заявил, что ARC-AGI-4 уже находится в разработке, а всего версий бенчмарка будет около 7
ARC-AGI-3 – выходит в паблик в марте, про него мы писали тут
ARC-AGI-4 – уже разрабатывается и будет, вероятно, также связан с играми и игровыми средами для агентов
ARC-AGI-5 – уже запланирован
ARC-AGI-6 и 7 – вероятно, финальные версии.
Шолле говорит, что главная идея ARC-AGI – предлагать задачи и проводить сравнительные тесты до тех пор, пока не останется того, что могут сделать люди, а ИИ – нет. Сам ученый считает, что такой момент (aka AGI) наступит примерно к 2030 году.
Знаменитый Джон Кармак предложил использовать оптоволокно вместо DRAM
Идея не лишена смысла. Современные single-mode оптоволоконные каналы могут передавать 256 Тбит/с. При такой скорости примерно 32 гигабайта данных едут внутри светового луча по волокну, то есть световой сигнал может временно хранить их и использоваться как кэш.
Это напоминает старую концепцию delay-line memory – память за счет задержки сигнала в среде (например, Тьюринг предлагал использовать для этого спирт).
С точки зрения энергии это почти бесплатно, потому что все, что происходит – это перемещение света по волокну.
Правда, есть нюанс: чтобы вместить 32 GB данных, нужны километры, а скорее даже десятки километров волокна. Плюс, в такой системе нет нормального произвольного доступа к данным, потому что они постоянно находятся в движении.
Но в целом, теоретически, жизнеспособно. Другими словами, чего только не придумаешь, когда цены на память взлетают до небес
Cursor выпустили новую модель для кодинга – Composer 1.5
Она основана на той же базовой модели, что и Composer 1. Отличие – в выкрученном на 20х объемом RL. Интересный факт: для этой модели компьют, потраченный на посттрейн даже превзошел компьют, потраченный на претрейн.
Модель с ризонингом, бюджет обучена контролировать сама. Также подчеркивают способность к само-суммаризации: модельку специально обучали качественно резюмировать диалог, когда контекстное окно достигло предела. После суммаризации модель продолжает работу с обновленным контекстом, и такой цикл может повориться много раз.
К сожалению, бенчмарков показывают ровным счетом ноль, только свой внутренний Cursor Bench. На нем действительно виден существенный прирост качества относительно Composer 1, но абсолютно непонятно, что это дает в сравнении с другими моделями.
Ради интереса можно попробовать, наверное. Стоит примерно как Claude 4.5 Sonnet.
Протестируйте OpenClaw в облаке Cloud․ru ❤️
Быстро. Бесплатно. Безопасно.
OpenClaw — нашумевший AI-ассистент для DevOps, администраторов и инженеров. В отличие от обычных чат-ботов, он может:
➡️ самостоятельно запускать команды
➡️ работать с файлами
➡️ отправлять отчеты в мессенджеры
Как вам проверить его в действии
Решение доступно в Маркетплейсе Cloud․ru и разворачивается бесплатно. Готовый образ уже протестирован и запускается напрямую в облаке — без установки на рабочий компьютер и без рисков для данных.
Программный продукт предоставляется на условиях «как есть» (as is). Подробности в Пользовательском соглашении Cloud․ru
⚡️ С минуты на минуту выходит Claude Opus 4.6
Модель уже засветилась в Perplexity и в Claude app. Ждем официальный пост с бенчмарками
Пошел слух, что кроме Sonnet 5 Anthropic также планируют выпустить модель для генерации изображений
Они остались единственными из золотой коллекции ИИ-компаний, у кого ее нет.
Claude Monet было бы замечательным названием (Anthropic, не благодарите ✌️)
Илья Суцкевер настоял на увольнении Альтмана в 2023 из-за зависти
Такую версию событий предлагает только что всплывшее в рамках дела «Маск против Альтмана» письмо Кевина Скотта – CTO Microsoft.
Оно написано через два дня после увольнения Сэма и адресовано Фрэнку Шоу – директору по коммуникациям Microsoft. Скрины прикрепляем.
TL;DR:
– Увольнение произошло из-за того, что Суцкевер все больше расходился с Сэмом во взглядах. И дело, по мнению Кевина, было не столько в глобальной безопасности, сколько в личных причинах.
– Во-первых, в OpenAI на почве разделения вычислительных ресурсов нарастал настоящий конфликт между отделами Research и Applied. Applied (ChatGPT, API) временно получил приоритет, потому что приносил прибыль, а Research (и Илья в частности) считал это игрой в одни ворота и винил Applied в нехватке GPU для исследований. Альтман пытался нарастить мощности, но Суцкевер представил ситуацию совету в ином свете.
– Во-вторых, Илья болезненно переживал успех Якуба Пахоцки. Альтман повысил его и поставил руководить основными направлениями исследований моделей. После этого прогресс резко ускорился: фактически, бывший подчиненный Суцкевера стал лидером и начал успешно решать задачи, с которыми Илья сам долго не мог справиться. Это, якобы, послужило еще одним триггером к обращению Ильи к совету и последующему увольнению Сэма.
В эфире ставшая постоянной рубрика: Илон Маск ссорится с <вставьте любое имя>
С Лекуном они давно друг друга не жалуют, взаимные подколы летят только так. На этот раз Лекун заявил, что ни одна из современных робо-лабораторий «понятия не имеет», как сделать по-настоящему полезных роботов.
Маск прокомментировал видео, сказав, что Ян просто «сам не знает, что делать, и думает, что никто не знает».
Ответ Лекуна себя ждать не заставил:
На самом деле, совсем наоборот.
Я знаю, что смогу это сделать, и знаю, как это сделать.
Но только не с теми методами, на которые сейчас все делают ставки.
Я (как известно) делаю ставку на JEPA, world models и планирование.
В какой-то момент ты поймешь, что я прав.