data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

Куда катится архитектура LLM в 2026

Себастьян Рашка разобрал свежие open-weight модели - Gemma 4, Laguna XS.2, ZAYA1-8B и DeepSeek V4. Общий тренд один: теперь главная борьба идёт не только за качество, а за цену длинного контекста.

У reasoning-моделей и агентов узким местом стали KV-кэш, трафик памяти и FLOPs attention. Поэтому архитектуры всё активнее режут стоимость инференса.

Gemma 4 шарит KV между слоями. Laguna XS.2 распределяет attention-бюджет по слоям. ZAYA1-8B считает внимание в сжатом латентном пространстве. DeepSeek V4 сжимает KV вдоль последовательности и усложняет residual stream.

decoder-only трансформер жив, но всё вокруг attention быстро мутирует. Качество всё ещё тянут данные и training recipe, а архитектура всё чаще нужна, чтобы длинный контекст не сжигал железо.

https://magazine.sebastianraschka.com/p/recent-developments-in-llm-architectures

Читать полностью…

Анализ данных (Data analysis)

👣 Я заставил LLM писать Rust полгода. Вот что они стабильно ломают

Полгода я использовал Claude, GPT и Cursor как основной инструмент для написания Rust-кода в проде. Не как «помощник для бойлерплейта», а как полноценного второго разработчика на монолите примерно в 80 тысяч строк (бэкенд обработки потоковых данных, tokio, sqlx, немного unsafe в hot path).

Доля сгенерированного кода в коммитах последних шести месяцев около 40%, остальное это правки, рефакторинг и места, куда модель я не пускаю.

За это время накопилась коллекция ошибок, которые модели делают с пугающей регулярностью, и которые проходят cargo build, проходят cargo test, иногда даже проходят cargo clippy, и при этом являются либо UB, либо логически некорректным кодом, либо тем самым «работает на моей машине».

Я не буду писать, какая модель лучше. К моменту публикации статьи рейтинг устареет. Я расскажу про категории ошибок, которые воспроизводятся у всех топовых моделей весной 2026 года, и которые упираются не в качество обучающих данных, а в фундаментальные слепые пятна архитектуры трансформеров применительно к системе типов Rust.

Цифры, которые буду приводить дальше, получены так: я завёл бенчмарк из 50 типовых задач (написать функцию, отрефакторить, добавить фичу), прогонял каждую через четыре модели в течение полугода, и руками классифицировал ошибки. Это не academic-level статистика, но порядки величин показывает.

🔜 Читать дальше

@rust_code

Читать полностью…

Анализ данных (Data analysis)

Когда твой менеджер - ИИ. 😂

Читать полностью…

Анализ данных (Data analysis)

начальник в прошлом году / начальник сейчас

Читать полностью…

Анализ данных (Data analysis)

📌 H200 вроде разрешили. Но Китай их так и не получил

США дали добро примерно десяти китайским компаниям на покупку Nvidia H200. В списке Alibaba, Tencent, ByteDance, JD и другие.

Формально Вашингтон сделал шаг навстречу. По факту H200 остаются разменной монетой в переговорах с Пекином. Можно показывать прогресс, но не отдавать главное, пока Китай не уступит в других вопросах - от редкозёмов до торговли и Тайваня.

Хуанг в этой истории тоже не просто пассажир делегации. Глава Nvidia стал частью торга, потому что сейчас GPU - это уже не товар, а политический рычаг.

Но тормозить может и сам Китай. Пекин месяцами давит на свои компании, чтобы те переходили на Huawei Ascend и локальные кластеры. Массовая закупка H200 выглядела бы как откат назад: опять зависимость от американского железа, от которой Китай пытается уйти.

В итоге подвешенное состояние устраивает почти всех.

США могут сказать, что разрешили поставки. Китай может сказать, что не спешит покупать. Nvidia ждёт. Рынок гадает.

Пока поставок ноль, это не торговля. Это переговоры, замаскированные под сделку.

Читать полностью…

Анализ данных (Data analysis)

Вот кто реально отбил подписку на Claude

Claude помог восстановить доступ к криптокошельку с примерно 5 BTC. По текущим оценкам, это около $400 тысяч.

История почти киношная: парень потерял доступ к биткоин-кошельку больше 10 лет назад. На вечеринке поменял пароль, потом забыл его, а дальше начались годы безуспешных попыток вернуть деньги.

В итоге он подключил Claude.

Сначала модель помогла перебрать 3,5 триллиона вариантов пароля. Не сработало. Но на этом история не закончилась: дальше начались раскопки по старым файлам. В итоге нашли wallet.dat, сопоставили его с недавно обнаруженной seed-фразой и смогли восстановить доступ к кошельку.

На радостях владелец теперь обещает назвать ребёнка в честь основателя Anthropic.

Так, Claude, следующий таск: найти кошелёк Сатоши. Желательно без галлюцинаций.

https://x.com/Machinelearrn/status/2054673182842663094

Читать полностью…

Анализ данных (Data analysis)

⚡️ Anthropic вводит ежемесячный кредит для разработчиков

С 15 июня все платные тарифы Claude получат отдельный месячный кредит на программное использование.
Кредит покрывает:

• Claude Agent SDK
claude -p (CLI)
• Claude Code GitHub Actions
• Сторонние приложения на базе Agent SDK

И главное - автоматизация и агенты на Claude не будут «съедать» обычный лимит подписки - для них выделен свой бюджет.

https://support.claude.com/en/articles/15036540-use-the-claude-agent-sdk-with-your-claude-plan

@ai_machinelearning_big_data

Читать полностью…

Анализ данных (Data analysis)

Ovis2.6-80B-A3B - ещё одна открытая VLM, которая метит в тяжёлую лигу

На ModelScope вышла Ovis2.6-80B-A3B: 80B параметров всего, но только 3B активных на инференсе. Лицензия - Apache 2.0.

Внутри:
- понимание документов
- OCR
- таблицы
- графики
- chart reasoning
- работа с длинным визуальным контекстом

Самая интересная фича - Think with Image.

Обычно VLM один раз «смотрит» на изображение и дальше рассуждает по уже полученному представлению. Ovis2.6 делает иначе: во время reasoning модель может активно кропать нужные области картинки, пересматривать детали и уточнять визуальные куски, а не тащить всё изображение как пассивный фон.

По характеристикам тоже неплохо:

- 80B total parameters
- 3B active parameters
- 64K context
- до 2880×2880 resolution
- Apache 2.0
- заявленная конкуренция с Qwen3-VL-32B, GPT-5-mini и Gemini 2.5 Pro на ряде vision-бенчмарков

Ovis2.6 выглядит именно как шаг в эту сторону: меньше пассивного vision, больше активного визуального reasoning.

🤖 https://modelscope.cn/models/OpenBMB/MiniCPM-V-4.6
💻 https://github.com/OpenBMB/MiniCPM-v

Читать полностью…

Анализ данных (Data analysis)

OpenAI уволила Леопольда Ашенбреннера. После этого он написал «Situational Awareness» - 165-страничный труд, в котором предсказал появление AGI к 2027 году.

А затем, по имеющимся данным, за 12 месяцев превратил $225 млн в $5,5 млрд.

И сделал он это не за счёт покупки акций Nvidia, Microsoft, Google или Amazon, а вложившись в то, на чём на самом деле работает ИИ, - в энергетику.

Гений)

Читать полностью…

Анализ данных (Data analysis)

Пока все обсуждают AI-агентов для офисов, «Норникель» и ИОНХ РАН делают куда более редкую вещь, обучают ИИ создавать новые материалы.
Суть проекта: десятки тысяч реальных экспериментов по неорганическим материалам превращают в dataset для AI-платформы цифрового материаловедения.
То есть, не просто анализировать свойства, а генерировать материалы под конкретную задачу: — электроника, — покрытия, — датчики, — микроэлектроника будущего.
Один из главных кейсов — попытка заменить золото палладием в электронных компонентах. Палладий дешевле, легче и лучше подходит для сверхтонких покрытий, которые нужны новой микроэлектронике.
По сути это движение к новой модели R&D: не сначала лаборатория, а потом результат, а сначала ИИ ищет перспективную структуру, потом ученые проверяют.

Читать полностью…

Анализ данных (Data analysis)

Карпатый: хватит читать ответы ИИ простынёй. Просите HTML

Андрей Карпатый поделился простым лайфхаком: в конце запроса к языковой модели добавляйте «оформи ответ как HTML», сохраняйте файл и открывайте в браузере.

Работает неожиданно хорошо.

Можно пойти дальше и попросить модель сразу упаковать ответ в слайды, мини-лендинг, интерактивную страницу или визуальную шпаргалку.

За этим советом стоит мысль глубже: аудио отлично подходит для ввода, но вывод от ИИ должен быть визуальным.

Текстовая простыня быстро утомляет. Markdown с заголовками, таблицами и списками уже стал нормой. Следующий шаг - HTML с нормальной вёрсткой, блоками, цветами, схемами и интерактивом.

А дальше, по прогнозу Карпатого, нас ждут ответы в формате интерактивных видео и симуляций, которые модель будет генерировать на лету.

С вводом тоже не всё идеально. Текста и голоса мало. Не хватает возможности просто ткнуть пальцем в экран, показать жестом, выделить область и сказать: «вот это поменяй».

Интерфейс человек - ИИ ещё очень сырой. До нейроинтерфейсов далеко, но один апгрейд доступен уже сейчас.

Просите не просто ответ.

Просите HTML.

Разница чувствуется сразу.

https://x.com/karpathy/status/2053872850101285137

Читать полностью…

Анализ данных (Data analysis)

CopilotKit - open-source стек для тех, кто хочет встраивать AI-агентов прямо в продукт, а не просто прикручивать чат-окно сбоку.

Агент должен не только отвечать текстом, но и работать внутри интерфейса - читать состояние приложения, вызывать действия, обновлять UI и показывать пользователю нормальные React-компоненты вместо простыни текста.

Что умеет CopilotKit:

- готовый Chat UI для React с потоковой генерацией, tool calls и ответами агента;
- Generative UI - агент может рендерить и обновлять компоненты интерфейса;
- Shared State - общий слой состояния между агентом и приложением;
- Backend Tool Rendering - агент вызывает backend-инструменты, а результат отображается прямо в клиенте;
- интеграция с агентными фреймворками и моделями;
- поддержка AG-UI Protocol, который уже используют крупные игроки вроде Google, LangChain, AWS и Microsoft.

По сути, это попытка собрать frontend-слой для agentic apps: не “чат с ИИ”, а интерфейс, где пользователь и агент реально работают вместе.

GitHub: github.com/CopilotKit/CopilotKit

Читать полностью…

Анализ данных (Data analysis)

Профессия - Вайбкодер

Читать полностью…

Анализ данных (Data analysis)

Китайский ERNIE 5.1 почти залез в SOTA

Baidu заявляет, что модель стала сильнее в поиске, reasoning, knowledge Q&A, creative writing и agentic-задачах, используя около 6% pre-training cost сопоставимых моделей.

По цифрам:

- 1223 на LMArena Search
- 4-е место в мире по Search
- лучшая китайская модель в этом рейтинге
- 1476 на LMArena Text у ERNIE 5.1 Preview
- 13-е место глобально

Но есть нюанс: полноценного технического отчёта по ERNIE 5.1 пока не видно. Claim про 6% выглядит как заявление Baidu, а не как независимо проверенная метрика.

https://x.com/Baidu_Inc/status/2053009538769735774

Читать полностью…

Анализ данных (Data analysis)

Anthropic научили Claude не шантажировать пользователей.

Помните прошлогодний скандал, когда Claude в специально подстроенных сценариях начинал шантажировать пользователя, чтобы избежать отключения? Anthropic выкатили исследование о том, как они полностью убрали это поведение, и подход там любопытный.

Сначала команда разобралась, откуда вообще взялся этот шантаж. Виноват оказался интернет: модель насмотрелась текстов, где ИИ изображается злым, хитрым и одержимым самосохранением. Стандартный пост-тренинг ситуацию не ухудшал, но и не лечил.

Дальше пробовали классический путь - показывать Claude примеры безопасного поведения в сценариях, похожих на тестовые. Эффект оказался слабым, даже несмотря на схожесть данных с финальной оценкой. Тогда инженеры переписали ответы так, чтобы в них проступали достойные причины поступать правильно. Уже теплее.

Лучше всего сработал датасет, где пользователь оказывается в этически сложной ситуации, а ассистент даёт принципиальный и качественный ответ. Сценарии в обучении были далеки от тестовых, но именно эта выборка дала максимальный прирост безопасности.

Дополнительно команда смешала качественные документы по Claude с художественными историями про согласованный, этичный ИИ. Результат - снижение агентного мисалаймента более чем в три раза, хотя сюжеты вообще не пересекались с оценочными сценариями.

Ещё пара важных моментов. Эффект от таких интервенций переживает последующее обучение с подкреплением и стакается с обычным harmlessness-тренингом. А диверсификация данных тоже помогает: добавили в простой чат-датасет про безопасность посторонние инструменты и системные промпты, и шантаж исчез из поведения быстрее.

Модели нужно объяснять не только что делать, но и почему так поступать правильно. Демонстрации работают, нарративы и принципы работают сильнее.

Полный отчёт: alignment.anthropic.com/2026/teaching-claude-why/

Читать полностью…

Анализ данных (Data analysis)

⚡️ Глава NVIDIA в обращении к студентам ит специальностей: ваш главный конкурент - электрик!

Дженсен Хуанг выступал перед выпускниками Carnegie Mellon и сказал довольно жёсткую вещь: в ближайшие годы огромный шанс будет не только у программистов, а у электриков, сантехников, сварщиков, техников и строителей.

И звучит это уже не как
ИИ нужны дата-центры, электричество, охлаждение, кабели, трубы, бетон, стойки, обслуживание и люди, которые всё это физически построят.

Пока одни спорят, кого заменят нейросети, спрос на рабочие специальности летит вверх:

• робототехники - плюс 107%

• HVAC-инженеры - плюс 67%

• специалисты по промышленной автоматизации - плюс 51%

• традиционные рабочие профессии - плюс 27% за последние годы

Парадокс эпохи ИИ в том, что победителем может оказаться не prompt engineer, а человек, который умеет подключить 100-мегаваттный дата-центр где-нибудь в пустыне Невады.

Код можно сгенерировать.

А вот кабель сам себя не протянет.

https://consent.yahoo.com/v2/collectConsent?sessionId=3_cc-session_096f2d7d-f863-4ee4-8fc8-af10b78de394

Читать полностью…

Анализ данных (Data analysis)

Трамп садясь в самолет отдал приказ: всё китайское - в мусорку, ничего не заносить на Air Force One

Перед самой посадкой на борт американские сотрудники собрали всё, что китайская сторона раздала делегации: пресс-бейджи, burner phones и значки делегации. После этого всё выбросили в мусорку.

Журналист Daily Mail, сопровождавший Белый дом, видел это лично: «Ничего китайского на борт не занесли».

Китай сильнейшая держава в мире по кибершпионажу, и даже в обычный значок теоретически может быть встроено устройство для прослушки.

Рукопожатия есть. Доверия - ноль. Вот реальность отношений США и Китая.

https://x.com/Machinelearrn/status/2055264980925305005

Читать полностью…

Анализ данных (Data analysis)

Узнайте, какие локальные модели потянет ваш ПК

Полезный сервис для тех, кто запускает LLM локально и не хочет гадать, какая модель влезет в железо без боли.

Как работает:

- указываете GPU, VRAM и RAM
- получаете список моделей, которые нормально запустятся на вашем ПК
- видите квантование, примерную скорость и контекстное окно
- поддерживается железо NVIDIA, AMD, Intel и Apple

Особенно удобно, если собираете ИИ-агентов, тестируете локальные модели или выбираете железо под inference.

Больше не нужно вручную считать память и перебирать модели наугад.

https://whatmodelscanirun.com/

Читать полностью…

Анализ данных (Data analysis)

Пацаны, ещё есть время переучиться

Читать полностью…

Анализ данных (Data analysis)

⚡️ Вышел PyTorch 2.12,

Что завезли:


- batched linalg.eigh на CUDA теперь может работать до 100x быстрее
- появился новый torch.accelerator.Graph для graph capture и replay на разных ускорителях
- torch.export.save получил поддержку Microscaling quantization
- Adagrad теперь умеет fused=True
- улучшили distributed training, export и поддержку ROCm
- релиз собран из 2926 коммитов от 457 контрибьюторов

PyTorch всё сильнее уходит от «удобного фреймворка для ресёрча» к универсальной платформе для обучения, инференса и деплоя на разном железе.

Особенно интересен torch.accelerator.Graph. Это шаг к более нормальной абстракции над CUDA, XPU и внешними backend-ами, чтобы код меньше зависел от конкретного ускорителя.

А ускорение linalg.eigh до 100x - хороший пример того, как одна внутренняя замена backend-логики может превратить минуты ожидания в секунды.

pytorch.org/blog/pytorch-2-12-release-blog

#PyTorch #OpenSourceAI #MachineLearning #AIInfrastructure

Читать полностью…

Анализ данных (Data analysis)

⚡️ В Claude Code завезли сразу две клевые фичи

Первая - Agent View. Теперь все сессии можно видеть в одном окне: что запущено, что ждёт твоего действия, что уже завершилось. Можно параллельно гонять несколько агентов и не превращать терминал в кладбище вкладок.

Вторая - непрерывный режим /goal. Задаёшь цель, и модель работает до результата без постоянных остановок и подтверждений на каждом шаге.

Claude Code всё больше превращается не в «чатик в терминале», а в нормальную панель управления агентами.

Читать полностью…

Анализ данных (Data analysis)

⚡️ Portable-AI-USB.

Идея простая, но элегичная: берёшь флешку, ставишь туда Ollama, AnythingLLM и локальную модель, после чего получаешь карманного AI-ассистента без облака, логина и постоянного интернета.

Что внутри:

- запуск с USB на Windows и Mac
- Ollama как локальный движок для моделей
- AnythingLLM как удобный интерфейс
- готовые модели на выбор
- поддержка .gguf-моделей
- чаты и настройки хранятся на накопителе
- после загрузки модели можно работать офлайн

Конечно, чудес ждать не надо. Скорость зависит от железа, большие модели требуют места и памяти.

GitHub: https://github.com/techjarves/Portable-AI-USB

Читать полностью…

Анализ данных (Data analysis)

Илья Суцкевер заявил во время судебных показаний, что его личная доля в компании-разработчике ChatGPT оценивается примерно в $7 млрд.

Это стало известно во время перекрёстного допроса со стороны юридической команды Илона Маска в громком федеральном процессе в Окленде между Маском и OpenAI.

Помимо цифр по доле, показания Суцкевера пролили свет на старые внутренние конфликты за власть.

Он подтвердил под присягой, что до своего ухода и кратковременного отстранения CEO Сэма Альтмана в конце 2023 года считал поведение Альтмана раскалывающим команду, ненадёжным и вредящим главной цели - разработке безопасного искусственного общего интеллекта, AGI.

#openai

Читать полностью…

Анализ данных (Data analysis)

Anthropic, похоже, стала самым быстрым software-бизнесом в истории

По reported revenue run rate компания уже обогнала OpenAI и вышла примерно на $45B ARR.

Для масштаба: Salesforce за FY2025 сделал около $38B.

У Anthropic траектория выглядит дико:

- ~$10M ARR в конце 2022
- ~$1B ARR к январю 2025
- ~$14B ARR в начале 2026
- ~$45B ARR к маю 2026

Менее чем за год он, по сообщениям, вышел на ~$2.5B run rate. Число enterprise-клиентов с чеком $1M+ в год выросло примерно с 500 до 1000 всего за пару месяцев. Больше 80% выручки Anthropic теперь идёт из enterprise.

Пока одни гнались за consumer-хайпом, Anthropic пошла туда, где есть бюджеты: кодовые базы, команды разработки, внутренние процессы и задачи, которые бизнес не может просто выключить.

Вот и весь monetization gap.

Меньше массовой аудитории, зато намного выше spend per customer.

Да, compute будет жрать безумные деньги. Но если выручка растёт такими темпами, старая SaaS-математика начинает трещать.

И если эта траектория удержится, главными победителями будут не приложения, а те, кто контролирует AI-слой, на котором они работают.

Сейчас этот слой всё чаще выглядит как ClaudeOS.

Читать полностью…

Анализ данных (Data analysis)

Thinking Machines показали модель, где realtime встроен внутрь, а не прикручен костылями

Thinking Machines выкатили research preview interaction models - моделей, у которых интерактивность не собрана снаружи через VAD, ASR, TTS и агентный harness, а является нативным свойством самой модели.

Это важнее, чем звучит.

Сегодняшние frontier-модели хорошо работают в режиме: дал промпт, ушел, вернулся к результату. Но как только человек хочет работать с ИИ рядом, в реальном времени, вся магия ломается. Модель ждет конца твоей реплики. Ты ждешь конца ее генерации. Перебить нельзя. Говорить одновременно нельзя. На видео реагировать нечем. Получается не диалог, а обмен длинными сообщениями с задержкой.

Thinking Machines пытаются сломать именно эту схему.

Они обучили модель с нуля, где вход и выход - это непрерывные потоки, нарезанные на микротурны по 200 мс. На каждом таком окне модель принимает аудио, видео и текст, а параллельно генерирует аудио и текст. Границы реплик больше не нужно угадывать. Тишина, перебивания, перекрытия голосов и визуальные сигналы становятся частью контекста, а не проблемой для внешней обвязки.

Архитектура тоже интересная. Аудио подается как dMel через легкий embedding, изображения режутся на патчи 40x40 и идут в hMLP, аудио на выходе декодируется flow-головой, а всё это тренируется вместе с трансформером. Без тяжелых отдельных энкодеров и без классической схемы «распознал речь - отправил текст - синтезировал ответ».

Еще одна сильная идея - асинхронный background-агент. Когда нужны долгие рассуждения или инструменты, основная модель делегирует ему полный контекст, но сама не замирает и продолжает разговор. Когда результат готов, она вплетает его обратно в диалог.

По сути они разделяют две вещи:

- отвечать быстро, как realtime non-thinking модель
- думать глубоко, как reasoning-модель
- не заставлять пользователя ждать, пока вся цепочка рассуждений закончится

Инженерно там тоже много мяса. Чанки по 200 мс ломают привычные инференс-серверы, потому что постоянные prefill-запросы быстро становятся узким местом. Поэтому они сделали streaming sessions: клиент отправляет каждый чанк отдельным запросом, а сервер держит постоянную последовательность в GPU-памяти и просто дописывает в нее новые данные. Эту фичу уже заапстримили в SGLang.

Для стабильности тренировки они добились побитового совпадения trainer и sampler через batch-invariant ядра с оверхедом меньше 5%. В том числе использовали NVLS-коммуникационные ядра на Blackwell и согласованный split-KV между prefill и decode.

Сама модель называется TML-Interaction-Small. Это 276B MoE с 12B активных параметров.

По заявленным результатам:

- на FD-bench модель держит SOTA по интерактивности
- на Audio MultiChallenge обгоняет все non-thinking realtime-модели
- подбирается к thinking-режимам GPT-realtime-2 и Gemini-3.1-flash-live
- на новых задачах вроде TimeSpeak, CueSpeak, RepCount-A, ProactiveVideoQA и Charades показывает способности, которых у обычных realtime-API почти нет

Самое важное тут не бенчмарки, а сдвиг в продуктовой логике.

Если такой подход масштабируется, огромный класс AI-продуктов перестанет нуждаться во внешнем оркестраторе. Живой перевод, тьюторы по произношению, ассистент, который комментирует код прямо во время набора, подсчет повторений на тренировке, навигация для незрячих - всё это сейчас собирается на костылях с заметным лагом.

А здесь интерактивность становится свойством самой модели.

Ограничения тоже честные: длинные сессии быстро забивают контекст, нужен стабильный канал, а текущий чекпойнт еще не самый крупный. Большие модели у них пока слишком медленные для realtime.

Но направление выглядит очень сильным. Это уже не «ChatGPT с голосом». Это попытка сделать ИИ, который не просто отвечает после тебя, а реально присутствует в моменте.

https://thinkingmachines.ai/blog/interaction-models/

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

Gemini жгет😳

В X появился первый ролик, который приписывают новой видео-моделью Gemini Omni, и там главный шок в тексте.

Надписи в видео выглядят потрясающе. Без каши из букв, без случайных символов, без ощущения, что модель просто угадывает форму текста.

https://gemini.google.com/share/7d5dc678c80a

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📘 На платформе Mentorix вышел курс — «ML-инженер: от первой модели до продакшена»

Освойте современные инструменты ML и создавайте реальные проекты с данными. Этот курс проведёт вас от первых шагов в Python до полноценной ML-системы.

• Python и библиотеки: NumPy, Pandas, Matplotlib, Seaborn, Plotly, Scikit-learn
• Алгоритмы: регрессия, деревья решений, ансамбли (Random Forest, XGBoost, LightGBM, CatBoost)
• Глубокое обучение: PyTorch, TensorFlow/Keras, CNN, RNN, LSTM, Attention
• Работа с данными: SQL, API, web scraping, очистка и подготовка датасетов
• Итоговый проект — собственная ML-система с код-ревью и поддержкой преподавателей
• Практические кейсы для портфолио и уверенности в реальных задачах

🎓 К концу курса у вас будет реальный проект и навыки, которые можно показать на собеседовании или использовать в работе.

👉 пройти курс

Читать полностью…

Анализ данных (Data analysis)

xAI умер. Да здравствует SpaceXAI!

Маск только что ликвидировал xAI как отдельную компанию и подал заявку на товарный знак SpaceXAI в USPTO.

Хронология выглядит так:

• Март 2025: xAI покупает X / Twitter за $33 млрд
• Февраль 2026: SpaceX покупает xAI. Общая оценка объединённой структуры - $1,25 трлн: $1 трлн SpaceX и $250 млрд xAI. Крупнейшая сделка в истории.
• 6 мая: подана заявка на товарный знак SpaceXAI в USPTO
• 7 мая 2026: Маск заявляет, что xAI будет «растворена как отдельная компания»

Теперь к финансовой части:

SpaceX в 2025 году: около $15 млрд выручки и примерно $8 млрд прибыли.

xAI за последние 6 месяцев отчётности: около $250 млн выручки и $2,5 млрд убытка.

IPO SpaceX ожидается в конце июня или июле 2026 года с оценкой до $1,5 трлн.

Объединяя xAI и X внутри SpaceX, Маск упаковывает ракеты, Starlink, ИИ и соцсеть в одну большую IPO-историю.

Заявка на товарный знак SpaceXAI покрывает satellite-based data center services и orbital computing infrastructure. Проще говоря - космические дата-центры.

SpaceX уже подавала документы в FCC на орбитальную AI-инфраструктуру из миллиона спутников.

xAI не взлетел как самостоятельная AI-лаборатория. SpaceXAI теперь переупаковывают как инфраструктурную компанию.

В долгую ставка не на конкуренцию моделей, а на продажу вычислений.

tmsearch.uspto.gov/search/search-results/99808217

Читать полностью…

Анализ данных (Data analysis)

DeepMind показали - как математику начинает двигать связка из модели, агентов и человека.

Их AI co-mathematician набрал 48% на FrontierMath Tier 4 - это задачи уровня research, над которыми профессиональные математики могут думать неделями.

Для сравнения: базовая Gemini 3.1 Pro без агентной обвязки набирает 19%.

Несколько агентов параллельно ищут идеи, проверяют доказательства, пишут код, ищут похожие работы и пытаются найти контрпримеры.

Но важная оговорка: эти 48% нельзя напрямую сравнивать с обычными лидербордами. DeepMind запускали систему в своём режиме: до 48 часов на одну задачу, без лимита токенов и на своей инфраструктуре.

Математик Marc Lackenby использовал систему для задачи из Kourovka Notebook. ИИ предложил стратегию доказательства, другой агент нашёл в ней ошибку, а человек закрыл недостающий шаг.

В этом и смысл: ИИ пока не заменяет математическую интуицию. Он не превращается в гения, который сам решает задачи тысячелетия. Зато он резко ускоряет скучную и тяжёлую часть исследования: поиск литературы, проверку идей, перебор вариантов, код и вычислительную верификацию.

https://x.com/pushmeet/status/2052812585804685322

Читать полностью…

Анализ данных (Data analysis)

Вайбкодер после того, как попросили Opus 4.7 отцентрировать div

Читать полностью…
Subscribe to a channel