data_analysis_ml | Unsorted

Telegram-канал data_analysis_ml - Анализ данных (Data analysis)

48228

Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚

Subscribe to a channel

Анализ данных (Data analysis)

🤖 DeerFlow 2.0 (уже 27K+ звёзд на GitHub ⭐️) - это AI-система от ByteDance, которая работает как автономный сотрудник со своим собственным компьютерным рабочим пространством для исследований и программирования.

Обычные чат-боты просто генерируют текст и не запоминают ваши предпочтения.

DeerFlow решает эту проблему: ИИ получает изолированную виртуальную среду компьютера, где может безопасно запускать программы.

Когда ему дают большую задачу, основной агент создаёт несколько маленьких AI-ассистентов, которые работают одновременно.

Также система сохраняет ваши прошлые рабочие процессы, поэтому со временем лучше понимает ваши задачи.

DeerFlow не привязан к конкретной модели — он работает с любым LLM, который поддерживает OpenAI-совместимый API.

Есть полная поддержка локальных моделей, которые можно запускать прямо на своём компьютере с помощью инструментов вроде Ollama.

Пример: вы просите провести исследование 10 лучших AI-стартапов 2026 года для презентации.

Главный агент DeerFlow разбивает задачу на подзадачи:

- один суб-агент исследует каждую компанию
- другой собирает данные о финансировании
- третий анализирует конкурентов

Все агенты работают параллельно.

В конце результаты объединяются, и финальный агент собирает готовую презентацию со слайдами и визуализацией.

github.com/bytedance/deer-flow

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

Прощай, Эксель!

Мой дорогой друг, я благодарен тебе за все эти годы. Ты выручал меня, когда 1С зависала, не было интернета, и мы с тобой за ночь справлялись с любой задачей.

Но время меняется, и у меня появились новые напарники. Американец Клод делает невероятно красивые дашборды (правда за деньги). А вот китаец Дипсик берется за любую работу, не ноет, делает бесплатно и в срок.

Я объясняю им задачу в двух словах, и за полчаса получаю аналитику, на которую мы с тобой раньше тратили по три дня.

Ничего личного. Просто серьёзные рабочие задачи я теперь делаю с ними. А к тебе буду иногда заглядывать, записать расходы на ремонт.
———

А если серьезно - считать руками в Экселе, это теперь непозволительная роскошь и для аналитика, и для любого менеджера.

Да, у всех был негативный опыт, но теперь ИИ работает с расчетами без галлюцинаций. Можно наладить полноценную онлайн-отченость без Excel, знания макросов или Pivot/Query.

Сомневатесь, что у вас получится?
Я докажу вам это в прямом эфире! Вместе мы с вами построим полноценный дашборд с помощью DeepSeek, пользуясь только бесплатным функционалом.

Вы своими глазами увидите и пощупаете руками, как в 2026 году нейросети работают с таблицами, делают онлайн-дашборды и анализ что-если.

Приходите в пятницу 12 марта в 18:00 на открытый урок.
Регистрация

Реклама. ООО "АНАЛИТИКА ПЕРСОНАЛА", ИНН 6671088519

Читать полностью…

Анализ данных (Data analysis)

Разработчики раньше vs разработчики сейчас

Читать полностью…

Анализ данных (Data analysis)

⚡️ Андрей Карпаты выложил минимальный репозиторий Autoresearch - систему, где AI сам проводит исследования.

Это упрощённая версия ядра обучения LLM из nanoGPT/nanochat:
весь код обучения помещается в один файл (~630 строк) и работает на одной GPU.

Как это устроено:

- человек редактирует prompt (.md)
- AI-агент автоматически меняет training code (.py)

Дальше начинается цикл автономных экспериментов.

Каждая точка на графике — полный запуск обучения LLM (~5 минут).

AI-агент работает в бесконечном цикле:

- создаёт git-ветку
- меняет архитектуру модели
- подбирает optimizer
- оптимизирует гиперпараметры
- запускает обучение
- коммитит улучшения

Если validation loss становится ниже, изменение сохраняется.

Фактически агент сам оптимизирует собственный код обучения и постепенно улучшает модель.

Можно запускать несколько агентов с разными промптами и сравнивать, кто быстрее двигает исследование.

Карпаты шутит, что раньше AI-исследования делали люди между:

- едой
- сном
- митингами

Теперь же исследования могут выполнять рои автономных AI-агентов, которые бесконечно гоняют эксперименты на кластерах.

GitHub: github.com/karpathy/autoresearch

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

📊 Раскройте данные с DataClaw! 🚀
DataClaw — это инструмент для структурирования истории взаимодействия с AI, позволяющий экспортировать данные в Hugging Face. Он очищает ваши сессии от конфиденциальной информации и создает готовый к публикации набор данных.

🚀Основные моменты:
- Преобразует историю взаимодействия с AI в структурированные данные
- Автоматически редактирует конфиденциальную информацию
- Публикует данные на Hugging Face с одним командным вызовом
- Создает распределенный набор данных для совместной работы человека и AI

📌 GitHub: https://github.com/peteromallet/dataclaw

#python

Читать полностью…

Анализ данных (Data analysis)

⚡️ Anthropic опубликовала исследование о влиянии ИИ на рынок труда.

Главный вывод - между тем, что ИИ умеет делать сегодня, и тем, что он теоретически сможет делать в будущем, существует огромный разрыв.

И именно этот разрыв уже начинает создавать проблему для людей, которые только начинают карьеру в индустрии.

Навыки, которые раньше считались входным билетом в профессию, постепенно автоматизируются. В результате стартовые позиции могут сокращаться, а требования к новичкам будут расти.

Это означает, что будущим специалистам придется быстрее осваивать более сложные задачи и учиться работать вместе с ИИ, а не конкурировать с ним.

Синий - где ИИ теоретически может выполнять большую часть задач

Красный - где ИИ реально используется сейчас

Читать полностью…

Анализ данных (Data analysis)

⚠️ GPT-5.4 впервые получил статус “высокого уровня киберугрозы” среди универсальных AI-моделей.

GPT-5.4 - официально признана high cybersecurity risk.

Это означает, что модель уже способна самостоятельно планировать и выполнять сложные кибератаки на симулированные корпоративные сети.

Основание для такой оценки - тесты Capture the Flag (CTF).

В индустрии кибербезопасности CTF - это соревнования по взлому систем.
Участники должны проникнуть в симулированную сеть, найти уязвимости, взломать сервисы и добыть скрытые данные - так называемые *flags*.

Для этого требуется:
- взламывать шифрование
- делать reverse engineering программ
- находить уязвимости в веб-приложениях
- строить сложные цепочки атак

По результатам официальных тестов GPT-5.4 набрал 88% в профессиональных CTF-сценариях.

Это очень высокий показатель.

Фактически это означает, что модель уже умеет:
- находить уязвимости в системах
- писать эксплойты
- строить стратегии взлома

Если AI способен проходить профессиональные hacking-челленджи, значит он обладает теми же навыками, которые используют реальные хакеры для взлома корпоративных инфраструктур.

Главная проблема - масштабирование атак.

Если раньше хакеру нужно было вручную искать слабые места, то теперь AI может автоматически анализировать систему и находить уязвимости.

Это резко ускоряет и удешевляет кибератаки.

Именно поэтому GPT-5.4 стал первой универсальной AI-моделью, официально получившей высокий уровень киберриска в системной карте безопасности.

deploymentsafety.openai.com/gpt-5-4-thinking/gpt-5-4-thinking.pdf

Читать полностью…

Анализ данных (Data analysis)

Anthropic сейчас приближается к $20 млрд годовой выручки (run rate) - ещё несколько недель назад этот показатель вырос сразу на $5 млрд.

Компания уже выходит на $20 млрд годового дохода, более чем удвоив показатель с $9 млрд в конце 2025 года. Рост обеспечен массовым распространением её AI-моделей и инструментов вроде Claude Code.

Anthropic, оценка которой сейчас составляет около $380 млрд, стремительно набирает популярность: интерес к продуктам компании стал вирусным, а её приложения даже возглавляют чарты загрузок в App Store, обгоняя многие крупные приложения Apple.

https://www.bloomberg.com/news/articles/2026-03-03/anthropic-nears-20-billion-revenue-run-rate-amid-pentagon-feud

Читать полностью…

Анализ данных (Data analysis)

BullshitBench v2, созданный Питером Гостевым, - это бенчмарк, который проверяет, способны ли модели ИИ распознавать бессмысленные запросы и отказываться на них отвечать, вместо того чтобы уверенно продолжать и «придумывать» ответ.

Только модели Claude от Anthropic и Qwen 3.5 от Alibaba показывают результат выше 60% по распознаванию бессмыслицы.
А модели OpenAI и Google? Застряли на месте и почти не улучшаются.

Еще более неожиданно: модели с усиленным рассуждением (reasoning), которые «думают дольше», на самом деле показывают худшие результаты. Они используют дополнительное вычисление не для того, чтобы отвергнуть бессмысленный запрос, а чтобы рационализировать и оправдать этот абсурд.

🎯Полезные Мл-ресурсы 🚀 Max

https://x.com/petergostev/status/2028492838082666780

Читать полностью…

Анализ данных (Data analysis)

Бесплатный мастер-класс по практическому ML от karpov.courses × AI Talent Hub

5 марта в 19:00 мск, онлайн

Разберем реальный кейс и соберем бота для расшифровки аудиосообщений.

Всего за час ты:

→ соберешь бота для расшифровки аудиосообщений и увидишь, как из такой задачи вырастает ML-проект
→ решишь задачу классификации и проверки аудиосообщения на спам на основе текста
→ поймешь, в каких случаях в подобных проектах требуется обучение модели
→ разберешься, какие ML-навыки нужны для реализации таких проектов


Спикеры:
→ Эмиль Каюмов

Руководитель ML-команды , экс-руководитель машинного обучения и платформы экспериментов в Яндекс.Еда
→ Юлия Лим
Product Manager программ ДПО AI Talent Hub, ИТМО

➡️ Участие бесплатное, но места ограничены — успей зарегистрироваться до 5 марта

@aitalenthubnews

Реклама. Университет ИТМО ИНН:7813045547

Читать полностью…

Анализ данных (Data analysis)

⚡️ ChatGPT-5.4 - что уже «утекло»

- 2M токенов контекста + persistent memory
Это уже не просто «длинная история чата», а полноценная работа с огромными кодовыми базами, документами и агентными пайплайнами без постоянного перепромптинга.

- Полноразмерная обработка изображений
Модель якобы умеет работать с PNG, JPEG и WebP без понижения качества.
Это критично для:
- архитектурных чертежей
- плотных UI-скриншотов
- схем и графиков с мелким текстом
- сложной технической документации

Сохранение исходных байтов изображения = меньше потерь информации при анализе.

- Новый speed-priority tier
Отдельный класс скорости. Вероятно - для продакшена, агентов и real-time задач.

Интересный момент - GPT-5.4 «засветился» в pull request’ах публичного репозитория Codex на GitHub.
Упоминания быстро удалили force-push’ами, но скриншоты уже разлетелись.

Prediction markets:
- 55% шанс релиза до апреля 2026
- 74% шанс до июня 2026

Конкуренция давит:

- OpenAI не может замедляться.
- Claude Opus 4.6 вышел с агентными командами и 1M контекстом.
- Anthropic через Claude Code уже доминирует в кодинге.
- DeepSeek V4 тренируется на Huawei-железе вне NVIDIA-экосистемы.

Если 2M контекст подтвердится - это уже другой класс систем:
- полноценные автономные код-агенты
- большие финансовые и юридические пайплайны
- enterprise-документооборот
- сложные multimodal workflow

Читать полностью…

Анализ данных (Data analysis)

Если в работе с BI вы хоть раз собирали инвентаризацию дашбордов «по скриншотам и таблицам», то знаете это ощущение: аналитика вроде бы про данные, а управление BI – про ручной труд.

10 марта 11:00 мск можно будет разобраться, как это автоматизировать, потому что Yandex Cloud проведёт вебинар «API в DataLens – все пути автоматизации».

Если вы хоть раз пытались навести порядок в BI, то знаете эту боль.

Дашборды растут, копируются, устаревают.
А когда нужно понять, что где используется — начинается классика:
скриншоты, Excel-таблицы, ручные проверки.

Парадокс в том, что мы строим аналитику, чтобы автоматизировать бизнес,
но управление самой BI-средой часто остаётся полностью ручным.

Хорошая новость — это можно автоматизировать.

10 марта в 12:00 (мск) Yandex Cloud проведёт вебинар
«API в DataLens — все пути автоматизации».

На вебинаре разберут:
- возможности Public API DataLens
- как управлять дашбордами и объектами программно
- как убрать рутину из администрирования BI
- реальные сценарии автоматизации
- кейс использования API-коннектора клиентом

Будет особенно полезно, если вы хотя бы раз делали «инвентаризацию дашбордов вручную».

Кому подойдёт:
BI-аналитикам, дата-инженерам, разработчикам, системным архитекторам и руководителям аналитики.

Участие бесплатное, требуется предварительная регистрация.

Иногда следующий уровень аналитики — это автоматизация самой аналитики.

Читать полностью…

Анализ данных (Data analysis)

Отличный результат 😄

Читать полностью…

Анализ данных (Data analysis)

🖥 Большинство парсеров умирают через 2 дня.

Ты научишься делать те, которые работают в продакшене.

Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:

• не падают из-за мелких изменений на сайте
• собирают данные в разы быстрее
• обновляют всё автоматически по расписанию
• обходят ограничения и блокировки
• выглядят как полноценный сервис, а не как хаос из файлов

Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключаться.

В итоге ты сможешь:

• забирать данные для своих проектов
• автоматизировать чужую рутину
• создавать инструменты для аналитики
• брать коммерческие заказы на сбор данных

Это навык, который напрямую превращается в деньги.
Не «знаю Python», а «умею профессионально добывать данные из интернета».

🎁 Скидка 50% на Stepik действует 48 часов: https://stepik.org/a/269942/

Читать полностью…

Анализ данных (Data analysis)

⚡️ Дарио Амодеи дал первое интервью после того, как Пентагон фактически внес его компанию в чёрный список.

Ему задали один вопрос:
Что бы вы сейчас сказали президенту?

Ответ был коротким:

«Мы патриоты. Всё, что мы делали, — ради этой страны».

Anthropic сотрудничала с государством:
- их модели одними из первых допустили к секретным военным системам
- компания помогала в задачах обороны

Но затем Пентагон потребовал:
- доступ к технологиям полностью автономного оружия
- возможности массового наблюдения

Anthropic отказалась — и провела красную линию.

Ответ правительства:
- давление через цепочки поставок
- чрезвычайные полномочия
- требование отказаться от продуктов компании на федеральном уровне

Амодеи:

«Не соглашаться с правительством — это и есть по-настоящему по-американски».

Но самый показательный момент произошёл позже.

По данным WSJ, во время недавних военных операций США против Ирана
модель Claude всё равно использовалась.

Центральное командование применяло её для:
- разведывательных оценок
- идентификации целей
- моделирования боевых сценариев

Формально это не нарушение - у госструктур есть 6 месяцев, чтобы отказаться от Claude.

Но тайминг выглядит показательно:

– Anthropic отказывается принимать условия Пентагона
– В тот же день звучат призывы срочно прекратить использование Claude
– И буквально через несколько часов модель используют в боевой операции

Это борьба за контроль над тем,
кто и на каких условиях будет использовать интеллект машин.

https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2

Читать полностью…

Анализ данных (Data analysis)

🚀 Ускорьте понимание кода с FastCode!

FastCode — это высокопроизводительный фреймворк для анализа кода, обеспечивающий скорость, точность и экономичность. Он подходит для работы с большими кодовыми базами и поддерживает множество языков программирования, включая Python и JavaScript.

🚀 Основные моменты:
- 3-4x быстрее конкурентов
- Снижение затрат на 44-55%
- Высокая точность анализа
- Поддержка многопроцессорного анализа
- Интуитивно понятный веб-интерфейс

📌 GitHub: https://github.com/HKUDS/FastCode

Читать полностью…

Анализ данных (Data analysis)

Tencent выпустила HY-WorldPlay — систему, которая превращает сцену в интерактивный 3D-мир.

Можно просто загрузить сцену или описание, и модель генерирует полноценное 3D-окружение, по которому можно перемещаться как в игре.

Это часть экосистемы Hunyuan 3D — набора моделей для генерации 3D-контента и виртуальных миров.

Что умеет HY-WorldPlay:

- превращает сцену в 3D-мир, по которому можно гулять
- генерирует окружение и объекты автоматически
- работает прямо в браузере
- полностью open-source

Такие системы постепенно делают возможным создание игровых миров и виртуальных пространств буквально из текста или изображения.

Попробовать: 3d.hunyuan.tencent.com/sceneTo3D?tab=worldplay

GitHub: github.com/Tencent-Hunyuan/HY-WorldPlay

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

💰 Forbes: разработчикам могут больше не нужны редакторы кода.

Новая реальность AI-разработки: программирование постепенно уходит от ручного набора кода к автономным агентам, которые могут реализовывать целые проекты самостоятельно.

По данным Forbes, компания Cursor - один из самых быстрорастущих AI-стартапов в программировании - уже сталкивается с этой трансформацией. С появлением мощных агентных систем вроде Claude Code сама идея классического code editor может устареть.

AI-лабы готовы тратить огромные деньги, чтобы переманить их на свои платформы.

Внутренний анализ Cursor показал, что подписка Claude Code за $200 в месяц могла потреблять до $2000 вычислительных ресурсов - фактически Anthropic субсидировала пользователей.

Но сейчас масштабы ещё больше.

По данным источников, знакомых с расходами на compute, тот же план за $200 способен потреблять уже около $5000 вычислительных ресурсов.

AI-компании сейчас сознательно работают в убыток, чтобы захватить рынок разработчиков и закрепить свои инструменты как стандарт индустрии.

forbes.com/sites/annatong/2026/03/05/cursor-goes-to-war-for-ai-coding-dominance/

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

✔️ OpenAI расширяет поддержку мейнтейнеров открытого кода.

Программа Codex Open Source Fund, запущенная год назад, получила апдейт льгот для разработчиков, которые поддерживают публичные репозитории.

Теперь участники программы получают не только API-кредиты, но и полный доступ к ChatGPT Pro с Codex на полгода.

Обновленный набор поддержки выглядит теперь так:

🟢API-кредиты для проектов, которые уже интегрировали Codex в pull request review, релизные пайплайны или другую инфраструктуру OSS.

🟢6 месяцев ChatGPT Pro с Codex.

🟠Условный доступ к Codex Security

Условность в том, то Codex Security одобряется вручную. OpenAI объясняет это возможностями GPT-5.4, команда рассматривает каждую заявку отдельно, чтобы убедиться, что инструмент применяется осознанно.


OpenAI формулирует требования к просителям программы размыто: core maintainer с write access к широко используемому публичному проекту. Что считается широко используемым - не уточняется.

Если проект не вписывается в стандартные критерии, OpenAI все равно рекомендует подавать заявку с объяснением роли проекта в экосистеме.

Неделю назад Antropic запустила похожую тему поддержки опен-сорса.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Анализ данных (Data analysis)

⚡️ Claude, похоже, решает одну из самых раздражающих проблем разработчиков.

Anthropic анонсировала экспериментальную функцию Auto Mode для Claude Code, которая должна появиться примерно 12 марта 2026 года.

Идея простая: позволить Claude самостоятельно обрабатывать запросы на разрешения во время программирования, чтобы разработчикам не приходилось постоянно подтверждать каждое действие.

Это избавляет от надоедливых permission-окошек во время длинных сессий кодинга.

Раньше, чтобы работать без остановок, приходилось запускать Claude с флагом --dangerously-skip-permissions. Он действительно убирал все подтверждения, но при этом полностью отключал защитные механизмы.

Новый Auto Mode предлагает более умный вариант.

Claude сам будет принимать решения по разрешениям, но при этом продолжит блокировать потенциальные угрозы, например prompt-injection атаки.

Это значит, что теперь можно запускать долгие задачи и не следить постоянно за экраном, ожидая очередного подтверждения.

Поскольку функция пока находится в research preview, её рекомендуют запускать в изолированных средах — sandbox или контейнерах.

Также стоит ожидать небольшого увеличения расхода токенов и задержек, потому что модели требуется дополнительное время на проверки безопасности.

После выхода функции её можно будет включить одной командой:

claude --enable-auto-mode

Если вы управляете командой разработчиков и хотите, чтобы действия всё же подтверждались вручную, эту функцию можно ограничить через MDM-инструменты (например Jamf или Intune) или через конфигурационные файлы.

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Анализ данных (Data analysis)

🚀 Вышла FireRed-Image-Edit-1.1 - одна из самых мощных open-source моделей для редактирования изображений.

Главная фишка - сильное сохранение идентичности персонажа. Даже после сложных правок лицо, стиль и детали остаются узнаваемыми.

Что умеет модель:

- сохраняет идентичность персонажа при редактировании
- объединяет 10+ элементов в одном изображении
- агент автоматически делает crop и stitch
- поддерживает портретный макияж
- перенос стиля текста
- восстановление фотографий

При этом модель работает довольно быстро - около 4.5 секунды на генерацию, требует примерно 30GB VRAM.

Используются техники:
- distillation
- quantization
- static compile

Дополнительно:

- открыто обучение LoRA
- поддержка ComfyUI
- поддержка GGUF

По бенчмаркам модель обходит:

- Imgedit
- Gedit
- RedEdit

Лицензия - Apache 2.0, можно использовать в коммерческих проектах.

Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.1

Читать полностью…

Анализ данных (Data analysis)

✔️ Рассуждающие агенты требуют не только ума, но и железа

Когда провайдеры запускают «агентов», пользователи видят красивый интерфейс.
Инженеры видят ад.

Потому что агентские сценарии — это не «запрос-ответ». Это:

- длинные диалоги с историей
- вызов внешних инструментов (поиск, интерпретация кода, внешние приложения)
- гигабайты промежуточных данных между шагами

Если просто «поднять контейнер на GPU» — TTFT (время до первого токена) поплывёт, TBT (время между токенами) просядет, и агент будет тормозить на ровном месте.

Что с этим делают

Yandex AI Studio, например, на днях запустила инференс DeepSeek V3.2 и при этом полностью пересобрала инфраструктуру.

Внедрили разделение prefill/decode:
- prefill-ноды — быстрый прогон длинных контекстов
- decode-ноды — стабильная генерация с низкой задержкой

Это потребовало научиться передавать KV-кэши между серверами в реальном времени. Помимо прочего сбалансировали запросы с учётом «сессионности» и выстроить иерархию KV-кэшей от HBM GPU до распределённой памяти и/или NVMe.

Безопасность и тарификация

- Управляемые правила модерации ответов модели
- Доступ к моделям через частные эндпоинты по выделенному сетевому каналу для работы без выхода в публичный интернет

Новая тарификация:
- токены инструментов и кэширования — в 4 раза дешевле обычных входящих
- чем длиннее сессия, тем выгоднее

Потому что платить стоит не за факт обращения к модели, а за новую вычисленную информацию.
Всё остальное можно и нужно кэшировать.

Читать полностью…

Анализ данных (Data analysis)

Как DS/ML за 9 месяцев вырасти на 30% в зарплате и выйти на еще более интересные проекты?

Освойте Deep Learning. Голосовые помощники, распознавание лиц, рекомендации в приложениях, медицинская диагностика — нейросети используются уже во всех сферах бизнеса. Компании ищут DL-специалистов, чтобы точнее обучать и настраивать нейросети под свои запросы.

За 9 месяцев вы изучите все актуальные модели последних лет и получите крепкую базу в DL, углубившись в каждое направление.

Что вы освоите:

🟠Создание и обучение нейросетей с нуля
🟠Компьютерное зрение (Computer Vision)
🟠NLP (обработка текста)
🟠Генеративные модели
🟠MLOps и продакшн-подход


🕖 Старт обучения — 12 марта, количество мест на поток ограничено

Бронируйте место на курсе прямо сейчас и получите скидку 30%

😶ПОЛУЧИТЬ СКИДКУ НА КУРС

Читать полностью…

Анализ данных (Data analysis)

🧠 Оптимизация контекста для Claude Code

Context Mode — это сервер MCP, который значительно уменьшает объем данных, поступающих в контекстный буфер Claude Code. Он обрабатывает выводы инструментов, сокращая их размер с 315 КБ до 5.4 КБ, что позволяет сохранить больше информации для взаимодействия.

🚀Основные моменты:
- Сокращение данных на 98% для инструментов.
- Поддержка множества языков программирования.
- Интеграция с существующими инструментами через слэш-команды.
- Эффективная работа с логами и API-ответами.
- Умный поиск по индексированному контенту.

📌 GitHub: https://github.com/mksglu/claude-context-mode

Читать полностью…

Анализ данных (Data analysis)

🔥 Легендарный математик - Дональд Кнут начал свою новую научную работу словами: “Shock! Shock!”

Почему?

Потому что Claude Opus 4.6 решил открытую задачу, над которой Кнут работал несколько недель.
Речь о гипотезе разложения графов из легендарной книги The Art of Computer Programming.

Кнут даже назвал статью в честь ИИ:

“Claude’s Cycles”

Что произошло:

- Claude провёл 31 исследование
- на это ушло примерно 1 час
- Кнут изучил результат
- оформил формальное математическое доказательство

И закончил работу фразой:

> *«Похоже, мне придётся пересмотреть своё мнение о генеративном ИИ.»*

Это сказал человек, который написал библию компьютерных наук.

И назвал научную работу в честь ИИ.

Почитать саму работу можно здесь:
https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf

Читать полностью…

Анализ данных (Data analysis)

✔️ Claude-Mem - open-source инструмент, который даёт Claude постоянную память между сессиями.

Главная проблема Claude Code

По умолчанию у Claude нет долгосрочной памяти:
- каждый запуск - "с чистого листа"
- весь контекст нужно передавать заново
- растут токены
- быстро достигаются лимиты
- агент забывает структуру проекта, решения и предыдущие шаги

Это делает длительную работу с кодом дорогой и неэффективной.

Что делает Claude-Mem

Claude-Mem добавляет слой persistent memory:
- сохраняет важный контекст между сессиями
- восстанавливает знания при следующем запуске
- отправляет в модель только релевантную информацию

По сути, это внешний long-term memory для агента.

Результаты

По заявлению разраьотчиков:
- до 95% меньше токенов на повторных запусках
- до 20x больше tool calls до достижения лимитов
- быстрее старт новых сессий
- меньше повторных объяснений модели

https://github.com/thedotmack/claude-mem

Читать полностью…

Анализ данных (Data analysis)

На это конец, можно идти домой

Читать полностью…

Анализ данных (Data analysis)

📌 Большинство AI-агентов на самом деле ничего не помнят.

Каждый диалог для них — как первый:
- нет памяти о прошлых разговорах
- нет понимания связей между фактами
- нет накопленного опыта

И здесь многие делают ошибку.

Они используют vector database — и считают, что это память.

Проблема:
Vector search находит похожие куски текста,
но не понимает связи между ними.
Документы остаются изолированными фрагментами.

Агенту нужна не просто память.
Ему нужна система знаний с отношениями.

Именно это делает Cognee — 100% open-source инструмент для самообучающейся памяти.

Что внутри:

- Vector search + графовая база
- Поиск по смыслу + связи между сущностями
- Документы превращаются в knowledge graph

Ключевые возможности:

Composable pipelines
Можно собирать свои пайплайны:
chunking → embedding → entity extraction → обработка

Weighted memory
Чем чаще используется связь — тем она сильнее
Память адаптируется под реальное использование

Self-evolving memory
Пайплайн memify:
- усиливает полезные связи
- удаляет устаревшие данные
- оптимизируется по принципам RL

Агент получает память, которая:
- сохраняется
- понимает связи
- улучшается со временем

https://github.com/topoteretes/cognee

Читать полностью…

Анализ данных (Data analysis)

📌 Anthropic добавила новую функцию памяти в Claude.

Теперь можно перенести контекст и предпочтения из других AI-инструментов.

Как это работает:

1. В другом AI генерируете специальный prompt с вашим контекстом
2. Копируете результат
3. Вставляете его в настройки памяти Claude

После этого Claude:
- запоминает ваши предпочтения
- понимает ваш стиль работы
- может сразу продолжать диалог без повторных объяснений

Функция доступна во всех платных тарифах.

Почему это важно:

Контекст становится переносимым.
Вы больше не привязаны к одному инструменту.

Новый тренд в AI:

Пользовательский контекст - это ваш личный слой поверх моделей.

Модель можно сменить.
Память - остаётся.

claude.com/import-memory

Читать полностью…

Анализ данных (Data analysis)

⚡️Андрей Карпати поделился интересным экспериментом: он попробовал собрать исследовательскую команду из AI-агентов.

В setup:
- 8 агентов (Claude + Codex)
- у каждого свой GPU
- каждый работает как отдельный исследователь
- задачи ведутся через Git-ветки
- коммуникация через файлы
- всё запускается в tmux - как «офис» с окнами

Фактически — попытка построить AI-research-организацию.

Но главный вывод оказался неожиданным.

Агенты:
- плохо продумывают дизайн экспериментов
- делают случайные или бессмысленные вариации
- не строят сильные baseline
- не контролируют compute и время
- часто делают ложные выводы

Пример: агент «обнаружил», что увеличение hidden size улучшает validation loss.
Формально - да. Но модель просто стала больше и дольше обучалась. Никакой научной ценности.

Инсайт:

AI отлично реализует хорошо сформулированные идеи.
Но пока плохо генерирует сильные исследовательские гипотезы.

Теперь мы программируем не модель -
мы программируем организацию.

Source code такой системы:
- промпты
- роли
- процессы
- инструменты
- standup’ы
- workflow

Добро пожаловать в эпоху *Org Engineering*.

https://x.com/karpathy/status/2027521323275325622

Читать полностью…
Subscribe to a channel