machinee_learning | Unsorted

Telegram-канал machinee_learning - Machine learning chat

6051

Please fell free to send your questions to admin - @haarrp https://t.me/pythonl - channel for Python developers https://t.me/ai_machinelearning_big_data our channel with huge amount of useful information

Subscribe to a channel

Machine learning chat

Рекомендую сначала погуглить выход из американского гражданства. Спойлер: тот ещё гемор почти нереальная задача, если что.

Читать полностью…

Machine learning chat

gguf весов пока нет?

Читать полностью…

Machine learning chat

ого, на гпу будет еще быстрее работать

Читать полностью…

Machine learning chat

а почему индийцы начали использовать английский, ты не в курсе? :3

Читать полностью…

Machine learning chat

✔️ Ant выкатили Ling-2.6-flash в опенсорс, и это реально интересный кейс

На бумаге это монстр на 104 миллиарда параметров, но в работе одновременно крутится только 7,4 миллиарда. Классическая MoE архитектура, где сеть сама решает, каких экспертов подключать под конкретную задачу. Поэтому и скорость такая, какой обычно от больших моделей не ждёшь.

215 токенов в секунду на бенчмарке Artificial Analysis. Для сравнения, многие топовые модели крутятся в районе 50–80 токенов в секунду, так что разрыв ощутимый. Но интереснее другая цифра. На полном прогоне AA Intelligence Index модель потратила всего 15 миллионов токенов. В реальной эксплуатации такая экономия превращается в прямые деньги, потому что меньше токенов это меньше счёт за инференс.

Для деплоя есть три варианта весов: BF16 для тех, у кого железа в избытке, FP8 как разумный компромисс и INT4 для совсем зажатых по памяти сетапов.

То есть запустить можно хоть на жирном кластере, хоть на одной видяхе с квантизацией.

Hugging Face: https://huggingface.co/inclusionAI/Ling-2.6-flash
ModelScope: https://modelscope.cn/models/inclusionAI/Ling-2.6-flash

Читать полностью…

Machine learning chat

И вот опять англоязычные страны диктуют свои условия.

Читать полностью…

Machine learning chat

ну это же ОЧЕНЬ БОЛЬШАЯЯ переменная!

Читать полностью…

Machine learning chat

А где обещанный рост зарплат аналитикам? 🤔

Читать полностью…

Machine learning chat

интересно чё там по полигонам. для каких целей модельки подходят: печать, цифровая статика или под анимацию.

Читать полностью…

Machine learning chat

Есть ли на сегодняшний день актуальные проблемы которые плохо решаются ллм и легко людьми? Хочется фидбека от тех кто собесы проводил или участвовал

Читать полностью…

Machine learning chat

Серьезно? 500K токенов на одно переименование? Это перебор.

Читать полностью…

Machine learning chat

Да какой смысл, скоро люди заменят ИИ...

Читать полностью…

Machine learning chat

Я кстати тоже об этом недавно думал, а можно ли сделать ЯП специально для LLM, чтобы только они понимали.

Читать полностью…

Machine learning chat

Вот тут для начала нужно с этим разбираться, и вникать в суть цикла тренд/ флет, что бы попадать в фазу и т.д, а потом уже делать все остальное.

Читать полностью…

Machine learning chat

🧩 Новый язык программирования для AI-систем

Weft - это язык программирования, написанный на Rust, который упрощает создание AI-приложений, позволяя связывать LLM, людей и API без лишнего "проводки". Он предлагает визуальное представление программ и строгую типизацию, что делает разработку более интуитивной и безопасной.

🚀Основные моменты:
- Первоклассные взаимодействия с людьми через простые узлы.
- Возможность сворачивать группы узлов для упрощения структуры.
- Полная типизация, предотвращающая ошибки на этапе компиляции.
- Устойчивое выполнение программ, сохраняющих состояние после сбоев.
- Встроенные узлы для работы с различными сервисами и API.

📌 GitHub: https://github.com/WeaveMindAI/weft

#rust

Читать полностью…

Machine learning chat

Это фундаментальная фича! ))

Читать полностью…

Machine learning chat

в смысле реальных задач нет и в смысле монстр?
как раз в 128/140гб железо помещается и при том быстрый инференс...
задач - полно

Читать полностью…

Machine learning chat

Я тебе советую изучить не почему они начали использовать английский, а почему они до сих пор это делают :3

Читать полностью…

Machine learning chat

Зачем нам очередной "монстр", если реальных задач нет?

Читать полностью…

Machine learning chat

Ох уж эти англосаксы, специально ущемляют хинди, на котором в интернете мизерный объём материалов, потому что сами индусы используют английский

Читать полностью…

Machine learning chat

Налог на неанглийский язык: почему хинди и арабский в Claude обходятся дороже всего

Исследователь Аран Комацузаки прогнал «Bitter Lesson» Саттона через токенизаторы OpenAI и Anthropic и нормализовал результат к английскому. Картинка получилась неприятная для всех, кто пишет не на английском.

Один и тот же текст на хинди у OpenAI занимает в 1,37 раза больше токенов, чем по-английски. У Anthropic - в 3,24 раза. Арабский: 1,31 против 2,86. Китайский: 1,15 против 1,71. То есть пользователь, который пишет Claude на хинди, фактически платит втрое больше за то же самое сообщение и быстрее упирается в контекстное окно.

Это и есть «лингвистический налог»: токенизатор обучен преимущественно на английских данных, и все остальные языки он режет на куски мельче, чем нужно. У Anthropic эта диспропорция выражена заметно сильнее, чем у OpenAI, и для языков с неевропейской письменностью разрыв превращается в реальные деньги и потерянный контекст.

https://x.com/arankomatsuzaki/status/2049125048792006965

Читать полностью…

Machine learning chat

яндекс клауд растёт, так как новые схемы обхода блокировок включают его, судя по статьям на Хабре

Читать полностью…

Machine learning chat

🚀 Яндекс отчитался за первый квартал 2026: выручка Yandex B2B Tech взлетела на 36%

Корпоративные сервисы Яндекса заработали уже 13,6 млрд рублей. Бизнес-клиенты не просто подключаются, а реально наращивают потребление – особенно в сегменте ИИ и безопасности.

Что там с деньгами:
• Выручка – 13,6 млрд рублей (+36% г/г). Растет и количество клиентов, и средний чек;
• Скорректированный показатель EBITDA – 2,6 млрд рублей (+49% г/г). Маржинальность тянет вверх доля PaaS и SaaS.

Ключевой драйвер — Yandex AI Studio:
• Ежемесячное потребление токенов через API выросло до 109 млрд в марте. Это рост в 30 раз всего за год;
• На платформе уже создали более 16 тысяч ИИ-агентов;
• Бизнес переходит от точечных экспериментов к полноценной автоматизации процессов.

Что еще важно:
• Общее число клиентов Yandex Cloud достигло 60 тысяч. Больше половины выручки дают крупные компании.
• ИИ и кибербезопасность растут вдвое быстрее год к году. Причём больше половины крупных и средних клиентов Cloud уже используют платформу для информационной безопасности.

Ссылка: https://rb.ru/news/yandeks-opublikoval-finansovye-itogi-za-i-kvartal-2026-goda-vyruchka-vyrosla-na-22-do-3727-mlrd/

Читать полностью…

Machine learning chat

Microsoft представила TRELLIS.2 - open-source Image-to-3D модель на 4B параметров, которая превращает изображения в 3D-ассеты с PBR-текстурами разрешением до 1536³.

Модель построена на нативных 3D VAE с 16-кратным пространственным сжатием, что даёт более эффективную, масштабируемую и детализированную генерацию 3D-объектов.

Демки выглядят очень круто.

https://github.com/microsoft/TRELLIS.2

Читать полностью…

Machine learning chat

Ребят,а вот есть те кто пользовался курсором,или пользуется до сих пор?
Если есть,то можете подсказать,достаточно ли про подписки курсора и на сколько?Просто не знаю брать или нет.

Читать полностью…

Machine learning chat

CLAUDE OPUS 4.7 использует 500K токенов, чтобы переименовать одну переменную.

Читать полностью…

Machine learning chat

Лучше думай про Цетлин Машину. Это спасение.

Читать полностью…

Machine learning chat

В общем нужны какие то жёсткие подходы сочетания off policy и on policy.
Off policy обучен на конкретную ситуацию - там с примерами визуальными и т.д - ofline обучение , через on policy высчитывать моменты переключения и актуальности данным по сходимости и т.д

Читать полностью…

Machine learning chat

Ещё тут так же проблематика с настройкой n_step и batchsize в самом алгоритме.
Если не правильно настроить n_step алгоритм будет запаздывать - переобучится на тренд, начался флет, слил на комиссии. Переобучится на флет, начался тренд, слишком мало берет прибыть.

Так же и с batchsize - равен длинне nstep , все воркеры в много потоке стартуют синхронно и по факту обучение длится дольше, т.к все в воркерах синхронизировано, и они видят обсалютнл одно и тоже на каждом шаге

Читать полностью…

Machine learning chat

Взять допустим обычное машинное обучение. В не стационарной среде оно не работает вообще.

Так что единственный выход это делать менеджера в hrl и потом пытаться выяснить как добавить в награду условия без заглядиывания в будущее

Читать полностью…
Subscribe to a channel