jvmchat | Unsorted

Telegram-канал jvmchat - pro.jvm

5858

Сообщество разработчиков Java Scala Kotlin Groovy Clojure Чат для нач-их: @javastart Наш канал: @proJVM Вакансии: @jvmjobs @jvmjobschat Конфы: @jvmconf ⚠️ Оффтоп -> @flood ❌Переход на личности ❌Троллинг ❌Реклама ❌HH (вакансии) ❌Варез

Subscribe to a channel

pro.jvm

и он предлагает юзать семафор, что логично + непонятно, как вообще реализовать пулинг виртуальных потоков, что там по пинингу платформенных тредов в таком случае

мы же не пулим корутины или горутины

Читать полностью…

pro.jvm

Так я и не имею ничего против разумного числа. Просто аргумент про три миллиона невалидный, нет таких реальных задач.

Читать полностью…

pro.jvm

3 ляма я приводил в пример для сервака

Читать полностью…

pro.jvm

Так это тысяча, не три миллиона

Читать полностью…

pro.jvm

то есть из 1 млн сообщений, берем последовательно первый батч на тысячу и каждое сообщение из этой тысячи параллельно обрабатываем, результат обработки пишем в базку и коммитим оффсеты в кафку

Читать полностью…

pro.jvm

чтение с кафки последовательное бай дизайн, я сказал про обработку батча параллельно

Читать полностью…

pro.jvm

Я тоже, только сколько там запросов пройдет, и сколько ты будешь nic ждать?

Читать полностью…

pro.jvm

- Я могу открыть миллион коннектов
- Я, правда, ничего гонять по ним не собираюсь

Читать полностью…

pro.jvm

без вирт тредов я как это сделаю?

Читать полностью…

pro.jvm

и вирт треды которые в IO в бд висят просто будут спать

Читать полностью…

pro.jvm

Я всё ещё не увидел зачем вам миллионы тредов, когда вы неизбежно упираетесь как минимум в контеншен
Почему ту кафку нельзя батчить последовательно относительно небольшим количеством тредов?

Читать полностью…

pro.jvm

ага

It is possible, however, that code running in a virtual thread may require the use of a finite resource, such as a database connection.


у вас какие-то другие приложения?

Читать полностью…

pro.jvm

Очередной спор на 400 сообщений

Читать полностью…

pro.jvm

Раки по три тоже дешевые, но я их не покупаю по причине отсутствия необходимости

Читать полностью…

pro.jvm

1. создание и уничтожение дешевое, размер стэка динамический
2. ими уже управляет платформенный пул трэдов

Читать полностью…

pro.jvm

receive side scaling
нума ещё
нет-нет, не говори, что тебе не надо в общую память ходить

Читать полностью…

pro.jvm

где именно? жава сама вирт треды по ядрам разрулит

Читать полностью…

pro.jvm

И у тебя нет тысячи ядер, чтобы это было параллельно

Читать полностью…

pro.jvm

так давно же есть оценка что реактивный подход даёт 15-30% к пропускной способности IO-intensive системы. Ну тоесть часто проще чуть больше железа докинуть зато всё будет проще и пограммистов подешевле можно будет взять, да и дебаг без реактивщины сильно упростится и ускорится.

Читать полностью…

pro.jvm

576k циклов на запрос при 3ггц. Ты уверен, что ты уложишься? Как ты будешь делать RSS в джаве?

Читать полностью…

pro.jvm

погоди, ты не понял задачу с кафкой

Читать полностью…

pro.jvm

запросы по ним будут гонятсья

Читать полностью…

pro.jvm

Так а зачем тебе создавать то, что тебе не нужно вообще в принципе?

Читать полностью…

pro.jvm

Я тоже, только сколько там запросов пройдет, и сколько ты будешь nic ждать?

Читать полностью…

pro.jvm

я могу себе позволить открыть лям коннектов к бд

Читать полностью…

pro.jvm

НЕЕЕЕЕТ

ТЫ НЕ ДОЛЖЕН ЮЗАТЬ ВИРТУАЛЬНЫЕ ПОТОКИ

ВЫИГРЫША ПО ПАМЯТИ НЕТ

ЗАЧЕМ ТЕБЕ СОЗДАВАТЬ ИХ НА КАЖДЫЙ ЧИХ

ДАВАЙТЕ ПУЛИТЬ ВИРТУАЛЬНЫЕ ПОТОКИ

А ПЛАТФОРМЕННЫЕ ПОЧЕМУ ХАРАМ

Читать полностью…

pro.jvm

тут один ноунейм ответил

Читать полностью…

pro.jvm

https://stackoverflow.com/questions/77750151/should-virtual-thread-die-fast

Читать полностью…

pro.jvm

Unlike platform thread stacks, virtual thread stacks are not GC roots. Thus the references they contain are not traversed in a stop-the-world pause by garbage collectors, such as G1, that perform concurrent heap scanning.

Читать полностью…

pro.jvm

нет, я сегодня это читал про нативные

и для виртуальных тоже не должно ничего копироваться, его можно оставить в памяти по тому же адресу

Читать полностью…
Subscribe to a channel