А вообще как может в скасти код не крснить, а локально не компилится, на
implicit def s[T]: Serializer[IO, T] = Serializer[IO].contramap(setData)
expected start of definition
https://scastie.scala-lang.org/eJzdASDpSeqXHvd39ZFxEA попрвил зависимости и даже не краснит )
Читать полностью…Возможно. Только, почему-то ничего приличней https://getquill.io/#contexts-quill-cassandra на ум не прихрдит.
Читать полностью…А, сама она довольно простая надстройка над стримами, которые форкнули. Почему-то думал, что и альпакки тоже. Но - пока нет (или я не нашел)
Читать полностью…Вот допустим использую алпакка Кассандра
Там форк апача это что? Для акко это пекко, а для альпака Кассандра? Apache Pekko Persistence Cassandra?
Спасибо.
А для третьей скалы как переделать
[T: Serializer[IO, *]]?
[T: Serializer[IO, _]]Пишет
fs2.kafka.Serializer[cats.effect.IO, ?] does not take type parametersЧитать полностью…
Но я так понимаю это если сериализацию выкинуть из класса?
И делать ее имплиситом? А получится без ContextShift?
В данном случае вы под альпакой что имеете ввиду? На странице альпаки драйвер для Кассандры и вроде на странице пекко то же драйвер. То есть могу по идее для работы с Кассандрой использовать пекковский драйвер, не ?
Читать полностью…Я правильно понимаю, что альпакские либо использовать для пет проекта могу, но если проект начнет приносить деньги, то нужно покупать коммерческую лицензию?
Читать полностью…Так понимаю когда научусь плавать, в бассейн воду нальют😺
MyDataSerializerTypeclassThatConvertsAToBytes в данном контексте как должен выглядеть? Это сериализатор на основе авто в моем случае?
Это trait от которого наследовать конкретные классы для конвертации моих данных в авро байтовый массив?
У меня архитектурные вопросы нарисовались.
Допустим я хочу класс замутить, обертку над оберткой, чтоб где надо создавать Producer и ему данные передавать. Указал топик, url к кафке и вперед.
Но вот скажем для zio-kafka надо ZStream создать, потом при помощи mapZIO, в который передаем лямбду создающую из элемента потока сообщение, и drain создаем ZStream[Producer, Throwable, Nothing] к примеру. А потом через runDrain и provide запускаем процесс на выполнение. В стандартном примере zio-kafka создася поток случайных чисел, а потом в виде строки передается на producer который дальше пишет в топик.
Если я хочу большей универсальности, то мне достаточно сменить тип сообщения на bytearray,
а дальше сделать поток из сериализованных Avro данных?
То есть вместо confluentinc/cp-kafka:7.3.0 прописать provectuslabs/kafka-ui и порт прокинуть 8080?
Читать полностью…