pro.jvm
04 Dec 2024 14:23
ммм, я вроде как раз qwen 2.5-14B тыкал осенью. ради прикола скормил какую-то из задачек на алгосы, то ли с собеса попалась. то ли с какого-то зарытого контеста. емнип, он правильно определил на какой алгоритм задачка, но работающий код не выдал.
Читать полностью…
pro.jvm
04 Dec 2024 14:21
а четверку они только в облаке продают и цена ад, рубль двадцать за 1к токенов (1 токен - типо символ)
Читать полностью…
pro.jvm
04 Dec 2024 14:21
который кал максимальный
Читать полностью…
pro.jvm
04 Dec 2024 14:21
я тут офигел, когда решил русские модели попробовать
Читать полностью…
pro.jvm
04 Dec 2024 14:20
есть, Qwen 2.5, Mistral
Читать полностью…
pro.jvm
04 Dec 2024 14:18
да, это не o1, но для такого есть Qwen 2.5 72B
Читать полностью…
pro.jvm
04 Dec 2024 14:18
я запускаю qwen coder 14B с нормальным токен респонсом на 32GB + M2max
Читать полностью…
pro.jvm
04 Dec 2024 14:17
вполне шустро картинки генерит
Читать полностью…
pro.jvm
04 Dec 2024 14:17
ну я у себя на ноуте запускал LLM
Читать полностью…
pro.jvm
04 Dec 2024 14:17
а зачем локально LLM гонять ? даже самые жирные локальные модели будут хуже облачных. имеет смысл только если (до)обучаешь на локальной кодовой базе и документации.
Читать полностью…
pro.jvm
04 Dec 2024 14:16
речь про инференс LLM
Читать полностью…
pro.jvm
04 Dec 2024 14:16
вы пока не погрузитесь в мир опен сорс моделей, не поймете о чем я
Читать полностью…
pro.jvm
04 Dec 2024 14:16
но с куда более широкой пропускной способностью
Читать полностью…
pro.jvm
04 Dec 2024 14:15
и он будет хуже для ИИ
Читать полностью…
pro.jvm
04 Dec 2024 14:15
но лично я выберу себе что-нить подешевле и на линуксе :)
Читать полностью…