zhengyangyong

Results 8 comments of zhengyangyong

yes,also think need support t4 template db first,auto gen poco class

我现在就是这么干的,如果能原生支持更好了

> 用 lora lora效果不太好感觉,所以...

最新进展我使用分布式微调,两台 V100 16G * 8,一样OOM,所以感觉就是batch size=1 都吃不下去

> 用 lora 现在更换了lora,如果使用默认的lora_rank=8微调0.5B的模型,调整的参数是: trainable params: 4,399,104 || all params: 498,431,872 || trainable%: 0.8826 请问一般什么比例更好呢?

we need support \uff08 and \uff09

按文档pip install vllm 0.9.0后执行报错,CUDA 12.2