limm

Results 17 comments of limm

> > Hi @Lilaoxie, I believe just installing `onnxruntime-gpu` should be enough for GPU-based inference, but I didn't try it on my own for this model. > > Yeah, I...

> can you open a PR @xiuxiuxius ? Never done it before, tried it, not sure if it's right

lora不是微调扩散模型的么,还可以微调clip吗?

> lora不是微调扩散模型的么,还可以微调clip吗? 有一个研究用了,InternLM-XComposer2

感觉是没有,我试了一下两阶段的微调方式,评估指标没有单阶段的高

> 数据集有多少 用的MUGE的数据集呀,没有做其他处理,直接用的

> 您好,微调时没有用两阶段的方式,可以参考我们的[技术报告](https://arxiv.org/pdf/2211.01335.pdf)中给出的超参数配置。给出的脚本默认超参应该不适合1*V100训练,需要自行调整一下超参设置。 感谢回复

参考这个https://github.com/NVIDIA/TensorRT/issues/1763 ![image](https://user-images.githubusercontent.com/89114157/210696189-e2310245-57fc-40c5-85f5-1e5a20f17556.png)

你好,又有了新的问题 modelscope 1.14.0 ![image](https://github.com/modelscope/modelscope/assets/89114157/3dfc2776-3321-4803-ab35-97cbc38dba72) > 问题已修复,请重试