imjking

Results 4 issues of imjking

你好, 图片大小有什么限制吗,一定要resize到512吗? 代码centralied_marks[:, 0:4] -= 300.5含义是什么?

使用lora-alpaca-med进行推理的时候,prompt_template应该选择什么呢, med-template.json还是alpaca_short.json?

你好,我用4张12g 3080ti想跑chatglm2微调,但是报显存不足; 使用你列的只需14G显存的参数后也不行;使用int8加载模型后在训练时报了oom。 上面都是在模型并行参数开启下跑的。 在关闭模型并行参数时,也会在训练时报oom, 这时候只会用到一张卡。 请问这种情况正常吗,我该如何解决呢?

chatglm2

你好,使用13B推理时该如何指定GPU?(现在有四块3080Ti) 使用7B推理时,按照generate.sh代码可以直接跑起来; 使用13B推理时: 1. 修改generate.sh如下: ![image](https://github.com/Facico/Chinese-Vicuna/assets/46706333/3585b720-685f-45e5-a893-3d132e38383d) 修改generate.py如下: ![image](https://github.com/Facico/Chinese-Vicuna/assets/46706333/3adfe8fc-6369-4f27-bf44-53143db80001) 但输入指令时报了如下错误: ![image](https://github.com/Facico/Chinese-Vicuna/assets/46706333/235cce9d-0a1e-4c0d-8d72-fcec35ff73b3) 2. 修改generate.py如下: ![image](https://github.com/Facico/Chinese-Vicuna/assets/46706333/2a139262-f572-400d-9fd2-aa23305b3eb4) ![image](https://github.com/Facico/Chinese-Vicuna/assets/46706333/1f4f36db-ea38-4cff-9576-de6ce33df099) 直接报oom错误: ![image](https://github.com/Facico/Chinese-Vicuna/assets/46706333/8a3627ab-035d-4189-bc88-7b92581c7df2) 推理13B时该如何解决这种情况啊,如何指定GPU呢?