waynetest2024
waynetest2024
好的,我再试一下。之前试过调用save_pretrained()一直报错,提示不是json格式。 curl指的是“ChatGLM3-6B FastApi 部署调用”这一章里面介绍的办法,不过这个应该不是大问题,主要是前一步没有解决。 感谢回复!
> 可以先设置`save_strategy=5`,看一下输出的路径在哪里。curl是指加载你自己lora后的模型吗?这个需要你合并模型后将相应部分推到modelscope或者hf上才可以的。 现在这个参数改为save_strategy='epoch'了,不过加上去之后依然报错,报错信息如下。感觉像是版本的问题,不过python包我都是按照项目示例给的版本安装的。 Traceback (most recent call last): File "train.py", line 79, in trainer.train() File "/root/miniconda3/lib/python3.8/site-packages/transformers/trainer.py", line 1539, in train return inner_training_loop( File "/root/miniconda3/lib/python3.8/site-packages/transformers/trainer.py", line 1944, in _inner_training_loop self._maybe_log_save_evaluate(tr_loss, model,...
> @waynetest2024 我想知道您微调多大的模型,多少数据大概用了多久? 我1W的训练数据,LoRA微调qwen1.5-32b-chat在A6000上慢的要死....batch我设置的16,一个batch就恨不得一分钟 就是demo里的模型和数据,chatglm3-6b、huanhuan.json,4090上几分钟跑一趟吧。我只是熟悉下基本流程,要求比较低
> > 现在这个参数改为save_strategy='epoch'了,不过加上去之后依然报错,报错信息如下。感觉像是版本的问题,不过python包我都是按照项目示例给的版本安装的。 > > 您好,测试的话不用设置为epoch的,直接设置为iter,然后每5个iter就保存一下,看看是否正常。如果实在解决不了,后续我会创一个没问题的环境推到autodl上,更新后附到repo的相关链接中。 哦哦,但是设置save_strategy=5会直接报错