grep-w

Results 3 comments of grep-w

> 这边也碰到了同样的报错。 根据 https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning 最小显存参数训练。 “模型部署”中的两种方式使用都是一样的报错。 后面我尝试了CPU推理就成功了,代码如下: ` #model = AutoModel.from_pretrained("model", config=config, trust_remote_code=True).half().cuda() model = AutoModel.from_pretrained("model", config=config, trust_remote_code=True).float() prefix_state_dict = torch.load(os.path.join("output\checkpoint-20000", "pytorch_model.bin")) new_prefix_state_dict = {} for k, v in prefix_state_dict.items():...

我也遇到了相似的问题,每次都是重新微调,请问有没有在Ptuning过程中可以多次使用之前微调结果的解决方案呢?