shanyuaa
shanyuaa
### 请提出你的问题 - 前提条件:单机单卡已经跑通chatglm2的lora微调训练代码;llama的多卡pp并行训练已跑通。 - 问题场景:想进一步尝试单机多卡,设置/chatglm2/lora_argument.json配置文件中的 "pipeline_parallel_degree": 4,然后参照官网样例,启动命令行:`srun --gres=gpu:4 python3 -u -m paddle.distributed.launch --gpus "0,1,2,3" finetune_generation.py ./chatglm2/lora_argument.json` - 所遇问题:跑chatglm2的多卡pp并行时会报错找不到ChatGLMv2ForCausalLMPipe类,错误代码行显示在: ``` File "/home/LAB/wangzy/paddle/PaddleNLP/llm/finetune_generation.py", line 183, in main model = AutoModelForCausalLMPipe.from_pretrained( ```...
感谢您参与 X2Paddle 社区! 问题模版为了 X2Paddle 能更好的迭代,例如新功能发布、 RoadMaps 和错误跟踪. :smile_cat: ## 问题描述 - 错误信息 ValueError: This protobuf of onnx model is too large (>2GB). Call check_model with model path instead. -...