CogVLM2
CogVLM2 copied to clipboard
是否支持全参微调?
现在放出的微调接口是Lora微调的,是否可以在训练资源充足的情况下进行全参微调呢?是不是注释掉
peft_lora.py
中的model = get_peft_model(model, peft_config)
,就可以了?