mooumouliu
mooumouliu
> 我用差不多的代码微调 怎么batchsize只能开到原来一半 大佬用的lora还是ptuning
> > > 我用差不多的代码微调 怎么batchsize只能开到原来一半 > > > > > > 大佬用的lora还是ptuning > > ptuning 我微调时候一直报错 报错ChatGLMModel' object has no attribute 'prefix_encoder' 你有出现这种问题么 方便qq交流一下么 1241329431
用的ptuning微调么 ?我的为啥2微调不了 报错ChatGLMModel' object has no attribute 'prefix_encoder'
> > 我也是报错ChatGLMModel' object has no attribute 'prefix_encoder' > > 可能是你模型引用不对。看一下那个教程 @CXLiang123 大佬现在可以用ptuning微调了么?我更新了项目和模型的最新内容这个错误跳过了 不过又出了新的错误。
你没有报'ChatGLMModel' object has no attribute 'prefix_encoder' 这个错误么 我的一没有这个问题 采用 和一一样的ptuning方式 微调2 给我报这个错误
> > 你没有报'ChatGLMModel' object has no attribute 'prefix_encoder' 这个错误么 我的一没有这个问题 采用 和一一样的ptuning方式 微调2 给我报这个错误 > > 我没有采用 ptuing,我直接进行的全量微调。 好吧 我只有两张3060(12+12)跑不了全量
@sunmh207 @whitesay 更新huggingface最新模型代码和git最新的项目代码 这个错误跳过了 不过又出了新的问题