transformers_tasks icon indicating copy to clipboard operation
transformers_tasks copied to clipboard

纯请教 lora_rank 这个参数咋用,什么含义?求解

Open magnificent1208 opened this issue 1 year ago • 2 comments

lora_rank 大小 具体影响了啥?

magnificent1208 avatar Mar 31 '23 04:03 magnificent1208

LoRA 将 transformer 中的 Attention Matrix 分解为两个低秩(Low Rank)向量,从而起到减少 GPU 显存占用的作用。

代码中的 --lora_rank 参数用于设定被分解的向量的矩阵秩为多少,你可以在 源码 里看到对应的解释,也可以在 论文 里找到更具体的细节。

这意味着,您可以通过修改这个参数来调整训练时所消耗的资源(但这可能会对最终的结果产生一定的影响)。

HarderThenHarder avatar Mar 31 '23 05:03 HarderThenHarder

如果需要全量 得改哪个部分?

magnificent1208 avatar Apr 17 '23 15:04 magnificent1208