zero-lora icon indicating copy to clipboard operation
zero-lora copied to clipboard

lit-llama使用 LoRA 进行微调

Open ziwang-com opened this issue 2 years ago • 0 comments
trafficstars

https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_lora.md 使用 LoRA 进行微调 低秩自适应 (LoRA) 是一种使用低秩矩阵分解近似更新到 LLM 中线性层的技术.这大大减少了可训练参数的数量,并加快了训练速度,而对模型的最终性能几乎没有影响。我们通过在单个GTX 3090(24GB)GPU上的Alpaca数据集上的指令微调LLaMA 7B来演示这种方法。

制备 此处的步骤只需执行一次:

按照自述文件中的说明安装依赖项。

下载并转换权重,并将其保存在文件夹中,如此所述。./checkpoints

下载数据并生成指令调优数据集:

python scripts/prepare_alpaca.py 另请参阅:对非结构化数据集进行微调

运行微调

ziwang-com avatar Jun 05 '23 01:06 ziwang-com