LLMTuner icon indicating copy to clipboard operation
LLMTuner copied to clipboard

大语言模型指令调优工具(支持 FlashAttention)

Results 12 LLMTuner issues
Sort by recently updated
recently updated
newest added

04/26/2024 09:39:08 - INFO - llmtuner.model.utils.checkpointing - Gradient checkpointing enabled. 04/26/2024 09:39:08 - INFO - llmtuner.model.utils.attention - Using torch SDPA for faster training and inference. 04/26/2024 09:39:08 - INFO -...

请问flash attention 2可以加速可节约多少内存呢

请求加一个chatglm3的微调

trainer.py中是否缺失导包import numpy as np

单机多卡训练qwen1b8 qlora的时候报错如下,单卡训练实验正常

请教一下,您使用的flashattention是什么版本呢?使用的是什么显卡呢?目前由于显卡的问题需要尝试安装1.x版本的flashattention,安装后出现一些列错误。

您好,请问报这个错是什么原因 ![image](https://github.com/zejunwang1/LLMTuner/assets/152397003/e6731723-299e-4b06-a5ec-47ffc9e6640d)

请问我用百川微调开启特定广告任务task_finetune后报错不在同一设备上是什么原因,用原数据不开task_finetune则可以,谢谢 ![1700043058157](https://github.com/zejunwang1/LLMTuner/assets/53669083/a38bf528-7d50-45cd-b1cc-66a502c8f7c6) ![1700043137927](https://github.com/zejunwang1/LLMTuner/assets/53669083/bb3de3eb-cb58-45e3-aaad-82bae2e3e2f9)

您好,请问一下全量微调7B需要多少卡,8*V100 32G 够吗