LLMTuner
LLMTuner copied to clipboard
大语言模型指令调优工具(支持 FlashAttention)
04/26/2024 09:39:08 - INFO - llmtuner.model.utils.checkpointing - Gradient checkpointing enabled. 04/26/2024 09:39:08 - INFO - llmtuner.model.utils.attention - Using torch SDPA for faster training and inference. 04/26/2024 09:39:08 - INFO -...
请问flash attention 2可以加速可节约多少内存呢
请求加一个chatglm3的微调
trainer.py中是否缺失导包import numpy as np
单机多卡训练qwen1b8 qlora的时候报错如下,单卡训练实验正常
请教一下,您使用的flashattention是什么版本呢?使用的是什么显卡呢?目前由于显卡的问题需要尝试安装1.x版本的flashattention,安装后出现一些列错误。
您好,请问报这个错是什么原因 
请问我用百川微调开启特定广告任务task_finetune后报错不在同一设备上是什么原因,用原数据不开task_finetune则可以,谢谢  
全量微调 7B
您好,请问一下全量微调7B需要多少卡,8*V100 32G 够吗