codingma
codingma
目前看是训练的时候就有问题,loss异常地大。 可以再试一下其他模型,比如qwen1.5-0.5B ,我这边可以正常训练。对比一下可能是什么环节的问题
mac 只能支持单精度的训练,没有办法做混合精度,不确定是不是两个版本的模型的数据格式有区别导致的。
昇腾相关用户可以加入这个交流群 
Unsloth and GaLore can't be used simultaneously.
文件可以下载的 `wget https://cdn-media.huggingface.co/frpc-gradio-0.2/frpc_linux_amd64`
可能是网络问题,这个文件本地下载后上传试试,不是病毒。
目前不支持
训练阶段可以在 dataset_info.json 给 数据集指定 system 的字段
unsloth 的 use_gradient_checkpointing 的值默认就是 "unsloth" 通过 --use_unsloth 开启
``` llamafactory-cli api -h: launch an API server llamafactory-cli chat -h: launch a chat interface in CLI llamafactory-cli eval -h: do evaluation llamafactory-cli export -h: merge LoRA adapters and export...