Llama-Chinese icon indicating copy to clipboard operation
Llama-Chinese copied to clipboard

Llama中文社区,Llama3在线体验和微调模型已开放,实时汇总最新Llama3学习资料,已将所有代码更新适配Llama3,构建最好的中文Llama大模型,完全开源可商用

Results 126 Llama-Chinese issues
Sort by recently updated
recently updated
newest added

https://pan.baidu.com/s/1gBZ7wEn3gC8VRok0Onh9BQ?pwd=8frq ![image](https://github.com/LlamaFamily/Llama-Chinese/assets/27919234/27de3a32-e081-4238-916c-c895f2f3f192)

还是别用百度网盘了吧,非会员下载太慢。转到迅雷或者夸克

有 vllm chat-template 吗

如题,譬如微调训练时,输入内容含有 自杀、跳楼等敏感词汇,模型是否做了这些敏感词汇的工程管理。

感觉markdown给的数据格式有问题; 数据集只有一列"task"是把整个输入全部计算了loss,但SFT的正确做法应该要mask掉human的部分不参与损失计算。 如果是SFT格式的,数据集应该提供"input"和"target"两列;代码没有问题,但是这部分的markdown文档有问题

请问微调时候,学习率逐渐增大是什么原因

使用lora训练llama-2-7b-chat,数据是博主data目录下的数据,代码并无改动,启动的脚本用的是finetune_lora.sh,deepspeed启动命令如下: deepspeed --include localhost:0 finetune_clm_lora.py \ --model_name_or_path /home/zengshaokun/models/llama/llama-2-7b-chat \ --train_files ../../data/train_sft.csv \ --validation_files ../../data/dev_sft.csv \ ../../data/dev_sft_sharegpt.csv \ --per_device_train_batch_size 4 \ --per_device_eval_batch_size 4 \ --do_train \ --do_eval \ --use_fast_tokenizer false \...

kaggle上运行lora微调的代码出现这样的报错:Traceback (most recent call last): File "/kaggle/working/llamatest/train/sft/finetune_clm_lora.py", line 692, in main() File "/kaggle/working/llamatest/train/sft/finetune_clm_lora.py", line 653, in main train_result = trainer.train(resume_from_checkpoint=checkpoint) File "/opt/conda/lib/python3.10/site-packages/transformers/trainer.py", line 1624, in train return inner_training_loop( File "/opt/conda/lib/python3.10/site-packages/transformers/trainer.py",...