ChatGLM-Efficient-Tuning icon indicating copy to clipboard operation
ChatGLM-Efficient-Tuning copied to clipboard

Fine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调

Results 66 ChatGLM-Efficient-Tuning issues
Sort by recently updated
recently updated
newest added

执行bash train_sft.sh 报错 _Originally posted by @chenxw321 in https://github.com/hiyouga/ChatGLM-Efficient-Tuning/issues/217#issuecomment-1612911197_

invalid

尝试了#163 里的解决方案,train()时候加入autocast,loss不会下降,一直在2.x。 如果不加入则多卡不能跑evaluation,会报和这个issue一样的错? 好奇作者的多卡测试是怎么跑通的,硬件环境a100,参数和这个issue提到的一致(除了数据集的地址) ``` # loss一直在2.x无法下降 with torch.autocast("cuda"): train_result = trainer.train() trainer.log_metrics("train", train_result.metrics) trainer.save_metrics("train", train_result.metrics) trainer.save_state() trainer.save_model() if trainer.is_world_process_zero() and model_args.plot_loss: plot_loss(training_args.output_dir, keys=["loss", "eval_loss"]) ```

pending

### 现象描述 我的训练集现在只是有一条数据,就是who are you。我将它训练了120轮,并且在执行预测的时候表现如下 ### 然后执行 python src/cli_demo.py --checkpoint_dir examples/new_path_one/checkpoint-80/ 这个代码 然后他的回答和预测的时候完全不一样。 这个是终端的回答 这个是他的预测

pending

同等参数下,chatglm可以微调,chatglm2就爆显存,是模型优化问题吗? CUDA_VISIBLE_DEVICES=0 python src/train_sft.py \ --do_train \ --dataset alpaca_gpt4_zh \ --finetuning_type lora \ --output_dir path_to_sft_checkpoint \ --per_device_train_batch_size 4 \ --gradient_accumulation_steps 4 \ --lr_scheduler_type cosine \ --logging_steps 10 \ --save_steps 1000...

pending

参数如下: CUDA_VISIBLE_DEVICES=0 python src/train_sft.py --do_train --dataset alpaca_gpt4_zh --finetuning_type lora --quantization_bit 4 --output_dir path_to_sft_checkpoint --per_device_train_batch_size 4 --gradient_accumulation_steps 4 --lr_scheduler_type cosine --logging_steps 10 --save_steps 1000 --learning_rate 5e-5 --num_train_epochs 3.0 --fp16 报错信息如下: ![image](https://github.com/hiyouga/ChatGLM-Efficient-Tuning/assets/99600203/432cc519-42c1-413f-93db-19a4569b5712)

pending

1、训练集loss非常低: 83%|████████▎ | 200/240 [27:39

pending

使用的命令如下,并且更换了数据集也是一样的情况。 ``` CUDA_VISIBLE_DEVICES=0 python src/train_sft.py \ --do_train \ --dataset alpaca_gpt4_zh \ --dataset_dir data \ --finetuning_type lora \ --output_dir finetunev1_alpaca \ --overwrite_cache \ --per_device_train_batch_size 4 \ --gradient_accumulation_steps 4 \ --lr_scheduler_type cosine...

pending

目前能想到的可以批量出rejected的方法: 1.采用较差的模型生成的anwser作为rejected 2.anwser部分数据集提取摘要作为rejected 想问下你们的rejected部分数据集是怎么生成的,谢谢

pending

训练的代码,已完成: `CUDA_VISIBLE_DEVICES=3 python ../src/train_sft.py \ --model_name_or_path "THUDM/chatglm2-6b" \ --use_v2 \ --do_train \ --dataset electric \ --dataset_dir ../data \ --finetuning_type lora \ --output_dir path_to_sft_checkpoint \ --overwrite_cache \ --per_device_train_batch_size 1 \ --gradient_accumulation_steps...

solved