chatglm2_finetuning icon indicating copy to clipboard operation
chatglm2_finetuning copied to clipboard

chatglm2 6b finetuning and alpaca finetuning

Results 21 chatglm2_finetuning issues
Sort by recently updated
recently updated
newest added

如题,我在train.py的pl_model = MyTransformer(**transformer_args)后面尝试加上 from deep_training.nlp.models.petl.lora.petl_model import PetlModel PetlModel.from_pretrained(pl_model.backbone, os.path.join(output_weight_dir, "last")) 报错了。

我只是修改了constant_map.py最后为train_model_config = train_info_models['chatglm2-6b-32k-int4'] 'chatglm2-6b-32k-int4': { 'model_type': 'chatglm2', 'model_name_or_path': '/data/ChatGLM/pre_model/chatglm2-6b-32k-int4', 'config_name': '/data/ChatGLM/pre_model/chatglm2-6b-32k-int4/config.json', 'tokenizer_name': '/data/ChatGLM/pre_model/chatglm2-6b-32k-int4', }, 相关配置是这样的。 最后报错:AssertionError: quantization ptv2 not support

测试过程: 仅修改了 sft_config_lora.py文件的数据路径,数据格式同demo数据格式一致,还有就是修改了batch_size和epoch 微调后生成的文件: ![5f647066bb397b2c6876de0e78dc464](https://github.com/ssbuild/chatglm2_finetuning/assets/34124260/3f753fa0-3f6a-4958-8859-345d1c01be80) ![3d8a5ff30c8253948cf50025e24d743](https://github.com/ssbuild/chatglm2_finetuning/assets/34124260/1586d784-736c-4771-bb95-0de17cf56788) ![68f35b23aba3e5c97c35bf859626921](https://github.com/ssbuild/chatglm2_finetuning/assets/34124260/d228ba24-792f-4bf0-b399-957ddbb6f1b6) 针对140条内部数据测试了10个epoch,最终结果是一点效果都没有... 不知道我的步骤是不是出了什么问题?还是那个配置文件没有修改?

训练命令如下: CUDA_VISIBLE_DEVICES=0,1 python train.py 报错信息如下: ╭───────────────────── Traceback (most recent call last) ──────────────────────╮ │ /chatglm2-dev/train.py:122 in │ │ │ │ 119 │ ) │ │ 120 │ │ │ 121 │...

训练的时候我想使用多卡加载模型,可以吗?

![image](https://github.com/ssbuild/chatglm2_finetuning/assets/3400895/4c6aad70-9153-4181-a703-b054699787f4) 为啥会显存溢出呀

请问lora最低内存要多少,我使用ptuning可以正常运行,用lora就内存溢出

请问作者是否意愿实现qlora。

我实测下来,发现训练时候 chatglm 2 的显存占用比 1大很多,哥们你也是这个结论吗?

╭───────────────────── Traceback (most recent call last) ──────────────────────╮ │ /home/dev/project/chatglm2_finetuning/train.py:118 in │ │ │ │ 115 │ ) │ │ 116 │ │ │ 117 │ if train_datasets is not None:...