chatglm2_finetuning
chatglm2_finetuning copied to clipboard
chatglm2 6b finetuning and alpaca finetuning
如题,我在train.py的pl_model = MyTransformer(**transformer_args)后面尝试加上 from deep_training.nlp.models.petl.lora.petl_model import PetlModel PetlModel.from_pretrained(pl_model.backbone, os.path.join(output_weight_dir, "last")) 报错了。
我只是修改了constant_map.py最后为train_model_config = train_info_models['chatglm2-6b-32k-int4'] 'chatglm2-6b-32k-int4': { 'model_type': 'chatglm2', 'model_name_or_path': '/data/ChatGLM/pre_model/chatglm2-6b-32k-int4', 'config_name': '/data/ChatGLM/pre_model/chatglm2-6b-32k-int4/config.json', 'tokenizer_name': '/data/ChatGLM/pre_model/chatglm2-6b-32k-int4', }, 相关配置是这样的。 最后报错:AssertionError: quantization ptv2 not support
测试过程: 仅修改了 sft_config_lora.py文件的数据路径,数据格式同demo数据格式一致,还有就是修改了batch_size和epoch 微调后生成的文件:    针对140条内部数据测试了10个epoch,最终结果是一点效果都没有... 不知道我的步骤是不是出了什么问题?还是那个配置文件没有修改?
训练命令如下: CUDA_VISIBLE_DEVICES=0,1 python train.py 报错信息如下: ╭───────────────────── Traceback (most recent call last) ──────────────────────╮ │ /chatglm2-dev/train.py:122 in │ │ │ │ 119 │ ) │ │ 120 │ │ │ 121 │...
训练的时候我想使用多卡加载模型,可以吗?
 为啥会显存溢出呀
请问lora最低内存要多少,我使用ptuning可以正常运行,用lora就内存溢出
请问作者是否意愿实现qlora。
我实测下来,发现训练时候 chatglm 2 的显存占用比 1大很多,哥们你也是这个结论吗?
╭───────────────────── Traceback (most recent call last) ──────────────────────╮ │ /home/dev/project/chatglm2_finetuning/train.py:118 in │ │ │ │ 115 │ ) │ │ 116 │ │ │ 117 │ if train_datasets is not None:...