ChatGLM-Finetuning
ChatGLM-Finetuning copied to clipboard
基于ChatGLM-6B、ChatGLM2-6B、ChatGLM3-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning、全参微调等
当prefix_projection为True时,为P-Tuning-V2方法,在大模型的Embedding和每一层前都加上新的参数;为False时,为P-Tuning方法,仅在大模型的Embedding上新的参数。 这句话不对吧?这个参数prefix_projection并不是控制是ptuning还是ptuning v2的吧? @liucongg @ZhishanQ
您好,数据集是对话,还有说话者的画像信息,比如人物背景什么的,怎么把这些信息和对话内容整合,也就是怎么构造Input和Label,达到个性化对话的目的呢
灾难性遗忘现象
请问是只有freeze模型没出现灾难性遗忘现象还是,ptuning和lora都没有出现? 为什么我用官方的微调代码训练广告生成的数据,再用来测试常识性问题,回答结果都是错的并和广告内容有关
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 128.00 MiB (GPU 0; 44.99 GiB total capacity; 6.15 GiB already allocated; 37.32 GiB free; 6.15 GiB reserved in total by PyTorch)...
int4量化
您好,请问您训练的时候有尝试原作里的quantize(4)量化吗
预训练模型缺失
您好,加载模型是提示找不到 pytorch_model-00002-of-00008.bin,提供的百度网盘也没有看到这个文件 ![image](https://github.com/liucongg/ChatGLM-Finetuning/assets/32793429/f6624c8e-f452-4d60-a285-7182b27ce1c1)