ChatGLM-Finetuning icon indicating copy to clipboard operation
ChatGLM-Finetuning copied to clipboard

基于ChatGLM-6B、ChatGLM2-6B、ChatGLM3-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning、全参微调等

Results 67 ChatGLM-Finetuning issues
Sort by recently updated
recently updated
newest added

当prefix_projection为True时,为P-Tuning-V2方法,在大模型的Embedding和每一层前都加上新的参数;为False时,为P-Tuning方法,仅在大模型的Embedding上新的参数。 这句话不对吧?这个参数prefix_projection并不是控制是ptuning还是ptuning v2的吧? @liucongg @ZhishanQ

您好,数据集是对话,还有说话者的画像信息,比如人物背景什么的,怎么把这些信息和对话内容整合,也就是怎么构造Input和Label,达到个性化对话的目的呢

请问是只有freeze模型没出现灾难性遗忘现象还是,ptuning和lora都没有出现? 为什么我用官方的微调代码训练广告生成的数据,再用来测试常识性问题,回答结果都是错的并和广告内容有关

您好,请问您训练的时候有尝试原作里的quantize(4)量化吗

您好,加载模型是提示找不到 pytorch_model-00002-of-00008.bin,提供的百度网盘也没有看到这个文件 ![image](https://github.com/liucongg/ChatGLM-Finetuning/assets/32793429/f6624c8e-f452-4d60-a285-7182b27ce1c1)