Zhangzq
Zhangzq
> > > https://hf-mirror.com/ > > > > > > 那分词器是也需要放在visualglm-6b文件夹下吗? > > 是的,全都需要,都需要提前准备好,并修改相应配置文件、代码中的路径 收到,把model_config.json里的tokenizer_type改成本地chatglm的路径就可以了~
请问这个问题解决了吗?
我也遇到了这个问题,finetune以后问普通的问题就不行了,回答会跟finetune的数据集一样
> 一样的问题呢,用ptuning后是不是只能处理训练得数据了 在同一次加载里面,输入同样的问题,输出相同;但是再加载一次,输入同样的问题,输出就和上一次不同了,好奇怪
> 生成的时候本来就是有随机性的。跟使用的随机数种子有关,而计算机的随机数种子一般是跟当前时间相关的。 但是我用evaluate.sh去跑,每次生成的回答都是相同的,我看了下代码,在运行cli-demo的时候调用的是stream_chat,然后在里面显式的对do_sample这个参数做了处理,为True的时候会做多项式采样。但是在evaluate.sh里,同样有传temperature和top_p,是这两个参数没有用吗?
> 您好,我想请教一下,我在ptuning模型之后,模型只能处理训练的数据,对其他问题无法做出正确的回答,我看您图片中的内容,模型对训练数据之外的问题也能做出较好的回答,请问您有做特殊的处理吗? 可以尝试把pre_seq_len这个参数调小一点,learning_rate也调小一点,并且我没有用量化
> 这个应该是bos token和eos token的问题,我改了一下就不会停不下来 最新版的模型好像也修改了,可以试试 同问一下,需要改成什么呀?