Shen Hao
Shen Hao
我想问的是chatglm1的chat函数,他的user字段为:"[Round {{idx}}]\n\n问:{{content}}\n\n答:",在进行tokenizer(input)后,在结尾加上[gMASK]和sop。我想用自己的tokenizer函数,是否可以encode为[gMASK]+sop+input的形式。[gMASK]为生成模型的标志,sop为开始的标志。 - 对于chatglm3我知道需要{{content}}字段,同样的问题,我应该选择是[gMASK]+sop+{{content}}还是{{content}}[gMASK]+sop 
你好,这边比较确定了,对于chatglm-6b而言,应该是input+[gMASK]+sop的形式,而不是[gMASK]+sop+input。请问为什么两者的输出结果会如此不同。 