Dr. Artificial曾小健

Results 54 comments of Dr. Artificial曾小健

我也差不多,输出0 或者无意义的字符,一直输出。无法停止

> > > rank32 学习率1e-3 epoch20~30可以解决问题 > > > > > > 借了大佬的参数,感觉还是不行,特别是回答数据比较短的时候,特别明显啊。各位大佬可有建议? > > 更新代码版本了吗? 您是说更新 ChatGLM2 的官方代码吗

> > rank32 学习率1e-3 epoch20~30可以解决问题 > > 借了大佬的参数,感觉还是不行,特别是回答数据比较短的时候,特别明显啊。各位大佬可有建议? 现在解决了吗

这个问题我也有,没有人解决吗

我也不断出现重复词。直到把输出占满。无法终止。

> > > > > > > > > 更新了,这个改掉了。 ![image](https://user-images.githubusercontent.com/31723852/249967047-799d6389-05ba-426c-bbf5-395937df2b80.png) ![image](https://user-images.githubusercontent.com/31723852/249967205-2d33dca5-022d-47d3-be91-a5e34fdf4b6c.png) 但是,好奇怪,pad给的是unk,感觉预训练阶段没有pad这个token? > > 我自己在special token里面加上了pad,微调之后不会出现停不下来的情况,但是训练时loss一个epoch之后会上升 ![image](https://user-images.githubusercontent.com/51474616/249974698-3d2c1ce1-9941-40b8-bb32-47ea1e21b84d.png) 代码里面attention mask和position id的产生逻辑和glm1不一样了,我改了一下可能还是有点问题 这个具体怎么操作啊。怎么在special token里面加上pad

--quantization_bit 4 据说量化能解决此问题。但加上之后,不加 都还是有循环输出的问题。

> 这个应该是bos token和eos token的问题,我改了一下就不会停不下来 最新版的模型好像也修改了,可以试试 请教一下改成什么鸭