ChatGLM-Finetuning
ChatGLM-Finetuning copied to clipboard
如何训练长文本数据
RT,现在的模型会把超出最长限度的文本截断,但是这在做文本摘要的时候可能出现标签(输出)的部分内容事实上对应的是被截断的文本。请问如何解决这一问题,即保留完整文本进行训练?
RT,现在的模型会把超出最长限度的文本截断,但是这在做文本摘要的时候可能出现标签(输出)的部分内容事实上对应的是被截断的文本。请问如何解决这一问题,即保留完整文本进行训练?