SPACES
SPACES copied to clipboard
seq2seq_model中设置了maxlen的截断是什么考虑?
seq2seq_model在输入nezha模型之前的tokenizer设置了最大的长度1024,请问一下这个是什么考虑。感觉很多文本都被截断了。