clip-pytorch
clip-pytorch copied to clipboard
训练时,遇到错误' RuntimeError(f"Input {texts[i]} is too long for context length {context_length}")'
感谢你的工作,在我训练flickr30k时,总是在中间中断,并报上述错误,想请问您是否有什么需要修改的或者一些别的建议能给到我。多有打扰,感谢!
额,太长了呀,估计要padding限制一下
不好意思,想具体请教一下,我是否可以将 tokenize(_tokenizer, texts: Union[str, List[str]], context_length: int = 77, truncate: bool = False) -> Union[torch.IntTensor, torch.LongTensor]: 中的 truncate设置为True来解决?
啊对对,我写错了……是阶段
截断
感谢你的回答,通过你的回答,我解决了这个问题,非常感谢!
我在训练的时候,出现了一个现象,就是越训练效果越差反而最好的参数是在epoch1,不知道您有没有出现这种情况?我训练时调整了batchsize会不会跟这个有关系?不知道您有没有什么建议?我猜测是过拟合了,现调小了学习率,但看目前训练的效果,感觉并没有解决。
额,是过拟合不好解决的
额,是过拟合不好解决的