NLP-Tutorials icon indicating copy to clipboard operation
NLP-Tutorials copied to clipboard

關於GPT程式

Open tilly963963 opened this issue 3 years ago • 0 comments

您好~我想請問一下 1.模型輸入的seqs[:,:-1]是過去的一句話,而seqs[:,-1]是需要預測的真實值,但是如果句子沒有那麼長,之後會被padding與長度最長的句子數量相同,seqs[:,-1]不就都拿到padding值嗎~~ 2.若設計為每一批次以最長句子而非整個文本最長句子為該批次的step長度(時間長度),能解決上述問題嗎? 希望收到您的回覆!!!!!!!!!!!!!!!!!!!!謝謝

tilly963963 avatar Jun 03 '21 13:06 tilly963963