LSTM_Attention
LSTM_Attention copied to clipboard
AttentionDecoder 输入的time_step必须要和encoder的time_step一样?
您好,看了您的Git受益匪浅,有个小疑问:AttentionDecoder 输入的time_step必须要和encoder的time_step一样,那么AttentionDecoder 输出的time_step也就等于encoder的time_step,可是输入和输出的time_step数量一般情况下是不一样的啊?比如输入的是个问题,输出的是个答案,问题和答案的词数量一般都不一样。
我认为AttentionDecoder的输入和输出的time_step数量一般情况是一样的! 不然无法对输入进行加权和操作吧? 另外,你说问题和答案词向量不同,这个没有关系的,可以通过不同大小的权重矩阵W来合并