QANet_dureader icon indicating copy to clipboard operation
QANet_dureader copied to clipboard

QANet+DuReader中文机器阅读理解

Results 9 QANet_dureader issues
Sort by recently updated
recently updated
newest added

有人跑过全量数据吗?在多大内存的服务器跑的?花了多长时间?我64G的服务器跑不起来

运行代码,报错“cannot feed value of shape(16,400) for tensor ''context:0", which has shape(80,400)”

![2019-01-19 17 12 46](https://user-images.githubusercontent.com/33299522/51424766-83a08b00-1c0d-11e9-84aa-83a8b90fd49d.png) loss在某一部分数据变得异常大,最后导致验证集所有分数为0. 请问,是怎么产生的呢?

全量数据集训练完之后loss会特别大

这就能解释为什么100个test case的结果总会少,这个原因可以分析一下吗@SeanLee97

你好,发现predict,无法把所有数据完全预测,跟batch_size的倍数有关。如果无法满足batch_size倍数,无法完全预测

我想请问一下,这个基于中文的QAnet怎么处理这个char_embedding部分,不太理解