QANet_dureader
QANet_dureader copied to clipboard
QANet+DuReader中文机器阅读理解
有人跑过全量数据吗?在多大内存的服务器跑的?花了多长时间?我64G的服务器跑不起来
运行代码,报错“cannot feed value of shape(16,400) for tensor ''context:0", which has shape(80,400)”
 loss在某一部分数据变得异常大,最后导致验证集所有分数为0. 请问,是怎么产生的呢?
全量数据集训练完之后loss会特别大
这就能解释为什么100个test case的结果总会少,这个原因可以分析一下吗@SeanLee97
你好,发现predict,无法把所有数据完全预测,跟batch_size的倍数有关。如果无法满足batch_size倍数,无法完全预测
我想请问一下,这个基于中文的QAnet怎么处理这个char_embedding部分,不太理解