Yanfu Xu
Yanfu Xu
您好,我只是用Tensoflow复现了原始作者的工作。 我认为原始作者的思想是利用强化学习在训练阶段选择更好的数据进行训练,这样得到的模型在测试阶段会有更好的效果。数据筛选的过程只是发生训练阶段,测试阶段不需要。
嗯嗯,确实是这样,没有进行过滤。会有一部分entity pair是重复的。
To fit the parameters' updating rule in the algorithm 2 of the paper: para_old = update_rate* para_new + (1-update_rate)* para_old
get_action函数中,会通过np.random.rand()随机的进行采样,所以三次结果的action是不一样的。
您好,虽然这篇文章的方法可以做到sentence-level. 但是关于远程监督的关系抽取数据集,之前的评测方式都是bag-level. 第一,主要是方便跟之前的工作进行比较。第二基于远程监督的假设,不能保证句子级别的标注都是正确的。
我应该也进行排序啦,在test.py的126行。
您好,测试的代码确实存在一些问题,类似于 #27 ,您说的这个问题我会再看看,但是很长时间没看过这个项目了。
get_action是根据概率采样。deicde_action是贪心的选择概率较大的。
不好意思,最近已经很久没有看过这个项目的代码了,抱歉帮不上什么忙。
You could download the data from https://github.com/thunlp/NRE/blob/master/data.zip