Aron
Aron
hi. 我这个还没写完哈,最近比较忙。如果有兴趣可以一起完善~ 你写DL工具是商用还是自己玩呢? 2017-08-03 15:55 GMT+08:00 zhangying0127 : > Hello, i am trying to write the tools for DL and taking your code as > reference. > > so your...
I am really aprreciate your comments about these raw codes,I will do my best to improve it. Thanks a lot :)
你好,wordseg依赖了layers里的.o,需要在layers里先make哈~ 另外CrossEntropyLoss是针对非序列样本的,RNN的话需要用SeqCrossEntropyLossLayer哈~ 样例数据在example下的readme.md里给出了,可以下载试试~
382 7 84 385 625 915 191 108;2 3 0 2 0 2 0 2 ;前面的是word_id,后面的 是标注id(分词用的是bems形式). 我这个语料是处理成了每8个为一个序列~ 生成的文件名可以改makefile哈. 目前运行速度略慢,但是效果还可以,你可以看下收敛情况哈~
嗯,数据集是来自人民日报的语料,运行时间是正常的~ 你可以把最大epoch调小点。之后会加入模型快照功能:一定epoch之后自动保存模型~ 你是在mac上跑的? 另外网络结构你也可以试着调整下,现在代码里是为了测试搞的三层双向RNN(bigru+bilstm+birnn)。
是 ,样本shuffle效果会更好点,我之前是有的,后来整理的时候又删掉了. 在 2017年8月7日 上午11:14,sw 写道: > 恩,我在mac上跑的,双向rnn还没看,不太懂,我再跑一遍看看。 有一个问题哈,数据集的文件名是train_text.seg. > 10w,但是好像才有一万条数据,是不是命名有问题哈。还有就是每个epoch样本的顺序都是确定的,我记得打乱顺序最好,请问这个有计划吗 > > — > You are receiving this because you commented. > Reply to this email directly, view it...