Yijia Liu
Yijia Liu
您好,您指的是training elmo;还是在downstream task里tune embedding呢? 如果是在downstream task中tune embedding,您可以使用编程接口中把model.eval()关掉。
> training elmo使用fine-tune 这个不是特别懂要做什么,能再解释一下吗? > 只能支持一个显卡 多卡用pytorch的torch.nn.DataParallel是可以实现的。你可以尝试改一下代码。
> 有新的语料更新进来能够再次训练模型 我们现在的training代码好像没有load model的部分,不过应该只要把testing的部分的load model代码拷贝过来,加一个load model的接口应该就可以了。
Sorry for late reply. Please refer this comment: https://github.com/HIT-SCIR/ELMoForManyLangs/issues/37#issuecomment-456243529
3.3.1之后打算采用maven构建。应该不存在类似问题了。
复现不出这个错误啊… 
看起来好像是没拉ltp,试试先 ``` git submodule init git submodule update ``` 再`mvn`
好像不是git clone的,所以实际ltp还是没拉下来。 建议 ``` git clone https://github.com/HIT-SCIR/ltp4j.git git checkout neoltp4j git submodule init git submodule update ``` 关于是否把ltp拉下来了,只要看src/main/c++/ltp文件夹里面有没文件就知道了。 另外,如果看到`Compiling 6 native files`这个肯定是不对的,正常需要compile 150+个文件。
@endyul neoltp4j是不是mac下不能编译?我记得之前好像说过这件事。
中间差一个cd ltp4j On Thu, 12 Jan 2017 at 6:20 PM Oliver Xu wrote: > @zxy00 请问报什么错? > > — > You are receiving this because you were mentioned. > Reply...