bkf

Results 6 comments of bkf

It seems that the fc layer of the moe type has not been implemented when i use hyper-parameters from transformer_moe, such as: transformer_moe_2k, ``` with following architecture: * No encoder....

http://www.sogou.com/labs/resource/cs.php 搜狗实验室里面的

好的 谢谢

若冰,有个地方有点困惑。 看了mid2name.txt,我发现实体的描述文本中不一定有entity name 。。。(比如第二个实体/m/0c94fn Gary_Rydstrom的description中没有Gary_Rydstrom),这样的话CNN文本训练出来不就是没有Gary_Rydstrom这个实体的词向量了吗?

这个问题应该是模型量化后存储路径的问题 args.py 里面有2个输出路径 output_dir 和 graph_file 如果自己更改了路径需要注意相对目录路径 当然你也可以不存储 让optimize_graph()直接输出量化后的计算图

sudo cp libdevice.10.bc libdevice.compute_20.10.bc export XLA_FLAGS="--xla_gpu_cuda_data_dir=/usr/local/cuda/"