Jeffrey_Lee
Jeffrey_Lee
谢谢您~ 这个我用过啦 注音错误太多了哈哈哈 不得不手动搞词典
I think it can be replaced by follows: # _w = tf.transpose(_weighted, [1, 0, 2]) _ws = tf.split(_w, num_or_size_splits=3, axis=1) # make 3(f, z, o) conved_size x batch_size x size...
may be you can try graph_transforms toolkit `bazel build tensorflow/tools/graph_transforms:summarize_graph bazel-bin/tensorflow/tools/graph_transforms/summarize_graph --in_graph=my.pb`
Right, I get your point. But, why not remove the param **init** and just create one model, like this: ```python init_forward = model(x_init,keep_prob=0.5,deterministic=is_training, use_weight_normalization=use_weight_normalization, use_batch_normalization=use_batch_normalization, use_mean_only_batch_normalization=use_mean_only_batch_normalization) ``` Use variable **is_training**...
Besides, really appreciate your weight_norm code. I do not like the param init So I rewrite the weight_norm code into this: ```python def wn_conv1d(x, kernel_size, channels, scope, stride=1, pad='SAME', dilation=1,...
抱歉啊,这么晚 才恢复你。 要不是在群里有人提到了 我都不记得我有这个仓库了 你说的这个方法,当时由于各种原因没有尝试过 现在既然提起来了,我就抽空再重新写吧 不过我准备用TF写了。。
你是指 一些特定的多音字准确吧? 我没有这么衡量 我大概只选取了 80 个左右高频的多音字来训练模型 测试的时候衡量也是挑选了10%的数据来做的
抱歉啊,这么晚 才恢复你。 要不是在群里有人提到了 我都不记得我有这个仓库了 准确率 在我自己的10000条数据上有88%-89% 原论文使用的数据量更大,所以准确率也更高 确切的说,我这里的实现,和原论文的并不是完全一样