WangZeJun

Results 62 comments of WangZeJun

> 那行代码是意义,你可以搜关键字替换 > CUBLAS_TENSOR_OP_MATH -> CUBLAS_DEFAULT_MATH > 既然turbo和torch一样,那和tf的差异就是框架的原因的。 turbo和torch的精度差异和tensorflow类似哈

我用的是bert_model_example.cpp,上面这个差异在0.01以内

> 你的意思是不是: > bert_model_example.cpp 差异很大 > bert_example.py 差异可以接受? 不是,turbo的python版本我没装起来。我意思是bert_model_example.cpp 差异在0.01以内

> 你用了自己的数据,然后发现差异很大?你都用的是统一版本的bert-base-uncased? 我使用turbo_transformers的python api,发现当seq_length为128的时候,每次推理出来的结果都不一样,问一下这个是什么情况?

> > > 你用了自己的数据,然后发现差异很大?你都用的是统一版本的bert-base-uncased? > > > > > > 我使用turbo_transformers的python api,发现当seq_length为128的时候,每次推理出来的结果都不一样,问一下这个是什么情况? > > 根据你对现象的描述,我猜测一个合理的解释是,你的网络中某些层的参数没有加载,是随机的。 #turbo_transformers.set_num_threads(4) 注释掉这个后正常了

> > > > > 你用了自己的数据,然后发现差异很大?你都用的是统一版本的bert-base-uncased? > > > > > > > > > > > > 我使用turbo_transformers的python api,发现当seq_length为128的时候,每次推理出来的结果都不一样,问一下这个是什么情况? > > > > > > > > > 根据你对现象的描述,我猜测一个合理的解释是,你的网络中某些层的参数没有加载,是随机的。...

你好,问一下,我看 README 里面说,微调 NER 模型时需要使用如下 MSRA 的格式与标签集: 札 B-NS 幌 E-NS 雪 O 国 O 庙 O 会 O 。 O 主 O 道 O 上 O 的 O 雪...

> 应该是我用的数据集预处理的形式不一样,但是也都是一一对应的: NT -> ORG NS -> LOC NR -> PER 所以微调 NER 时,应该使用 B-M-E-S-O 标注的 NT/NS/NR 输入格式,而不是 MSRA 的 B-I-O 格式吗? 札 B-NS 幌 E-NS 雪 O 国 O...

这个特征文件有问题啊,使用这个特征文件计算出来的“田”和“由”相似度: For character pair (由, 田): v-sim = 0.33333333333333337 p-sim = 0.09 使用作者提供的 char_meta.txt 部分数据计算得到: For character pair (由, 田): v-sim = 0.8888888888888888 p-sim = 0.09 是不是 stroke-level IDS 哪里出问题了啊?

> 这个特征文件有问题啊,使用这个特征文件计算出来的“田”和“由”相似度: > > For character pair (由, 田): v-sim = 0.33333333333333337 p-sim = 0.09 > > 使用作者提供的 char_meta.txt 部分数据计算得到: For character pair (由, 田): v-sim = 0.8888888888888888 p-sim =...