p11grim
p11grim
训练时验证集的准确率怎么样?
> > 训练时验证集的准确率怎么样? > > 我是训练完之后 导入那个生成的bert.ckpt文件,然后写了个代码让他为我预测了几个简单的新闻短句,每次的结果都会变,而且也不是很准 训练时精确度挺高的 90+的准确率 我没试过少量文本的预测,不太懂。 不过对于十几万条文本,它的整体预测效果还可以,估摸错误率在5-10%左右
数据集的问题吧,质量太差了,你自己再筛选一下,看看是不是特征太不明显。 我用的也是长文本,100-800都有,并且中英文混杂,最起码在测试集上效果还是可以的 precision recall f1-score support 3c-hardware 0.9207 0.9457 0.9331 479 cloud 1.0000 0.9703 0.9849 538 algo 0.9919 0.9871 0.9895 4866 ai 0.9375 0.9629 0.9500 997 accuracy 0.9794 6880 macro...
你把train(config, model, train_iter, dev_iter, test_iter)注释掉,换成test(config, model, 你需要的测试集)不就好了
> 如果最后的结果只有总体的准确率,F1分数等等,那我训练他进行具体文本分类的意义在哪里? 其实你自己写一下就行了,在train_eval.py文件的evaluate函数里面,那个叫predict_all的list实际上就是在测试集上预测的分类标签。你训练完了之后把run.py最后一行train(config, model, train_iter, dev_iter, test_iter)注释掉,换成test函数去对你需要做预测的数据进行推理就可以
> 同问 issue 72和70有人给了,不过看起来不太能做大规模的推理。在train_eval.py文件的evaluate函数里面,那个叫predict_all的list实际上就是在测试集上预测的分类标签,自己根据需求去使用就好。
same question, waiting