knowledge_distillation icon indicating copy to clipboard operation
knowledge_distillation copied to clipboard

蒸馏的效果没有直接用数据训练TextCNN的效果好?

Open czhxiaohuihui opened this issue 4 years ago • 2 comments

我在自己的数据集上试了一下,bert的效果大概是85%,textCNN是79%, 然后用蒸馏大概只有77.8%. 蒸馏相关的两个参数都是按照你代码里的: self.T = 10 # 调整温度 self.alpha = 0.9 # 调整soft_target loss 和 hard_target loss 比重

czhxiaohuihui avatar Oct 28 '21 08:10 czhxiaohuihui

我本地跑的textcnn模型效果是可以提升的 textcnn 模型90% Bert 95% 最终textcnn的效果接近bert

xxllp avatar Dec 22 '21 01:12 xxllp

调下参吧,我也是写了代码,没有训练测试过

murray-z avatar Jan 21 '22 09:01 murray-z