BERT-BiLSTM-CRF-NER
BERT-BiLSTM-CRF-NER copied to clipboard
你好,想请教一下,用Bert模型一般训练多少次就可以了呢
这个模型的bert是预训练已有的,直接funtuning,不需要自己训练
---原始邮件--- 发件人: "mingxixixi"<[email protected]> 发送时间: 2019年12月10日(周二) 晚上10:38 收件人: "macanv/BERT-BiLSTM-CRF-NER"<[email protected]>; 抄送: "Subscribed"<[email protected]>; 主题: [macanv/BERT-BiLSTM-CRF-NER] 你好,想请教一下,用Bert模型一般训练多少次就可以了呢 (#280)
— You are receiving this because you are subscribed to this thread. Reply to this email directly, view it on GitHub, or unsubscribe.
我的意思是用bert 做其他下游任务的时候,一般训练多少次就可以了😂------------------ 原始邮件 ------------------ 发件人: "albert-jin"[email protected] 发送时间: 2019年12月11日(星期三) 凌晨0:03 收件人: "macanv/BERT-BiLSTM-CRF-NER"[email protected]; 抄送: "mingxixixi"[email protected];"Author"[email protected]; 主题: Re: [macanv/BERT-BiLSTM-CRF-NER] 你好,想请教一下,用Bert模型一般训练多少次就可以了呢 (#280)
这个模型的bert是预训练已有的,直接funtuning,不需要自己训练
---原始邮件--- 发件人: "mingxixixi"<[email protected]> 发送时间: 2019年12月10日(周二) 晚上10:38 收件人: "macanv/BERT-BiLSTM-CRF-NER"<[email protected]>; 抄送: "Subscribed"<[email protected]>; 主题: [macanv/BERT-BiLSTM-CRF-NER] 你好,想请教一下,用Bert模型一般训练多少次就可以了呢 (#280)
— You are receiving this because you are subscribed to this thread. Reply to this email directly, view it on GitHub, or unsubscribe. — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
看loss吧,我一般,分类和序列标注任务,10次就结束了。如果work,就设置20次,最多的一次跑了100次,比20次提升不明显。