thinkingmanyangyang

Results 14 comments of thinkingmanyangyang
trafficstars

uer mixed corpus large ---原始邮件--- 发件人: "crazycv"

这个比赛是单分类任务 ---原始邮件--- 发件人: ***@***.***> 发送时间: 2021年4月8日(周四) 下午3:41 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [thinkingmanyangyang/smp-ewect-code] 请问用的是UER的哪一个初始化模型? (#1) logits = torch.softmax(logits, dim=-1) 请问一下既然是多分类任务,为什么这里使用的是softmax而不是sigmoid — You are receiving this because you commented. Reply...

roberta chinese base https://huggingface.co/clue/roberta_chinese_base roberta chinese large https://huggingface.co/clue/roberta_chinese_large

您好,我是直接加载的崔一鸣教授开源的roberta wwm ext的代码,并没有简化词表,因为开源的参数中word_embeddings这个参数的维度就是词表大小。

您好,是天池大数据的中医药问题生成任务,链接在这里,https://tianchi.aliyun.com/competition/entrance/531826/introduction ------------------ 原始邮件 ------------------ 发件人: "920232796/bert_seq2seq"

嗯嗯,也有可能是我运行的时候有些参数设置的不当,总之很感谢您开源的代码,也很感谢您在百忙之中回答我的问题,非常感谢。 ------------------ 原始邮件 ------------------ 发件人: "920232796/bert_seq2seq"

作者您好,关于unilm在预测的时候,每预测一句话,都要前向传播,预测句子长度次,速度很慢,请问您有没有什么好的加速办法,现在预测一次(4300+条数据),大概要等一个小时。(备注,我参照您的代码,和unilm的原理自己又实现了一下,现在已经有不错的准确率了。) ------------------ 原始邮件 ------------------ 发件人: "920232796/bert_seq2seq"

好的,谢谢您 ---原始邮件--- 发件人: "zhaohu xing"

您好,bert加crf的baseline能在排行榜拍多少呢 ---原始邮件--- 发件人: "zhaohu xing"