cingtiye

Results 8 comments of cingtiye

> 你好。 中文的plato-2是我自己收集网上数据集训练的。百度有开源中文的plato模型(12层和6层)。如果你只是想微调一下对话模型或者直接用现有的对话模型的话,你可以试试开源的[EVA2.0](https://github.com/thu-coai/EVA)

> > > > > > > > > 你好。 中文的plato-2是我自己收集网上数据集训练的。百度有开源中文的plato模型(12层和6层)。如果你只是想微调一下对话模型或者直接用现有的对话模型的话,你可以试试开源的[EVA2.0](https://github.com/thu-coai/EVA) > > 请问百度开源的12层plato预训练模型在哪里下载呢,只看到6层的plato-mini.。感觉这个模型有点小。所以,我才想尝试用大一点的plato模型,然后就来这里看plato-2。发现并没有开源中文版本,但是看到讨论好多人都将英文版本转换成中文版本了。 ![image](https://user-images.githubusercontent.com/32251546/178396458-4bdccd4f-a382-434f-b39b-4c0da3c2fde0.png) # 大规模数据预训练模型 wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2021/12L.pretrain.pdparams" # 对话比赛数据微调模型 wget "https://dialogue.bj.bcebos.com/Knover/projects/lic2021/12L.finetune.pdparams"

> > > > > > > > > > > > > > > > > 你好。 中文的plato-2是我自己收集网上数据集训练的。百度有开源中文的plato模型(12层和6层)。如果你只是想微调一下对话模型或者直接用现有的对话模型的话,你可以试试开源的[EVA2.0](https://github.com/thu-coai/EVA) > > > > > > > > > 请问百度开源的12层plato预训练模型在哪里下载呢,只看到6层的plato-mini.。感觉这个模型有点小。所以,我才想尝试用大一点的plato模型,然后就来这里看plato-2。发现并没有开源中文版本,但是看到讨论好多人都将英文版本转换成中文版本了。 >...

非常期待贵公司开源相关代码和模型 想请问一下下图的demo贵公司是否也会开源~ ![image](https://user-images.githubusercontent.com/32251546/180768423-c2d4b7d5-8ff0-47ff-8742-8ff47d9c17a1.png)

> > 同问,PanGu-Bot 目录一直都是空的,想问一下,是否可以提供一下能够开源的大概时间呢? @MiFei > > 预计本月底就可以哈 你好,已经八月初了~请问近期会开源吗?

> 感谢关注,近期模型和推理代码就会开源 你好 一眨眼2023年快要到来了 请问什么时候会开源呢~

> PersonaExtractor从首次对话中提取相关的个性化信息,但是我发现你们公开的数据中,没有一次对话的原文,取之而代的是已经提取好的个性化信息 你可以参考一下这个知乎理解一下PE的训练和用途: https://zhuanlan.zhihu.com/p/538792037

> 这个项目和那篇论文没啥关系,只是这个项目和论文中的“规则清洗”有重合的规则 请问哪个论文是BERT判断上下文是否相关?可以分享一下论文名字吗?