CPT icon indicating copy to clipboard operation
CPT copied to clipboard

CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation

Results 43 CPT issues
Sort by recently updated
recently updated
newest added

HTTPError: 401 Client Error: Unauthorized for url: https://huggingface.co/MODEL_NAME/resolve/main/vocab.txt 应该是因为访问网站时没输入相应的用户名与密码,但不知道该在哪里输入

比较奇怪为啥 article 中的是 [[x1,x2], [y1, y2]] 这样的字符串呢? 小白,看微调代码这里有点懵逼

基于CPT-Large模型finetune CPTForConditionalGeneration之后,预测出的结果跟输入一模一样。这是为什么呢?decoder的输出跟输入是一模一样的

我看fnlp/cpt-base里面config.json的max_position_embeddings写的1024,但实际上1024会报错,512没问题。 发现代码里用了BertModel当encoder,但是没设置对应的max_position_embeddings 手动改成1024会导致预训练参数加载不进来。 所以我的理解是config.json写错了,实际只支持512。希望能提供一版max_position_embeddings=1024的模型,和bart对齐一下

作者您好,请问CSL摘要数据集你们训练了多少epoch呢?我们复现时ROUGE指标差的有点多。可以提供下微调细节吗,万分感谢!

做生成任务时,将CPT换成bart后,在torch.embedding()时报错:index out of range in self

您好,非常感谢您的开源代码! 请问中文分词的数据需要处理成什么样子呢?从SIGHAN上下载的是txt格式的,但是代码里需要的是json格式,我也没有在README里找到样例数据。您可以提供一下处理好之后的数据,或者数据预处理的代码吗? 十分感谢~