Guo Sheng
Guo Sheng
抱歉,这里文档描述的确实不太清楚,这里应该是默认行为是pad到batch中最长
也还请在 auto 中 加下 https://github.com/PaddlePaddle/PaddleNLP/blob/develop/paddlenlp/transformers/auto/modeling.py 以便通过Auto来调用
看CI里这个制品详情里只有一个,这个是否是符合预期的呢 @zjjlivein
请问下datasets下的文件可否使用像HF datasets中已有的呢,这些内容会有些多,可能导致repo会有些过大
感谢支持,后续如果开源的话会在这里进行同步~ 另外对于当前已开源模型的话,也可以试下将多轮的内容拼起来作为模型输入,tokenizer是可以接受list输入的 https://github.com/PaddlePaddle/PaddleNLP/blob/develop/paddlenlp/transformers/unified_transformer/tokenizer.py#L464 ,如PLATO-XL这里的用法 https://github.com/PaddlePaddle/PaddleNLP/blob/develop/model_zoo/plato-xl/infer.py#L144
> 都会在传入paddle.io.DataLoader的时候失败 请问这个报错是怎样的呢,另外之前有一个自建问答模型的数据集的issue #2770 可以参考下
麻烦试下Paddle 1.6版本的吧,里面这个的链接已经换掉了 https://github.com/PaddlePaddle/Paddle/blob/develop/python/paddle/dataset/wmt16.py#L50 另外Paddle 1.6版本下也推荐使用新的api 了,可以参考这里 https://github.com/PaddlePaddle/book/blob/for_paddle1.6/08.machine_translation/README.cn.md 。
请问使用原始代码与数据能跑通吗,我这边试了下原始代码与数据没有报错,麻烦检测下输入的数据类型,需要时`int_64`的,另外训练能跑通的话可否先试下使用训练数据进行预测
查找了下`_feed_impl_`这个方法 https://github.com/PaddlePaddle/Paddle/blob/develop/python/paddle/fluid/data_feeder.py#L69 ,其处在DataFeeder整个调用流程中,一般不会直接调用,传到这里的data会是单个样本某一输入slot(如图片、句子、标签),当调用`len(data)` 时对应了`lod_level != 0` 的情况,这种情况下表示序列输入(可参考 https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/user_guides/howto/basic_concept/lod_tensor.html ),data会是可迭代的。以机器翻译这里的使用代码为例 https://github.com/PaddlePaddle/book/blob/develop/08.machine_translation/train.py#L163 ,传到这里的data会是一个句子
请问使用的Paddle版本是什么