Aurelius84

Results 10 comments of Aurelius84

> 现在实现OK,但是还是希望能够有更好的办法隐藏LazyInit调用。 如昨天讨论,暂时还没有比较好的方式能够实现概念的完全隐藏

what's the difference between 0.3.0 and this version (https://github.com/lidalei/JFastText) ? I just met "wrong file format" when I train model with fasttext from Facebook command and load model using JFastText==0.3.0...

报错提示是说,在组网生成program时,调用 stack接口时,输入的Tensor的shape是:[7, -1]和[-1, 7],shape不匹配。请问您paddlenlp使用的是哪个版本,我们复现下。

感谢反馈,我们会优化一下这个点击链接。您可以使用这个`http://paddlemodels.bj.bcebos.com/PyramidBox_WiderFace.tar.gz`来下载

您好,models下DeepVoice3已经移动到了 [PaddlePaddle/Parakeet](https://github.com/PaddlePaddle/Parakeet/tree/develop/examples/deepvoice3),此仓库下DeepVoice3将被移除,请参考新目录下模型训练代码。

### 一些思路 `paddle.jit.not_to_static` 的实现原理是:会给被装饰的函数动态添加一个`CONVERSION_OPTIONS` 的属性,然后在动转静触发代码AST转写的`convert_call` 函数里的`convert_to_static` 模块里优先判断一个 function/method 对象是否有`CONVERSION_OPTIONS` 属性,如果有,则直接返回,不做AST Transformer。 此Task的目的是通过额外的一些标记手段(比如扩展`CONVERSION_OPTIONS`),以保证在`convert_call`函数里,仅不对当前被装饰的函数做AST Transformer,但内层调用的其他函数依旧进行AST Transformer,即`@not_to_static` 仅生效在当前函数,忽略内层函数调用。

除了PPOConfig之外,DPOConig, KTOConfig等也与trl==0.12.1 差别较大。另外 https://github.com/hiyouga/LLaMA-Factory/blob/main/src/llamafactory/train/dpo/trainer.py#L81 这里为什么是Trainer.__init__(self, model=model, **kwargs),为什么不是DPOTrainer.__init__(...), 只使用Trainer.__init__不会导致DPOTrainer的特有的成员未初始化么?