David-Lee-1990

Results 33 comments of David-Lee-1990

比如现在非常不清楚如何通过cfg来配置lr_scheduler,没有看到任何详细的文档说明,只有代码示例。

嗯嗯,注意到了这个,但是这里面没有详细的参数说明,比如都可以配置哪些?这里只有 StepLR。如果想配置Linear,该怎么办

Thanks for replying. Recently, our group is interested in QAs on structured docs like your DocQN. Please let us know if the leaderboard for TriviaQA-NoP is created.

哦哦,好的,我照您的做法试下,谢啦

您好,我试了下,8卡的确可以跑起来,但是如果是4卡的话,就跑不起来。请问,是哪里设定的必须用8张卡呢? 此外,想运行以下的pipeline 的例子,是什么命令呢?也是 deepspeed --num_gpus=8 --num_nodes=1 吗? from modelscope.pipelines import pipeline from modelscope.utils.constant import Tasks if __name__ == '__main__': input = '段誉轻挥折扇,摇了摇头,说道:“你师父是你的师父,你师父可不是我的师父。"' model_id = 'damo/nlp_plug_text-generation_27B' pipe = pipeline(Tasks.text_generation, model=model_id) pipe.models...

嗯嗯,我这边是带tgt_txt的,但是也想用ppl作为评测指标。请教一下,一般不这么做,是吗?

嗯嗯,这个是用来设定early stop的,不过由于Trainer代码中,if self._stop_training 只有在一个epoch运行结束之后,才会终止训练,因此,还是达不到在 iteration 级别进行early stop, 不知道我理解的对不对~