Yang Cheng
Yang Cheng
我用t5文件夹下的train.py训练的,可以用27万的那个sighan数据集..训练完以后再用t5_corrector.py 进行batch_t5_correct,batch的比较快..
加载的预训练模型是下面default里写的 Langboat/mengzi-t5-base parser.add_argument('--model_name_or_path', type=str, default='Langboat/mengzi-t5-base', help='pretrained model')
我运行也是这样
我也没获取到,ws_api.get_gzh_article_by_history('南航青年志愿者') 返回的article为空,各种get article相关的都是空。咋回事呀?
学习率设置多少合适呀?我这loss一直不降
谢谢,可是代码我没改呀,只有加载数据部分稍作改动。
输入输出都没问题,模型训练过程中每N个step输出一下test_data的结果,看着也还可以。我试了3个模型,gpt2、roberta、bart,都是loss越来越大。我再调调参数吧~谢谢啦
遇到同样问题!
可以呀,自己改代码呀。texts.plit('\n')
遇到同样的问题,改了.env,让MODEL_SERVER=http://127.0.0.1:8000/,还是不行。怎么回事呀? 