CSgaoan
CSgaoan
> 博主您好,本地bert-base-uncased预训练模型应该放在哪个路径下?需要修改什么吗?期待您的回复。 拙见如下:你将下载的模型放在temp_dir路径下,然后在train_abstractive.py和train_extractive.py的223行253行330行的(可能有几行偏差,将路径都改为绝对路径temp_dir) 再在文件的首部加上from others.tokenization import BertTokenizer 图片如下:  你还需要在model_builder.py文件做如何修改  就是路径问题,多改就好
> 博主您好,本地bert-base-uncased预训练模型应该放在哪个路径下?需要修改什么吗?期待您的回复。 拙见如下:你将下载的模型放在temp_dir路径下,然后在train_abstractive.py和train_extractive.py的223行253行330行的(可能有几行偏差,将路径都改为绝对路径temp_dir) 再在文件的首部加上from others.tokenization import BertTokenizer 图片如下:  你还需要在model_builder.py文件做如何修改  就是路径问题,多改就好
我也遇到相同的问题,有哪位大佬解决了可以提点一下吗
> 就是找不到40001 40002 400xx 这种的vocab,怎么解决呢,是自己生成一个新的词表就行是吗 请问一下,您解决了该问题没有
他的代码没有没有显示mleloss就代表结束了 | | huang4760 | | ***@***.*** | ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2023年09月08日 09:30 | | 收件人 | ***@***.***> | | 抄送至 |...
最主要的就是max-iter,这个数值乘batchsize就是你训练集的行数,我记得是209万行 | | huang4760 | | ***@***.*** | ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2023年09月08日 10:06 | | 收件人 | ***@***.***> | | 抄送至 |...
If you know how to solve this problem, I hope you will not hesitate to enlighten.
Thank you very much!
我也是一样,加载不了,网址请求拉去失败,有没有大佬解决了的