CSgaoan

Results 9 comments of CSgaoan

> 博主您好,本地bert-base-uncased预训练模型应该放在哪个路径下?需要修改什么吗?期待您的回复。 拙见如下:你将下载的模型放在temp_dir路径下,然后在train_abstractive.py和train_extractive.py的223行253行330行的(可能有几行偏差,将路径都改为绝对路径temp_dir) 再在文件的首部加上from others.tokenization import BertTokenizer 图片如下: ![image](https://github.com/nlpyang/PreSumm/assets/113345144/e4666ad9-89ee-48d1-8d91-eecb54a5832b) 你还需要在model_builder.py文件做如何修改 ![image](https://github.com/nlpyang/PreSumm/assets/113345144/1d082e55-e835-49e3-ab92-dde83646d3ef) 就是路径问题,多改就好

> 博主您好,本地bert-base-uncased预训练模型应该放在哪个路径下?需要修改什么吗?期待您的回复。 拙见如下:你将下载的模型放在temp_dir路径下,然后在train_abstractive.py和train_extractive.py的223行253行330行的(可能有几行偏差,将路径都改为绝对路径temp_dir) 再在文件的首部加上from others.tokenization import BertTokenizer 图片如下: ![image](https://github.com/nlpyang/PreSumm/assets/113345144/e4666ad9-89ee-48d1-8d91-eecb54a5832b) 你还需要在model_builder.py文件做如何修改 ![image](https://github.com/nlpyang/PreSumm/assets/113345144/1d082e55-e835-49e3-ab92-dde83646d3ef) 就是路径问题,多改就好

> 就是找不到40001 40002 400xx 这种的vocab,怎么解决呢,是自己生成一个新的词表就行是吗 请问一下,您解决了该问题没有

他的代码没有没有显示mleloss就代表结束了 | | huang4760 | | ***@***.*** | ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2023年09月08日 09:30 | | 收件人 | ***@***.***> | | 抄送至 |...

最主要的就是max-iter,这个数值乘batchsize就是你训练集的行数,我记得是209万行 | | huang4760 | | ***@***.*** | ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2023年09月08日 10:06 | | 收件人 | ***@***.***> | | 抄送至 |...

我也是一样,加载不了,网址请求拉去失败,有没有大佬解决了的