Short-Texts-Sentiment-Analyse icon indicating copy to clipboard operation
Short-Texts-Sentiment-Analyse copied to clipboard

error help

Open wangzhedaye opened this issue 6 years ago • 11 comments

TypeError: load_data() missing 1 required positional argument: 'data_dir'

wangzhedaye avatar Nov 18 '19 13:11 wangzhedaye

缺少了data_dir参数,应该输入./data/data.xlsx 就可以,根据你的路径自行调整这里,在ml和dl分类中忘了加入这个参数,你自己加进去就行

Zhangpeixiang avatar Nov 19 '19 06:11 Zhangpeixiang

在哪个函数下面加呢?可以写一下吗怎么加

wangzhedaye avatar Nov 19 '19 06:11 wangzhedaye

...就是在所有调用load_data的函数里加入'./data/data.xlsx'就可以了,我已经更新了,你可以update一下,应该可以运行...emmm建议先学一下基本的python语言哈~

Zhangpeixiang avatar Nov 19 '19 06:11 Zhangpeixiang

我也刚刚找到改好了。路径刚刚没搞对,尴尬了

wangzhedaye avatar Nov 19 '19 06:11 wangzhedaye

ok!好久没更新这个项目了,等过一阵我把bert放进来

Zhangpeixiang avatar Nov 19 '19 06:11 Zhangpeixiang

我自己用过早上用bert跑过分类,效果还不错,就是很吃显存 但是FileNotFoundError: [Errno 2] No such file or directory: 'D:/NLP/Tencent_AILab_ChineseEmbedding.txt',这儿你有上传腾讯的这个TXT么

wangzhedaye avatar Nov 19 '19 06:11 wangzhedaye

我网上找到了,好像有点大,我自己下载了,博主有空可以上传一下,方便其他人哈哈哈

wangzhedaye avatar Nov 19 '19 06:11 wangzhedaye

BERT的显存跟你设置的max_length有关,你显存小就设置的低些,不过我之前跑的时候,设置的最大512,batchsize设置了16还是8忘了,1060 6g的可以跑,那个腾讯的txt太大了没法传,你可以取网上下载,已经是开源了

Zhangpeixiang avatar Nov 19 '19 06:11 Zhangpeixiang

直接百度就可以了,hhhh,= =!,不行得去上班了,先溜一手

Zhangpeixiang avatar Nov 19 '19 06:11 Zhangpeixiang

我的是1080感觉还好,6.3G的文档的确有点大。楼主方便留给联系方式吗?渣硕以后求多多指教

wangzhedaye avatar Nov 19 '19 06:11 wangzhedaye

6.3G你还没解压缩吧。hhh,我记得好像解压缩后好像15G,直接打开16G内存感觉都卡卡的,我也是渣硕,多交流,互相进步,vx:yy327532820

Zhangpeixiang avatar Nov 19 '19 06:11 Zhangpeixiang