你好,我按照你的步骤运行python run.py --data_url='../datasets/garbage_classify/train_data' --train_url='./model_snapshots' --deploy_script_path='./deploy_scripts',已经cd到run.py的目录
你好,我按照你的步骤运行python run.py --data_url='../datasets/garbage_classify/train_data' --train_url='./model_snapshots' --deploy_script_path='./deploy_scripts',已经cd到run.py的目录,运行结果提示: File "run.py", line 68, in check_args raise Exception('FLAGS.data_url: %s is not exist' % FLAGS.data_url) Exception: FLAGS.data_url: './garbage_classify/train_data' is not exist 可是这个训练集是在这个目录,请问要怎么解决
@angenta 你好 './garbage_classify/train_data' 和 '../datasets/garbage_classify/train_data' 要对应哟,一个一个点. 一个是两个点.. 不一样的哈
我也遇到了一样的问题,而且../datasets和./datasets都提示is not exist的Exception,训练集也在当前目录下,请问要怎么解决
我也没解决。。。
------------------ 原始邮件 ------------------ 发件人: "poopit"[email protected]; 发送时间: 2019年10月15日(星期二) 晚上9:31 收件人: "wusaifei/garbage_classify"[email protected]; 抄送: "杜志辉"[email protected];"Mention"[email protected]; 主题: Re: [wusaifei/garbage_classify] 你好,我按照你的步骤运行python run.py --data_url='../datasets/garbage_classify/train_data' --train_url='./model_snapshots' --deploy_script_path='./deploy_scripts',已经cd到run.py的目录 (#6)
我也遇到了一样的问题,而且../datasets和./datasets都提示is not exist的Exception,训练集也在当前目录下,请问要怎么解决
— You are receiving this because you were mentioned. Reply to this email directly, view it on GitHub, or unsubscribe.
@poopit @angenta 啊!不会吧 其他的人就可以直接用我的跑通呢。。对了 你们的datasets放的路径对嘛?..表示上一级目录的文件夹 .表示同级目录的文件夹。或者是dataset加没有加s呢。希望这个可以帮助你们
我刚试了把单引号改成双引号就没问题了,请问作者知道conda如何安装keras_efficientnets吗,我直接conda install失败了
我把Save_path.py改成只得到图像的位置信息,如果Save_path.py文件夹是扩充数据集运行mean_std.py会报错,如果是原来的数据集就不会报错
我刚试了把单引号改成双引号就没问题了,请问作者知道conda如何安装keras_efficientnets吗,我直接conda install失败了
你是改了哪里的单引号啊,安装失败可以换成清华源的,下载会比较快
我刚试了把单引号改成双引号就没问题了,请问作者知道conda如何安装keras_efficientnets吗,我直接conda install失败了
你是改了哪里的单引号啊,安装失败可以换成清华源的,下载会比较快
好了,知道了
@
我刚试了把单引号改成双引号就没问题了,请问作者知道conda如何安装keras_efficientnets吗,我直接conda install失败了
如果安装不了,可以直接在github上面把他下载下来哈,然后在本地进行读取。或者换成其他的源
我把Save_path.py改成只得到图像的位置信息,如果Save_path.py文件夹是扩充数据集运行mean_std.py会报错,如果是原来的数据集就不会报错
你好扩充数据集只是一部分呢,和你原来的操作是一样的。它就相当于读取每一个图像的位置信息,然后把它读取出来求得mean和std。图片中可能存在一些读不了的图片,可以手动删除一下哈
@angenta @poopit 可能是那个引号是中文版的,改过来就行啦。
我把Save_path.py改成只得到图像的位置信息,如果Save_path.py文件夹是扩充数据集运行mean_std.py会报错,如果是原来的数据集就不会报错
你好扩充数据集只是一部分呢,和你原来的操作是一样的。它就相当于读取每一个图像的位置信息,然后把它读取出来求得mean和std。图片中可能存在一些读不了的图片,可以手动删除一下哈
好的,谢谢了
请问一下是必须在linux环境下运行么?能不能在windows下呢?
你想在什么系统上运行都行啊
------------------ 原始邮件 ------------------ 发件人: "AlexanderNevada"<[email protected]>; 发送时间: 2019年10月29日(星期二) 下午3:27 收件人: "wusaifei/garbage_classify"<[email protected]>; 抄送: "萝卜北"<[email protected]>;"Comment"<[email protected]>; 主题: Re: [wusaifei/garbage_classify] 你好,我按照你的步骤运行python run.py --data_url='../datasets/garbage_classify/train_data' --train_url='./model_snapshots' --deploy_script_path='./deploy_scripts',已经cd到run.py的目录 (#6)
请问一下是必须在linux环境下运行么?能不能在windows下呢?
— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
那请问tensorflow 是 tensorflow_gpu 1.13.1 还是cpu版的呢
那请问tensorflow 是 tensorflow_gpu 1.13.1 还是cpu版的呢
gpu版本运行比较快