msn321
msn321
Hello,running clean / test / valid_ result.py ,whether you are running out of memory? Thanks.
@jovian-2wang Hello,what are the results of running train_data_preprocess.py and valid_data_preprocess.py? I feel my fault.Thank you.
@Deep-imagelab Hello, when I was running main.py file, I encountered the following problem. I searched for information and tried several solutions, but failed to run it successfully. Do you know...
I know, I follow your README, but can't
好的,谢谢。 ------------------ 原始邮件 ------------------ 发件人: "Deep-imagelab/AWAN" ***@***.***>; 发送时间: 2022年10月1日(星期六) 下午4:43 ***@***.***>; ***@***.******@***.***>; 主题: Re: [Deep-imagelab/AWAN] Train data (#2) 我把数据传好了,有效期是30天,你们可以尽快下载下。 链接:https://pan.baidu.com/s/1BjvPWlXbjGxmuUZmH5tnGw 提取码:2022 在 2022-09-30 15:02:45,"img_wcx1120" ***@***.***> 写道: 这个比赛说明写了,只有注册成为参赛者(审核通过需要1-2天),才能获取数据,你们可以看看。 我这边不太确定我能不能传数据到网盘(不知道会不会侵权啥的),这个数据集本身也很大,有20多G,我这两天可以先传一下,到时候我可能只敢开放有限的时间供你们下载,就担心侵权啥的。 在 2022-09-30 11:44:18,"JackWhite-rwx" ***@***.***> 写道: 您可以在“https://competitions.codalab.org/competitions/22225”链接的参与选项卡中获取它。...
Ok.Thanks very much.
因为高光谱数据的取值范围是[0,1],(targ + 1e-8),加上极小值1e-8,是为了防止分母为0的情况。 ------------------ 原始邮件 ------------------ 发件人: "akashpalrecha/hyperspectral-reconstruction" ***@***.***>; 发送时间: 2021年11月19日(星期五) 晚上11:53 ***@***.***>; ***@***.******@***.***>; 主题: Re: [akashpalrecha/hyperspectral-reconstruction] [Pytorch+fastai]Code problem (#1) In util.py: def MRAE(pred:Tensor, targ:Tensor)->Rank0Tensor: "Mean Relative Absolute Error between `pred` and `targ`" pred,...
@EternalHXP 您好,请问您的这个问题解决了吗?是怎么解决的?
@bubbliiiing 好的,谢谢。
我后来训练网络的时候没有直接使用MST++的源代码,而是仅用了MST++的网络结构,放在了我的代码框架下训练的。 你也可以试着改一下MST++的源代码,我记得好像是因为加载数据的那里会导致电脑内存不够用 ------------------ 原始邮件 ------------------ 发件人: "Deep-imagelab/AWAN" ***@***.***>; 发送时间: 2022年11月28日(星期一) 下午2:25 ***@***.***>; ***@***.******@***.***>; 主题: Re: [Deep-imagelab/AWAN] Train data (#2) @Deep-imagelab 感谢大佬。再冒昧问一下,我看见你在MST++下评论无法跑出作者论文公布的结果,我在2080TI上也没有跑出额,请问后续大佬在版本更改后跑出作者论文结果了吗? — Reply to this email directly, view it on GitHub, or unsubscribe. You...