liuye123321
liuye123321
在DAD数据集上,我们确实只用了trans作监督,也就是说decoder只有两个分支,一个预测J,一个预测T。对DAD而言,我们没有使用 Supervised Loss。Transmission Loss 用于第二阶段的Consistency Loss 发件人:Trouble_in ***@***.***> 发送日期:2022-03-25 07:58:23 收件人:liuye123321/DMT-Net ***@***.***> 抄送人:Subscribed ***@***.***> 主题:Re: [liuye123321/DMT-Net] 关于DAD数据集的设置 (Issue #4) elif is_jpg_file(input_path): AB = cv2.imread(input_path).astype("float") / 255.0 haze_image, GT = get_patch_da(AB,...
您好,trans和depth之间是有一个计算公式的。有了depth,就可以就算出来trans。我们文章中给了引文了,可以去引文看一下。 发件人:Trouble_in ***@***.***> 发送日期:2022-03-24 15:21:26 收件人:liuye123321/DMT-Net ***@***.***> 抄送人:Subscribed ***@***.***> 主题:Re: [liuye123321/DMT-Net] 关于DAD数据集的设置 (Issue #4) 您好,我对这个问题也有些困惑,这个DAD6000张图像的transmission map怎么从原数据集中获取的呢? — Reply to this email directly, view it on GitHub, or unsubscribe. You are...