Jing Leung

Results 30 comments of Jing Leung

> reconstructed_image = (reconstructed_image + synthesized).clamp(0,1) refine_bg = (torch.tanh(refine_bg) + synthesized).clamp(0,1) > > About above code,Idon't understand why add the input image, it is different about train and infer,i worry...

> 好的,非常感谢。我能明白y=f(x)+x的含义,但resnet似乎在中间层的feature map上进行的,在输出的地方进行我感觉非常奇特。看起来似乎是鼓励f(x)在非mask区域为0,而在mask区域鼓励f(x)+x变成接近附近非水印区域的像素值,可以这样理解吗? 鼓励 f(x)在带水印的输入图像的上 做出些许改动,接近去水印的原始图像:鼓励非mask区域不改原图,mask区域趋向于去水印的像素

> 另外我还有几个问题想向你请教: 1 pixel_loss += self.masked_l1_loss(pred_ims[-1], target, mask) recov_imgs = [ self.denorm(pred_im*mask + (1-mask)*self.norm(target)) for pred_im in pred_ims ] pixel_loss += sum([self.l1_loss(im,target) for im in recov_imgs]) * 1.5 我想知道为什么要这么做呢,前后pixel_loss的区别似乎是使用mask区域还是使用全图区域做l1 loss。我对这个的...

> GAN loss 是指还要训练一个判别器然后使用GAN loss吗? 是的,将这个去除网络作为G,然后在加一个D,使用GAN Loss

> 还想请教下,为什么没有考虑WDNet中彩色的mask,alpha*w等操作呢 1. 彩色mask即 alpha map,走alpha map估测的路线,至少需要估测alpha map,watermark,wateramrk-free image; 由公式 J = I * (1-alpha) + W * alpha 可知,从单一等式同时估测三个未知变量本身是个病态方程,每一个像素对应三个未知量,估测难度较大。 2. 对于简单的灰白水印,可以视全局图像的 alpha 为单一变量,此时估算的未知量只有wateramrk-free image,watermark,以及一个alpha 变量,此时走 alpha map 估测较为简单; 3....

> 谢谢你的回答,还有几个问题,想和你探讨一下 > > 1 有没有一些优化水印mask分割的方法呢,看起来去水印效果的好坏主要和mask的分割相关 2 据我的观察,二阶段网络有一定的去除水印的效果。但去掉它只使用一阶段的网络,似乎也能接受。主要的问题还是 有的水印mask无法被识别出来 3 mask分支位于网络的最前端,后面的网络都受其结果的影响和约束,但其本身是不受后面网络的影响和约束的,有没有办法能让后面的结果也能监督前面的mask分支呢 4 除去一些将水印框作为先验条件的方法,有没有先目标检测定位水印框再在该区域去除水印的方法呢 1. 可以看一下二分类分割的方法 2. 只要mask参与了后面的loss 计算,没有成为计算图的叶子节点,它是可以在反向传播的时候获得后面分支的监督信号的 3. 你可以试试用 yolo,mask-rcnn这些经典的方法

测试图片需要与训练图片尺寸一致,否则会有性能衰退;我们的预训练模型是在256x256图片训练的,所以测试时需要对齐;

长宽不一样需要自己设计好卷积核kernel_size/stride/padding,保证下采样的tensor高与宽能与上采样对应层的tensor对齐,因为我们的模型设计采用了类似UNet的跳跃链接结构

> 作者,您好,1000x1000 的图片,把参数改成1000,其他对应的mask,alpha都改成1000后,可以直接运行模型吗?还是需要更改里面相应的结构呢,盼回复,谢谢! 可以运行,需要注意resulotion 增长后带来的gpu开销问题,可能需要你自己减小batch size 或者裁剪网络

In this case, you can set only one optimizer for SLBR model since learning rates are same.