LeiXu
LeiXu
> 您好,合成退化数据这里我综合了RealESRGAN跟BSRGAN,训练流程先用L1 + 0.05*FFT Loss预训练再用GAN训练。 你好,大佬 ,又来咨询一下里。关于real_SAFMN的训练。我注意到您再用了与Real-ESRGAN相同的训练方式,但是在Real-ESRGAN源码中,两个训练阶段里都使用了MultiStepLR作为学习率调度器,但是在MultiStepLR的具体参数设置时,其中milestones直接等于total_iter(在Real-ESRGAN的两个阶段都是这样设置的),按照MultiStepLR的原理,那么整个训练过程中,学习率都是不变化的,这让我很疑惑。所以想咨询下,在您的训练real_SAFMN的过程中,使用的什么学习率调度器,学习率又是如何变化的?
> Do you know how to solve this problem? I have tried many methods with no solution. “https://huggingface.co/breezedeus/cnstd-cnocr-models/tree/main/models/cnstd/1.2”这个链接中可以下载
> 目前SeeSR还没有增加多卡推理功能。 > > 我们近期的工作OSEDiff,不需要control分支也能达到SeeSR级别的效果,显存占用会少一些。另外OSEDiff推理只需要一步,SeeSR需要50步,在推理速度方面优势也很明显。推荐尝试。 > > 详情可以参考 https://github.com/cswry/OSEDiff 你好,我在做推理的时候,显示在 preset/models/seesr路径下 缺少 diffusion_pytorch_model.bin 文件。但是您给的预训练下载文件中,并没有这个文件。请问你遇到过同样的问题吗?
你好,我在做推理的时候,显示在 preset/models/seesr路径下 缺少 diffusion_pytorch_model.bin 文件。但是作者给的预训练下载文件中,并没有这个文件。请问你遇到过同样的问题吗?
> 跟 SUPIR 比较后, SUPIR 在细节上表现比较好. 但是他是基于 SDXL 的, 这样比会有点不公平. > > 请问之后会發佈 'SeeSR-SDXL' 版本吗? 你好,我在做推理的时候,显示在 preset/models/seesr路径下 缺少 diffusion_pytorch_model.bin 文件。但是作者给的预训练下载文件中,并没有这个文件。请问你遇到过同样的问题吗?
> https://huggingface.co/stabilityai/stable-diffusion-2-base/tree/main 从这边下载 [你好,是不是在你给的链接的unet文件夹下,下载diffusion_pytorch_model.bin文件?但是该文件,在加载模型权重时会有许多权重对不上。也就是“https://github.com/cswry/SeeSR/issues/36”出现的问题。]
好的,非常感谢您的解答。 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 发送日期 | 2024年07月10日 15:36 | | 收件人 | cswry/SeeSR ***@***.***> | | 抄送人 | LeiXu ***@***.***>, Comment ***@***.***> | |...
> > 首先感谢作者杰出的工作,另外有一点点不明白的地方,希望作者解答一下。在checkpoints/download_github.py下载后,似乎可以得到5个模型权重,分别是net_new_bbox.pth,net_prior_generation.pth,net_real_world_ocr.pth,net_sr.pth和net_transformer_encoder.pth。然后在train.yml文件中,似乎只使用net_prior_generation.pth,net_transformer_encoder.pth和net_sr.pth。 > > > > 1. 关于train.yml文件中的net_d.pth和net_srd.pth来自哪里? > > 2. 关于train.yml文件中,pretrain_network_ocr是否也可以使用预训练权重,模型来自哪里?是net_real_world_ocr.pth吗? > > 3. download_github.py下载的net_real_world_ocr.pth和net_new_bbox.pth用在何处? > > 1. 关于训练代码,可以进入https://github.com/csxmli2016/MARCONet/tree/main/Train 里有详细的介绍,按照这里的`python scripts/download.py`可以下载所需的所有文件。你提的checkpoints/download_github.py是下载测试用的模型,不是训练的。 > 2. pretrain_network_ocr可以单独训练,不用跟sr模型一起,这样可以让网络更快的去微调先验,并嵌入SR过程中。 > 3. 用到测试时的这里了 >...
你好,再请问一下,TrainData/BGSample/DF2K_Patch给了数张裁剪图像的例子,请问下背景裁剪后图像的数量对最终模型效果的影响大吗?有这个疑问,是因为我想train一下,是否需要下载DF2K或者DIV2K数据集裁出更多的背景。