DiffBIR
DiffBIR copied to clipboard
Official codes of DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior
我用的参数是 python -u inference.py --version v2 --task sr --upscale 2 --cfg_scale 4.0 --input inputs/wkkimg --output results/wkkimg --device cuda 顺便再问一下,芯片图里的字能完美清晰化,是不是说这个方法能放大文字了?
你好,如题,请问有没有做过这样的实验,使用更大量级的训练集训练的话,会有更加显性的结果吗?和后面开源的[supir](https://github.com/Fanghua-Yu/SUPIR)相比,想知道supir的效果更多的是数据的贡献还是整体架构的贡献
_抱歉问题比较stupid_ 在 v1 里面可以直接进行替换 ``` --config configs/model/cldm.yaml \ --ckpt weights/general_full_v1.ckpt \ ``` 在 v2 train 的train_stage 1 和 train_stage 2 将得到不同的.pt文件, 请问要怎么使用利用 v2训练的到的这两个模型文件应用进行恢复测试呢? 十分感谢,期待您的回复。

请问下作者, 为什么要用在低清图上finetune的encoder呢? 我的感觉是,原始高清图重建的encoder来做base, 然后control net来控制(以及弥补)低清图encode不准. 这样的好处是高清图的特征和低清去噪的过程都能保留. 如果encoder用低清图finetuning的东西,然后controlnet继续在 低清图finetuning 的encoder上继续'去噪',感觉有点奇怪啊, 不知道是不是我的理解有点偏差了, 期待作者能回复我一下,或者有相关的ablation study就更好了, 感谢~~
Can this network do the work of image deblurring?
Hi, I'm wondering why first train stage1 and stage2 model with codeformer degradation, and then train stage1 model with RealESRGAN degradation. Intuitively, it will cause input distribution shift of stage2...
如题,谢谢!
1) In the readme, the author mentions "For general image restoration, we first train both the stage1 and stage2 models under codeformer degradation to enhance the generating capacity of the...