Results 65 comments of csxmli2016
trafficstars

> './Face/FFHQ-e4e-w-plus' './Face/StyleGAN2-Generation_w_plus_hasbg' > > dear author, very good job, can you release the data? You can refer to https://github.com/csxmli2016/w-plus-adapter/blob/4da5c28f47feccb68cca80983cd774e72fcee699/script/ProcessWildImage.py#L203 to generate w plus for FFHQ or StyleGAN2-Generated images.

> Thank you for your reply. I would like to ask what this noise file refers to. Why is it called noise? > > ![image](https://private-user-images.githubusercontent.com/61998344/365647806-7fc794b6-245f-4dea-b5dd-cb0cc8670aa8.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MjU4ODUwMjQsIm5iZiI6MTcyNTg4NDcyNCwicGF0aCI6Ii82MTk5ODM0NC8zNjU2NDc4MDYtN2ZjNzk0YjYtMjQ1Zi00ZGVhLWI1ZGQtY2IwY2M4NjcwYWE4LnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA5MDklMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwOTA5VDEyMjUyNFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWJkMzJlMGYzMWM3MTIzMTVjODM2NDNhYjI5NmE1ODI1ZTQ0ZTc5MmJlMWQzNzE0MzE2NDM4ODQ3MzFlMTI3ZjAmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.i215dV-RYaoVYr8xv_DescNm6z2yXKYpmaD-DslTc_Q) It refers to the w...

> is it possible retrain the model with [dat](https://github.com/zhengchen1999/DAT) architecture ? It could give better results than bsrgan Thanks for such a good suggestion! I have collected nearly 50k real-world...

> no problem , is there any documentation for retraining textbsr model ? @csxmli2016 The network is ESRGAN. You can refer to the training from [BSRGAN](https://github.com/cszn/BSRGAN). And then replace the...

> 作者您好,先前的工作都是基于单行文本图像进行超分的,我想知道现在是如何做到整图文本图像进行超分的呢?思路是怎样的?感谢回复 对于整图文本超分,你可以把该任务当作自然图像超分,只不过数据集是随机裁剪的文字片段。用这些数据进行训练。好处是不用依赖文字检测和识别,坏处是当文字退化比较严重时,容易改变文字结构。

> 作者您好,先前的工作都是基于单行文本图像进行超分的,我想知道现在是如何做到整图文本图像进行超分的呢?思路是怎样的?感谢回复 另外一种整图超分的策略是,先对文字进行单行检测,然后复原,然后再贴回到原图。

> 感谢作者的及时回复,正在参观您的仓库就收到了您的回复,再次感谢! 我是一名专业型硕士研究生,我想以中文整图文本超分作为论文方向。我的思路和您提到的第二种方式一样,先使用文字检测模型例如DBNet,根据输出坐标进行图片的裁剪,再将每一部分送入超分模型,最后再拼接到原图。 您觉得这样的方向可行吗?感谢指导! 这个代码仓库也是这么实现的。先检测单行文字,然后裁剪,复原,再贴回去。整个流程跟你说的一样。你可以参考一下。不过这个这种方式整体算是工程性的了。

> > > 感谢作者的及时回复,正在参观您的仓库就收到了您的回复,再次感谢! 我是一名专业型硕士研究生,我想以中文整图文本超分作为论文方向。我的思路和您提到的第二种方式一样,先使用文字检测模型例如DBNet,根据输出坐标进行图片的裁剪,再将每一部分送入超分模型,最后再拼接到原图。 您觉得这样的方向可行吗?感谢指导! > > > > > > 这个代码仓库也是这么实现的。先检测单行文字,然后裁剪,复原,再贴回去。整个流程跟你说的一样。你可以参考一下。不过这个这种方式整体算是工程性的了。 > > 请问如何确保非文字区域在整体超分图中自然融合?由于超分是对裁剪块进行处理,最终拼接回原图时,如何让未裁剪区域与超分块保持风格一致、过渡自然?感谢回复!! 未裁剪区域可以使用其他方法像是BSRGAN或者Real-ESRGAN的方式进行超分。关于裁剪文字区域边缘部分,可以看一下我们的代码,里面有一部分是对文字区域的二值mask进行了高斯模糊处理,能够较好的将复原后文字区域融合到背景图中,不至于边缘过于明显

> Can the dataset of this model be published? If not, can you tell me how to build the dataset, including the MARCONet you mentioned in the Readme? Hi, the...

> Thanks for replying so quickly!!! Feel free to open issues. Let's make this task better