Nuevo009

Results 14 comments of Nuevo009

我目前是创建两个仓库,然后再把博客的原文件部署到 Github 上然后通过 Github Action 分别部署到两个仓库,来实现的,可以看看 https://nuvs.tech/17798/ , 也有参考楼上 @BrandoZhang 的做法。

因为大部分校园网用户的 ipv4 下载都有一定的限制(限速/限量/收费)等等,所以这个 ipv6 需求还是挺多的。。。

> 1、你用的应该是waifu2x-caffe的替换版,原版模型在tile后会产生切割线是在预期内的,原版的tile策略是不能用的 模型是从 google 网盘里面的 weights 文件夹中拿的,转换为 ONNX Runtime。我没有使用 waifu2x-caffe ,况且这玩意在 30 系显卡上几乎等于不能用 > 2、有关效果,模型判断字很锐利,背景画面较模糊,被认为是景深,没有太过增强处理,效果上我个人还算可以接受 就效果来说我也可以接受,但是第二个示例中没有分块,文字周围依然出现了明显的分界,整个画面有不协调感。。

不过如果你要说 Pytorch 的分块策略和 ONNX 不同么,我还没有测试,主要是 torch 在1080p input 下显存直接爆了,我再多开点tiles 试试

> 但是我觉得这个不应该归超分模块管,还是应该大伙在域转换的时候做这个逻辑。 是,毕竟训练集里不太可能来个越界值,但毕竟这个效果跟其他模型对比来说太反常了。嘛我就是给大家提醒一下,你们注意到了其他用户也可能没注意到呢。建议更新一下 README 和 vs demo

> 不过如果你要说 Pytorch 的分块策略和 ONNX 不同么,我还没有测试,主要是 torch 在1080p input 下显存直接爆了,我再多开点tiles 试试 确实是效果不一样。我开了 tile_mode = 4。 ![STB_S3_3109](https://user-images.githubusercontent.com/73752701/153342985-539ef870-d930-4c99-8263-1d5f224685fe.png) 第二个不开分块的效果也是不一样,之前提到的文字周围模糊的现象也没了 ![STB_S3_32230](https://user-images.githubusercontent.com/73752701/153344233-4104f284-cdb6-4d80-a78e-d27fe1d206d9.png) 这应该要回去看看我们那的代码了。。。。。

> 我们手里在RealESRGANv2(for anime video)公开前也已经有比他更快的小模型,不过考虑到还没有做景深处理,并没有公开。 非常期待这个小模型的发布,现在的模型跑起来还是太慢了,fps (同平台竞技 ONNX Runtime CUDA)大概是 realesrganv2 的 1/3,显存占用是 realesrganv2 的 5倍左右,如果 realesrganv2 用上了 tensorrt 还能更快,如果realcugan跑在 torch 上的话显存占用还会更多,而且也更慢。所以。。。在当前版本景深判断偶尔会出错的情况下,相对于经过可靠手段限制副作用下的 realesrgan,realcugan 带来的效果提升是否有必要多花3倍的时间去做。。。也是个问题。

> 你用的应该是waifu2x-caffe的替换版,原版模型在tile后会产生切割线是在预期内的,原版的tile策略是不能用的,因为tile后他看不见全局,无法判断谁要增强谁要保留。我们有开发新版tile,我刚才测试了下没有切割线(2倍denoise3x如图),不过caffe版本目前没有人修正到新版的tile。还是建议不tile。 你说的这个新版 tiles 是 pytorch 的模型转换到 caffe 的时候必须的一些额外处理吗。那可能 torch 转换到 ort 的时候也需要做类似的东西。

> > > 你用的应该是waifu2x-caffe的替换版,原版模型在tile后会产生切割线是在预期内的,原版的tile策略是不能用的,因为tile后他看不见全局,无法判断谁要增强谁要保留。我们有开发新版tile,我刚才测试了下没有切割线(2倍denoise3x如图),不过caffe版本目前没有人修正到新版的tile。还是建议不tile。 > > > > > > 你说的这个新版 tiles 是 pytorch 的模型转换到 caffe 的时候必须的一些额外处理吗。那可能 torch 转换到 ort 的时候也需要做类似的东西。 > > Real-CUGAN也可以用tensorrt转完加速的,不过forward切块策略比较尴尬,很可能就不能切了 trt 似乎没法在 Turing/Ampere 架构上跑 CUNET。这问题给 NV...

> > > > 你用的应该是waifu2x-caffe的替换版,原版模型在tile后会产生切割线是在预期内的,原版的tile策略是不能用的,因为tile后他看不见全局,无法判断谁要增强谁要保留。我们有开发新版tile,我刚才测试了下没有切割线(2倍denoise3x如图),不过caffe版本目前没有人修正到新版的tile。还是建议不tile。 > > > > > > > > > 你说的这个新版 tiles 是 pytorch 的模型转换到 caffe 的时候必须的一些额外处理吗。那可能 torch 转换到 ort 的时候也需要做类似的东西。 > > > > >...