MAN
MAN copied to clipboard
Multi-scale Attention Network for Single Image Super-Resolution
how can i get the results?
Hello author, thank you for your work. When I reproduced your code, after successful training, why was no experiment file and its weight file generated?
请问插入多少个MAB模块的数量最终效果最好 另外该网络n个MAB模块后的LKAT是否可以有更好的效果优化,感谢您的回复
如题,请问作者如何计算#Mult-Adds? #Params的计算与论文中相同。 但FLOPs我使用from fvcore.nn import FlopCountAnalysis计算的值与论文中不一致。 MAN-tiny-x4的Params为150K,FLOPs/MACs为134G。 使用from torchsummaryX import summary计算的Mult-Adds为43.97G。 请问原因以及您使用的计算方式? 感谢!