code731
code731
同学你好! 我花了两天时间阅读你的论文和代码,收获巨大。我认为不论是模型还是论文,质量都非常的高。模型的构思太巧妙了,论文的逻辑也非常清晰,而且实验做的很扎实。非常感谢你的分享,同时也向你学习! 我在使用你提供的u2net模型权重进行预测时,出现了下面这种情况   主要的问题有两个: 1.底座不能完全分割出来 2.边缘有一些模糊的情况 我想把u2net应用在玩偶的分割上,但是我没有自己的数据集,所以我准备按以下几个步骤进行改进,想听下你的意见: 1.我想把你论文中提到的DUST-OMRON,DUTS-TE,HKU-IS和ECSSD结合DUTS-TR一起作为训练集微调u2net.pth中的权重,你认为这样可以一试吗,还是有更好的方法。 2.如果上一步不能取得好的效果,我准备改变Sup1-Sup6的混合方式。你在论文中提到 "(PPM) But fusion of different scale features by direct upsampling and concatenation (or addition) may lead to degradation of...
python -m pip install hyperlpran安装后 调用什么api可以返回车牌颜色?
现在下载的视频都是640x320的,但是播放页面的视频下载是1280x720的 
Is there a short code example you can provide?