<Yun>

Results 40 comments of <Yun>

@gachiemchiep your comment makes my day...hahaha I spent a whole day dealing with lmdb because of some 'PIL cannot read ioBytesIO object' stupid issue..and finally manage to train the model......

> ## Describe the question > In Diarization task, i train on AMI train-dev set and ICSI corpus , i test on AMI test set. Both datasets include audios of...

Hi @wrongbattery, Thanks for the info.. 250 ms...ok then i need to reduce my size...i think your input size is different from the paper, but i will give a try....

兄弟看来你并未明白knn-matting是干嘛的。。。

数据集都公开了,你直接拿数据集里面的alpha做,你knn-matting只是为了在没有alpha的情况下,用knn来造alpha。。。

抠不出来很好的边缘是你的TNet不够好,没法把该抠和不该抠的地方正确标记出来。 阿里的这个数据集前景f和背景b占的比例非常大,训练模型去检测u其实难度还是有的。 改数据集, 加更多u占比更大的图进去。 而且你如果训练30k+的图,泛化能力不知道怎么样,你可以试试下面这个图,你就知道了。 ![woman](https://user-images.githubusercontent.com/39732241/111565872-154cb880-87d7-11eb-9880-6756fd0679c1.png)

如果你有不知道的东西,就去看他们的文章。 改了数据集,你最好重头训练。 阿里的这个数据集说实话让你明白这个系统是怎么运行的,足够了。 但是你想要一个很宽泛,很一般化的模型,你还需要做很多东西。 最主要的还是数据集。模型基本上够好了。

不错不错,加油加油。 所以如果我没理解错的话,你现在的数据集=爱分割10K + 自己的15K 1>就数据集来讲,我觉得没啥大问题。但是尽量保证数据的统一性。因为就像你说的,爱分割质量其实不高的,而且我很担心爱分割的数据集有数据污染,就是说训练集和测试集有互相交叉,毕竟那么多图在里面,我们不可能一张一张去看。 2> 我不清楚你说的自适应是什么意思,adam?ada_delta?还是说你用lr_scheduler选择reduce lr on plateau? 震荡很可能是gradient太大,你也可以考虑gradient clipping。 3> 训练的好坏不是看loss,而是看你validation的效果。如果你validation精确度上不去了,你loss再小都没用,越小说明你过拟合了。 4> 这个问题其实很难回答。但是既然adobe能够用大概300来张训练出个DIM, 我觉得你的应该差不多。你可以尝试用更多。 5> u2net其实是属于saliency detection, 是直接给你一个前景/背景图。 matting是要用到trimap,再变成前景/背景。总体来讲matting更能胜任头发丝这种精准抠图。

有必要单独做,因为你直接放一起两个net不一定能收敛。 论文里面也是先把2个都训练好了,再放到一起fine tune做end to end。 所以你要先单独训练Mnet。