liupengucas
liupengucas
> I have created the "images" folder for the main file to access. And I also change "xrange" to "range", "map" to "list(map())" to make the code run @ngoc199 您好,感谢您的debug思路,按照您的思路已经可以跑通代码了,但是有一个问题,就是我怎么利用这个代码处理水印图片呢?我看代码中imshow出来的都是裁减图片,且颜色也发生了改变,不能和原图片相对应,请问我应该怎么输入一张水印图,输出一张对应的去水印图片呢?就是作者在final中展示的那种,谢谢!
> 对,这也是我的问题。我不太了解GCN,但我想作为CNN的一种,是需要训练的。然后我用了他们训练过的model去预测我自己的数据,也有可能是我没操作对,但最后出来的结果不太理想。 请问一下你的knn_graph.npy是怎么构建的哈,可以提供一下你的代码吗
> 作者的best.ckpt也没有到0.8吧,移除单聚类结点才有。我正常训练完,结果和作者的很贴近了,甚至还略好 您好,我现在用我自己的数据在训练的时候发现我的acc极高,为1, 但是precision和recall都为0,请问我应该怎么调整,我是用了2万5个ID,每个ID有10张图,先用与训练好的模型进行特征提取,并且将feature和label都保存到两个npy文件,然后用knsw得到knn_graph, 然后用于训练。在这里我同样有另外一个疑问,就是因为我的训练数据是每个ID有10张图,所以我的knn_graph里面第一个值是label0的临近点,第二个值也是label0的临近点,第三个也是,直到第十一个才是label1的临近点,请问这样构造数据对吗,我看作者的好像是第几个值对应的就是label几,请问是否可以加个联系方式请教一下您,我的微信是13810332182,谢谢!
> hi, @yl-1993: > > 关于Learning to Cluster Faces via Confidence and Connectivity Estimation 这篇论文的idea与code,我有以下2个问题想要请教下: > > 1. 我从youtube数据集中抽取了900个id作为test data,剩下的作为train data,分别通过CNN model 提取到512维的feature,作为GCN-V的input feature。分别训练了GCN-V和GCN-E。在test data上GCN-E的效果比GCN-V好一些,却比直接基于512 dim 的feature的cosine 距离直接构建graph得到的效果要差一些。因为论文中也没有youtube face数据上关于GCN-V和GCN-E相关的结论。所以想问下,我遇到的这个问题算是正常的吗?或者问题可能出现在哪里呢? >...
> Hi, may I check that if I have my own data set, is there a way to use the framework provided to train a virtual environment resembles my own...
> 我们正在准备新的模拟器,会有更好的效果。 于教授您好,首先非常感谢您们团队的共享和开源。对于您们这次开源的代码,我有一些问题想要请教一下,首先就是数据类型,你们是构建的所有的商品数据集是怎么构建的,也是进行one-hot编码吗?就是把价格,点击率,等等按照one-hot编码?,也我非常想知道您的数据集构建方式。第二就是你是怎么计算论文里面的tt,tv值的,还有你是怎么计算每个商品的销售量的?第三就是您开源的代码是否可以开源整个完整的代码呢?非常感谢!
> Thanks for your question. Both outfitting and denoising UNets are finetuned on the original SD1.5 UNet. The training details are mentioned in our paper, which will be released soon....
> 借楼向知道的大佬请教个问题,训练的时候给模特图(gt)加噪,经过vton_unet预测噪声,MSE计算预测噪声与原噪声的loss,这个操作正确吗?因为在推理时vton_uent每次新的step,latents都是经过上次预测去噪后的latents、ori_img_latents和mask_latents这三个数据融合的,这块有点疑惑。 最近也在复现论文效果,可以交流一下吗?[email protected]
I want to ask the same question