kongjibai

Results 17 comments of kongjibai

> For future users with this issue, I resolved it with: > > ```shell > kubectl delete validatingwebhookconfigurations volcano-admission-service-pods-validate volcano-admission-service-jobs-validate volcano-admission-service-queues-validate > kubectl delete mutatingwebhookconfigurations volcano-admission-service-podgroups-mutate volcano-admission-service-jobs-mutate volcano-admission-service-pods-mutate volcano-admission-service-queues-mutate >...

ShanghaiTech数据集的人头坐标是整数的,其他数据集不太清楚

确实是tensorflow版本的问题,谢谢啦!

> > 确实是tensorflow版本的问题,谢谢啦! > > 你是哪个版本的? 1.0.0

非常感谢您的指教!不过还是有几点不明之处: 1)问题1中,您使用sigmoid(relu(x))虽然可以加速模型收敛,将输出密度限制在(0,1),但是原作中使用的是tanh(x),其范围在(-1,1),这会不会影响最终的人群计数结果? 2)关于问题2,我后来仔细看了下,您做的没错,skip connections需要前后的shape是相同的,而e1和d8的shape并不相同; 3)问题5中提到的,我完全使用您的代码和数据重新训练的模型,生成的密度图会有竖条纹,不知您是否遇到过?或者在训练过程中有什么参数需要调整,有哪些训练的技巧? 4)在训练过程中,large生成器的前3个deConv中使用了dropout,在测试或实际使用中(product部分)不应该使用dropout了吧?否则会导致这些层某些单元随机失活,导致计算结果不稳定。 5)在使用large判别器计算对抗损失时,您的输入数据是self.d_l_x、self.d_l_x_,但是在self.discriminator_large()中他们却不是经过tanh()的那个,却经过了一个随机线性变换,我不太明白您这样做的目的是什么?另外,这样会不会对最后的损失函数有影响?

非常感谢您的解答,受益匪浅! 问下您有没有验证过测试集中其他图像的准确度? 比如,我用您的模型,data\data_im\test_im\IMG_1_B.jpg,出来的结果是400+,实际只有23,相差巨大。我看了下密度图,发现下边是地板的部分高亮,很不可思议!