xiximin
xiximin
请问你们是怎么训练的呀?是直接就作者的代码,训练1000epoch么?我看论文写的是epoch=60,我跑完之后,ped2只有95.1。低很多。avenue也是。
> > 请问你们是怎么训练的呀?是直接就作者的代码,训练1000epoch么?我看论文写的是epoch=60,我跑完之后,ped2只有95.1。低很多。avenue也是。 > > 我是训练1000 epoch,速度也不算很慢 我看你前面说你的结果在ped2和shanghaitech上只比作者的结果低一点。请问,你训练1000epoch,三个数据集你跑出来的结果大概是多少呢?
shanghaitech数据集也是训练1000epoch吗?每30个保存一次?
> > 话说你们是怎么训练的呀?是直接就作者的代码,训练1000epoch么?我看论文写的是epoch=60,我跑完了之后,ped2只有95.1。低很多。大道也是。 > > 我跑了一下,按照提示参数也都修改了,结果测试提示outputs, feas, _, _, _, fea_loss = model.forward(imgs[:,:3*4], update_weights, False) ValueError: not enough values to unpack (expected 6, got 2),有没有什么办法解决 测试的时候返回的参数只有两个。你看他的convAE里面forward函数里的test。
> > 话说你们是怎么训练的呀?是直接就作者的代码,训练1000epoch么?我看论文写的是epoch=60,我跑完了之后,ped2只有95.1。低很多。大道也是。 > > 我跑了一下,按照提示参数也都修改了,结果测试提示outputs, feas, _, _, _, fea_loss = model.forward(imgs[:,:3*4], update_weights, False) ValueError: not enough values to unpack (expected 6, got 2),有没有什么办法解决 你参数是设置的多少呀?