puyiwen

Results 44 comments of puyiwen

> 在之前的工作之后,这些位置的像素在评估期间被屏蔽。换句话说,他们不计入评估。 Hi,do you mean the invalid depth do not participate in training and evaluation?

> 试试将batch size改为1看看? 你好,我稀疏化训练的时候精度掉了非常多,从83.3%掉到60%,这个现象是正常的吗?经过微调能恢复到原来的精度吗?

> Hi,I want to know how do you get the ground truth depth of your custom dataset? Use the RGB-D camera or using a pre-trained big model to inference the...

> @YongboLiang @Jinjicheng @qinger2020 1:slimming原先是全局排序裁减,后面作者调整为根据该层排序裁剪,可以查一下history就能看到。 2:自己可以调整css_thresholding函数,达到自己设计的剪枝比例;实在不会,那就直接将OT_DISCARD_PERCENT=1e-2调大。就能看到压缩flops和param效果了。 @PQ-girl prune完需要finetune. 您好,这个slimming剪枝后的模型有没有重构?而且我看剪枝后的通道数不是8的倍数。。这个是要自己写是吗

> @YongboLiang @Jinjicheng @qinger2020 1:slimming原先是全局排序裁减,后面作者调整为根据该层排序裁剪,可以查一下history就能看到。 2:自己可以调整css_thresholding函数,达到自己设计的剪枝比例;实在不会,那就直接将OT_DISCARD_PERCENT=1e-2调大。就能看到压缩flops和param效果了。 @PQ-girl prune完需要finetune. 您好,这个slimming剪枝后的模型有没有重构?而且我看剪枝后的通道数不是8的倍数。。这个是要自己写是吗

第一个地方 是改了model.resnet.py中的 ResNet模块,将layer4的stride=1 改为stride=2 代码可以运行我试了一下,比jwyang版本的map提高了2%多的精度;

> 在此处保存问题。我也想知道为什么函数“SaveTrajectoryTUM”不能用于单眼。是什么限制了使用单眼时这个函数的使用? Hi, I have the same question, have you got it?

> I am trying to align (convert relative depth units to real world depth) the MiDAS depth image to [ARCore ](https://codelabs.developers.google.com/codelabs/arcore-rawdepthapi#0) depth image. I am aware that there were already...

> Would you be kind enough to explain/ share snippet of the code you are using for generating the point clouds from midas output depth map? my point cloud is...

> @himmetozcan Thanks for your generous sharing of this alignment code. I can get very decent visualization results by exploiting this code snippet. However, in my situation, s is -39.33,...