AF-SfMLearner icon indicating copy to clipboard operation
AF-SfMLearner copied to clipboard

[MedIA2022 & ICRA2021] Self-Supervised Monocular Depth and Ego-Motion Estimation in Endoscopy: Appearance Flow to the Rescue

Results 6 AF-SfMLearner issues
Sort by recently updated
recently updated
newest added

很感谢您所做的工作! 我在您网络的基础上试图改进时,想使用tgt_depth和ref_depth这两个变量。根据我对train_stage_two.py的理解,tgt_depth应该是指outputs["depth", 0, scale],ref_depth应该是指outputs["position_depth", scale, frame_id]。但是我却发现outputs["position_depth", scale, frame_id]的shape是[12,2,256,320]。为什么第二个维度是2?不应该是3吗? 期待您的回复

您好,如果我想将SCARED数据集上的训练结果(仅需要解码器encoder)作为新一轮训练的权重加载进去,是使用--models_to_load吗?

您好,非常感谢您公开您的工作。 我尝试按照readme中给的方式进行复现,我选择了end to end fashion的模型,使用了endovis的splits和默认的parameters,并且按照important note进行了修改。我的环境是py3.12_cuda12.1_cudnn8.9.2_0。 以下是我得到的结果。 weights_14: abs_rel | sq_rel | rmse | rmse_log | a1 | a2 | a3 | & 0.066 & 0.543 & 5.451 & 0.090...

![vo](https://github.com/ShuweiShao/AF-SfMLearner/assets/56707899/7d95abbd-6e45-4b6b-8b9c-e8f42f141dcd) 这是我按照ICRA权重得到的可视化轨迹,跟您的差距较大,请问还需要添加别的设置吗?其次我也按照链接https://github.com/ShuweiShao/AF-SfMLearner/issues/8在训练时将F. interpolate和F. grid_sample后都加个align_corners=True进行了训练效果依旧不好。希望得到您的回复,谢谢!

您好,非常感谢您公开您的工作! 项目中的evaluate_depth.py得到error数值。test_simple.py可以得到相应的深度图。 我运行项目中的evaluate_pose.py得到 Trajectory error。请问这部分怎么可视化得到您在论文中图8那样的轨迹图呢?

您好,非常感谢您公开您的工作! 我在使用您的代码对Endovis数据集进行位姿估计的时候,发现evaluate_pose.py中定义的输入是来自test_files_sequence2.txt,但是仓库里面并没有这个文件,也没有gt_pose的生成程序,能麻烦您展示一下TXT文件以及gt_pose的生成程序么? 万分感谢!