MikeAiJF

Results 60 comments of MikeAiJF

> @muskie82 非常感谢您对 SLAM 做出的巨大贡献!! > > 我有问题。 您的代码如何获取RGB单眼电影数据? 我拍摄了一部RGB单眼电影,并想将其渲染为ply格式。 > > 【详情】 我在AWS EC2(Ubuntu20.4 / A10 GPU)上删除了代码,并成功获得了带标签的演示数据集的GUI。(以下代码) `python slam.py --config configs/mono/tum/fr3_office.yaml` 然后我也尝试使用我自己的单目电影数据并仅产生RGB。我输入RGB图像和颜色信息作为rgb.txt并执行相同的代码。 然后终端要求我提供深度.txt。 > > ``` > python slam.py...

> 你好! > > 我对这项研究印象深刻。 所以我想在我自己的动态多视图数据集上运行此代码。 > > 但是,我很难理解如何设置数据集。 > > 我使用`bash multipleviewprogress.sh (youe dataset name)`并制作了文件夹作为 > > ![图像](https://private-user-images.githubusercontent.com/68315955/324818289-4412b211-e485-4547-a085-73ba21bcb116.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3Mjk4MjU0OTIsIm5iZiI6MTcyOTgyNTE5MiwicGF0aCI6Ii82ODMxNTk1NS8zMjQ4MTgyODktNDQxMmIyMTEtZTQ4NS00NTQ3LWEwODUtNzNiYTIxYmNiMTE2LnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDEwMjUlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQxMDI1VDAyNTk1MlomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTZjMzQ4NzVlNWU2OTk0MDJkMDUwYWVhZTU0NTNmZWE4MGNkNzdkNzA3YWQxMmY1ZmIxNGE0OTdkYWZhZGM1YjUmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.ieU-5OB48Pf3jvyQIptOuB1ZcIaA4lexyO7MduIY6QM) > > 那我该怎么办呢? 使用时`python train.py ~~`出现“无法识别场景类型”的错误。 > > 我认为问题可能是因为没有“稀疏”文件夹或“train_meta.json”。 > >...

> 谢谢你的出色工作!真的很酷。 > > 在实施您的出色项目时,我有几个问题…… > > 我想在同一个场景中可视化 2 个不同的头像,就像介绍页面一样。 但是,当我按照 README 运行代码时,只显示了 1 个头像,在 2 个不同的角度。 > > 您能给我提供可以在同一个场景中可视化两个不同化身的代码吗? > > 我想要像第一张照片那样显示,但我不知道如何做。 > > ![스크린샷 2024-04-07 220023](https://private-user-images.githubusercontent.com/139940599/320283092-e429bf4d-1900-4c3b-a4e8-7407d1ceff21.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3Mjk1NjIyMDAsIm5iZiI6MTcyOTU2MTkwMCwicGF0aCI6Ii8xMzk5NDA1OTkvMzIwMjgzMDkyLWU0MjliZjRkLTE5MDAtNGMzYi1hNGU4LTc0MDdkMWNlZmYyMS5wbmc_WC1BbXotQWxnb3JpdGhtPUFXUzQtSE1BQy1TSEEyNTYmWC1BbXotQ3JlZGVudGlhbD1BS0lBVkNPRFlMU0E1M1BRSzRaQSUyRjIwMjQxMDIyJTJGdXMtZWFzdC0xJTJGczMlMkZhd3M0X3JlcXVlc3QmWC1BbXotRGF0ZT0yMDI0MTAyMlQwMTUxNDBaJlgtQW16LUV4cGlyZXM9MzAwJlgtQW16LVNpZ25hdHVyZT05MDI1OWY1MzVjZDc2MGQ3MjRhM2I0M2ZhOGZlMDkyOWY5MzRjYjQwYTQwYWI1MDVhMDllMWQwMGM5OTEyOWIyJlgtQW16LVNpZ25lZEhlYWRlcnM9aG9zdCJ9.eLCuyBbhJga_G2LV2ZE8kYfsYWSHsYNBZpwmcwrqBd4) ![스크린샷 2024-04-07...

RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! (when checking argument for argument tensors in method wrapper_CUDA_cat)

![image](https://github.com/hpcaitech/Open-Sora/assets/146935101/4f5a4497-b934-464a-b168-0d860dd9c366)

![image](https://github.com/user-attachments/assets/63835e2d-6598-4b8d-8e63-45f1ce4892a1) How should this error be resolved

> > 您可以使用 NeuMan 的预处理代码(请参阅https://github.com/apple/ml-neuman/tree/main/preprocess)进行大部分预处理,但 HUGS 还需要 4D-Humans 的一些预处理(请参阅问题 6:#6) > > 谢谢回复!我会检查一下。 你好,请问你处理自定义数据集好了吗,希望能得到你的帮助,谢谢

> 您可以使用 NeuMan 的预处理代码(请参阅https://github.com/apple/ml-neuman/tree/main/preprocess)进行大部分预处理,但 HUGS 还需要 4D-Humans 的一些预处理(请参阅问题 6:#6) 你好,4dhuamns文件下的东西从哪可以获得

> 能不能给一下完整的报错 你好,我想训练ml-hugs但是那个数据集是基于neuman的但是我现在处理自己的数据无法得到4d-huamns文件下的数据,请问你有好的方法吗,谢谢。