eason
eason
> 回溯(最近调用最后一次):文件 “get_clip_features.py”,第 19 行,clip_model = load_clip() 文件 “/home/code/SegAnyGAussians-2/clip_utils/clip_utils.py”,第 206 行,load_clip返回 OpenCLIPNetwork(OpenCLIPNetworkConfig) 文件 “/home/code/SegAnyGAussians-2/clip_utils/clip_utils.py”,第 69 行,**init** model,_, _ = open_clip.create_model_and_transforms(文件 “/root/miniconda3/envs/gaussian_splatting_saga/lib/python3.8/site-packages/open_clip/factory.py”,第 292 行,create_model_and_transforms模型 = create_model(文件 “/root/miniconda3/envs/gaussian_splatting_saga/lib/python3.8/site-packages/open_clip/factory.py”,第 207 行,create_model load_checkpoint(model, checkpoint_path)文件“/root/miniconda3/envs/gaussian_splatting_saga/lib/python3.8/site-packages/open_clip/factory.py”,第...
> 我遇到了同样的问题。我尝试了 open-clip-torch=2.22.0,但它仍然得到回溯(最近调用最后一次):文件“get_clip_features.py”,第 19 行,clip_model = load_clip() 文件“/home/code/SegAnyGAussians-2/clip_utils/clip_utils.py”,第 214 行,load_clip返回 OpenCLIPNetwork(OpenCLIPNetworkConfig) 文件“/home/code/SegAnyGAussians-2/clip_utils/clip_utils.py”,第 76 行,**init**model, _, _ = open_clip.create_model_and_transforms( 文件 “/root/miniconda3/envs/gaussian_splatting_saga/lib/python3.8/site-packages/open_clip/factory.py”, 第 324 行, create_model_and_transforms model = create_model( 文件 “/root/miniconda3/envs/gaussian_splatting_saga/lib/python3.8/site-packages/open_clip/factory.py”, 第...
> 我使用了 open clip Torch 版本 2.4.0,问题解决了。 我依旧出现了这个问题_pickle.UnpicklingError: invalid load key, 'v'.
> 你好,请教一下。 这一行在我本地硬件上跑,时间消耗巨大,半天过去只跑3%,数据集是,请问有推荐的硬件配置吗?我本地是RTX 3070。`python train_contrastive_feature.py -m --iterations 10000 --num_sampled_rays 1000``nerf_llff_data/fern` 4090
> > > 你好,请教一下。 这一行在我本地硬件上跑,时间消耗巨大,半天过去只跑3%,数据集是,请问有推荐的硬件配置吗?我本地是RTX 3070。` python train_contrastive_feature.py -m --iterations 10000 --num_sampled_rays 1000`nerf_llff_data/fern `` > > > > > > 4090 > > > 完蛋,我就说怎么回回都是巨量耗时。然后想问一下,你在4090跑工程自带的数据集,有估计过大致的时间吗?想参考一下。 大概1h
为什么渲染不了test的图片