yueool
yueool
reference: https://www.bilibili.com/video/BV1by411h7Vg/?vd_source=a25b27836b1cea089a7471b5f6f899cd at 42s edit gradio_demo/app.py add code after line 130 (130 : pipe.unet_encoder.to(device)) pipe.enable_sequential_cpu_offload() only need 8G
十分感谢,谢谢你,我这就去试试,你真棒
@alphonz 好像只有前10s有效,我看了代码 at: data_gen/utils/process_video/fit_3dmm_landmark.py line:417 for i in tqdm.trange(**min(250, len(frames)**), desc=f'rendering debug video to {debug_name}..'): 这是制作数据集中的代码:min(250, len(frames)) 因此我猜测只有前10秒有效,但是我并确定是这样,因为我的代码能力很差,更多是猜测
自己解决了,编辑文件: Solved it on my own, edit the file: utils/visualization/vis_cam3d/camera_pose_visualizer.py line:13 is self.fig = plt.figure(figsize=(5.12, 5.12)) 在其后增加一行 Add a line after it **plt.close('all')** 就好了 It's easy to use 顺便提一下,我的版本是这样的: By...
谢谢,给你首赞