HUAFOR
HUAFOR
学校小作坊没有那么多卡,看论文提到是用8张A100训练瑟瑟发抖,不知道能不能作为一个baseline改进。。。
非常感谢作者您为社区带来的开源贡献!我想知道如何通过您提供的checkpoint来复现您论文中表格1里面的精度数据(以lrs2为例) inference_single.py只提供了一段测试输出的视频,没有提供相应的精度数据~ 
Is this normal? https://hf-mirror.com/roboflamingo/RoboFlamingo/blob/main/ABC_D/checkpoint_gripper_post_hist_1_aug_10_4_traj_cons_ws_12_mpt_dolly_3b_4.pth  
想请教下作者,直接存储prompt_src在inversion过程中每一步的latent而不是loss,然后直接用于sampling过程的非编辑区域,相当于非编辑区域用prompt_src部分的latent,编辑区域用prompt_tgt的latent,写法是不是和原来是等价的?