xvjiawen
xvjiawen
> Hi [@JasonLiJin](https://github.com/JasonLiJin), > > 1. 端侧推理,我们是推荐移除CLIP,有两种方式,一种是提前计算好相应类别的embeddings, 可以采用我们提供的脚本 [generate_text_prompts](https://github.com/AILab-CVC/YOLO-World/blob/master/tools/generate_text_prompts.py). 然后使用`YOLOWorldPromptDetector`(不带text encoder);第二种方式是采用`YOLOWorldDetector`中的`reparameterize`实现编码并写入到model中,之后可以去除text encoder;这部分可以参考我们提供的`export_onnx.py`。 > 2. 推理的offline vocabulary会经过ONNX/TFLite等工具编码到模型中,不再需要encode > 3. 您应该指的的是`YOLO-World-v2-L`与`YOLO-World-v2-L-CLIP-Large`, 后者采用了更强大的 `CLIP-Large`作为text encoder。 请问,generate_text_prompts.py脚本中的--model是写训练好的checkpoint吗,比如yolo_world_v2_s_obj365v1_goldg_pretrain-55b943ea.pth,但是这样会报错Please provide either the path to a local...