I%
I%
首先感谢您们的工作,我在尝试使用MSVD的预训练模型权重在我自己准备的数据集上进行视频摘要推理。 我首先使用resnet152提取我自己的数据集的高维特征,然后组装成npy。  之后按照msvd数据集中的caption_test.json,填入我自己数据集中相应的id和file_name,(因为我只要进行推理任务,而且不需要评估,所以annotation为空)。  之后将正确的路径填写到config/video_caption/msvd/base_caption.yaml,但是现在它运行报错,没有1297.npy这个文件。 所以我想提问,为什么我修改了caption_test.json,它还是不读取我的caption_test.json里的数据?
Please, Could you share your syncnet checkpoint in the avspeech dataset? my machine is too slower, Thanks
作者您好,首先对您的工作表示极度敬仰,我在复现代码的时候有一个疑问,就是如果获得相机的内外参数?(人脸的欧拉角以及平移矩阵),感谢解答!
您好,我写了一个onnx导出脚本,只导出unet.model,然而导出后文件并不是保存在一个model.onnx中,,而是model.onnx只保存文件结构,而权重保存成零散的文件? 导出代码如下: ``` # ===============================构建算子 import onnxscript ## Assuming you use opset18 from onnxscript.onnx_opset import opset18 as op custom_opset = onnxscript.values.Opset(domain="torch.onnx", version=17) @onnxscript.script(custom_opset) def ScaledDotProductAttention( query, key, value, dropout_p, ):...
作者您好,我最近在测试视频转绘,所使用的项目是diffutoon。 之后参照controlnet unit的方式写入配置文件。 ``` "lora_units": [ { "model_path":"models/lora/浮雕风格_01_relief.safetensors", "scale":0.6, "keywords":"relief" } ], ``` 然后通过在load_pipeline函数中使用`model_manager.load_lora()`进行引入。 ```# TODO for unit in lora_units: model_manager.load_lora(unit['model_path'], lora_alpha=unit['scale']) ``` 但是实践下来发现,添加了Lora之后效果没有任何作用。在提示词中已加入 和 激活keyword 这里给出一个Bad demo,供复现该问题: 1. checkpoint地址:...