Cheng Rui
Cheng Rui
> _No description provided._ Sorry, I'm usually busy. I'll update it later, but the logic is the same: 1. You need to convert your model into trt, which includes face...
> 有人试过实时抠图吗,我测试主要耗时点甚至不在模型,图片在cpu和gpu之间来回传输的时间大于模型推理用时,这个时间怎么加速呢,又没人指导下,谢谢! 做GPU编解码
> 对于SD部分的改进感觉很好啊,有没有考虑分成两个PR我们先合并一个,text2tag部分我们先测试一下 OK
@Andy1621 是的,Tag2TEXT有个标题输入的参数可以调节,我看GPT过滤你们已经做了
> 一个建议: text2tag整个文件夹是不是可以先不引入,在需要的时候使用`git clone`引入,这样可以减少核心代码的量,比如我们对于whisper,diffusers的处理 是的,我确实一开始打算这样 不过Tag2Text的代码里修改写参数路径 所以看来打算CLONE 修改的分支了
@SlongLiu @rentainhe @Andy1621 Tag2text(transformers==4.15.0)和BLIP的transformers产生了冲突,如果调用这个模型可行的话,我这里是目前没调用BLIP了:选择Tag2text,代码不Import BLIP相关的API函数了。可以测试下。通过三方导入我去试试修改下使用方式和逻辑
> 您好,已给star 请问为什么, 我的pitch一直是-90  这个你头部有明显的动作吗 PITCH的范围是-90到90
> RT 跑了一下大佬的代码,发现pose的效果不是很好,想自己尝试转换一下官方的tflite模型到pytorch再试试,想问问大佬是怎么转的 您好 你是指哪部分POSE,网上有脚本可以转的 我最近没在弄这个方法,因为想对接UE里面 Mediapipe可能因为精度和需要从新计算BS先搁置了
> Author > ### ** [sjr512](/sjr512) ** commented [19分钟前](#issuecomment-1237711585) 全身的也可以啊 而且你是想检测2D的还是3D的
> > > Author > > > ### ** [sjr512](/sjr512) ** commented [19分钟前](#issuecomment-1237711585) > > > > > > 全身的也可以啊 而且你是想检测2D的还是3D的 > > 用你项目里的pytorch模型全身是不行的吧?我把pose_connection的点补全了,模型输出是对不上的。我的话2D检测可以满足,有3D的更好。 blazepose不是吗?你开启了吗 2D的话效果目前SOTA的是YOLOV5的POSE比较好 3D的话我用过英伟达的可以实时1080P