wdc233
wdc233
> 确定!黄点是提示。这些是我想分割的特征,但它们都嵌入在矩阵中,以及南部的那个城市。我更改了一些 SAM 参数,但结果总是非常相似。  Hi, Please how do you generate these prompt points? Is it based on the ground truth? good wish!
> 作者,你好,  targets['labels']有5个,最后匹配后的结果indices才两个呢? 怎么配的环境呢,xformer包和apex包与其他环境不兼容得问题是怎么解决的请问
> > 可以检查一下APE是否成功安装了,具体安装步骤[这里](https://github.com/shenyunhang/APE?tab=readme-ov-file#hammer_and_wrench-install)。 > > 如果无法安装成功,则不能用cuda版本的`MultiScaleDeformableAttn'。 可以改成pytorch版本的,在配置里加入: > > ``` > > model.model_vision.transformer.encoder.pytorch_attn=True > > model.model_vision.transformer.decoder.pytorch_attn=True > > ``` > > 感谢回复,经过多次尝试,发现ape这个库会因为之前的环境编译而引入脏变量,在手动一步一步编译的前提下,重新拉取辛苦完成了推理验证 请问xformer包是怎么解决的呢
你之前没有xformer如何运行的呀,我这没有xformer压根运行不了呀 > > 1. 使用docker pull keyk13/ape_image:v1 拉取了在以上问题中提供的镜像 > > 2. 但是在容器中没有找到xformers库,pip install xformers 会安装0.0.23版本,自动更新torch版本;如果安装0.0.17版本,会有以下报错 > > NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs: > > query : shape=(4,...
> keyk13/ape_cu118:v1 > > > 你之前没有xformer如何运行的呀,我这没有xformer压根运行不了呀 > > > > 1. 使用docker pull keyk13/ape_image:v1 拉取了在以上问题中提供的镜像 > > > > 2. 但是在容器中没有找到xformers库,pip install xformers 会安装0.0.23版本,自动更新torch版本;如果安装0.0.17版本,会有以下报错 > > > > NotImplementedError: No...
> > 可以看一下你的推理命令吗? 是否加了下面这个选项: > > ``` > > model.model_language.cache_dir="" > > ``` > > 你好,经过检查发现是没有下载权重文件,下载完成后已经解决了。现在一直提示我缺少apex库,按照readme文档中一直实现不了,手动安装的是apex0.1版本也是报错,想问一下作者的apex库是哪个版本的,还有就是apex库对于安装路径有要求吗?我安装在项目路径下和环境路径下都报错,希望得到作者的解答,谢谢 下载了什么权重文件,是clip那个权重文件还是ape的权重
> 你好,我用的apex版本是23.08。 最好单独一个路径,要不import时候可能会混淆。 以下是我用的编译脚本: > > ``` > set -e > set -x > > SCRIPT_DIR=$( cd -- "$( dirname -- "${BASH_SOURCE[0]}" )" &> /dev/null && pwd ) > >...