JackWhite-rwx

Results 16 comments of JackWhite-rwx

hello,this is my pip: torch==1.1.0,torchvision==0.3.0 this is my code: from torchvision.ops import RoIAlign l hope that my suggest is useful for you

> 您可以在“https://competitions.codalab.org/competitions/22225”链接的参与选项卡中获取它。 这个比赛已经结束了,这个链接也无法再下载数据了,请问有保存当时训练和验证的数据吗?如果有的话,可否通过网盘链接分享一下?非常感谢您杰出的工作!

> @gladcolorYep, I did it. Can you please write me your email so I can provide you with it? Thank you for awesome work,could you help me to create a...

我在3090上使用pytorch1.9.0_cu11.1跑的结果比论文里的高 ------------------ 原始邮件 ------------------ 发件人: ***@***.***>; 发送时间: 2022年11月29日(星期二) 晚上8:26 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [Deep-imagelab/AWAN] Train data (#2) @Deep-imagelab 感谢大佬。再冒昧问一下,我看见你在MST++下评论无法跑出作者论文公布的结果,我在2080TI上也没有跑出额,请问后续大佬在版本更改后跑出作者论文结果了吗? 我跑了几次也没跑出来,总是差一点点,可能是随机性的影响吧 — Reply to this email directly, view it on...

好的,非常感谢 ------------------ 原始邮件 ------------------ 发件人: "Deep-imagelab/AWAN" ***@***.***>; 发送时间: 2022年10月1日(星期六) 下午4:43 ***@***.***>; ***@***.******@***.***>; 主题: Re: [Deep-imagelab/AWAN] Train data (#2) 我把数据传好了,有效期是30天,你们可以尽快下载下。 链接:https://pan.baidu.com/s/1BjvPWlXbjGxmuUZmH5tnGw 提取码:2022 在 2022-09-30 15:02:45,"img_wcx1120" ***@***.***> 写道: 这个比赛说明写了,只有注册成为参赛者(审核通过需要1-2天),才能获取数据,你们可以看看。 我这边不太确定我能不能传数据到网盘(不知道会不会侵权啥的),这个数据集本身也很大,有20多G,我这两天可以先传一下,到时候我可能只敢开放有限的时间供你们下载,就担心侵权啥的。 在 2022-09-30 11:44:18,"JackWhite-rwx" ***@***.***> 写道: 您可以在“https://competitions.codalab.org/competitions/22225”链接的参与选项卡中获取它。...

> sry, I can't find the py file named preprocess_image.py in your github repo.. you can use preprocess-features.py

> Hi, > > Sorry for the lack of maintenance. You can search for intel parallel studio. Or I think the anaconda comes with the mkl which you can use...

> Awesome Work! We're willing to highlight your project in our README! 很抱歉再次打扰你,我发现在readme中你把这个项目的链接错写成了Image2Paragraph的链接,麻烦您抽空将few shot scene graph generate的链接修改为https://github.com/JackWhite-rwx/SceneGraphGenZeroShotWithGSAM.git

> 您观察到哪些差异? I use torch.hub.load model and vit_large( patch_size=14, img_size=518, init_values=1.0, block_chunks=0 ) model to inference the same input tensor. then use torch.euqal() api to euqal output tensors, it show...