HelloWorld4747
HelloWorld4747
Hello, I am trying to reproduce this paper, but I can not access these two links: REFERIT_SPLITS_URL="https://s3-sa-east-1.amazonaws.com/query-objseg/referit_splits.tar.bz2" REFERIT_DATA_URL="http://www.eecs.berkeley.edu/~ronghang/projects/cvpr16_text_obj_retrieval/referitdata.tar.gz" Could you please sent me the dataset? My mail address is [email protected]....
> > > > 你好,我不是原作者,我正在复现这篇工作。 > > > > 根据论文所报告的参数,bz大小为128,四个数据集合在一起总的数据量除以bz应该是105,那么CKPT=105的来源。到sh脚本里给出的默认参数加重累加步长是32,他们的实验应该在4张GPU上运行,我认为你需要检查一下你实验中的设置有没有跟他对齐 > > > > > > > > > 确实,他们的实验是在4张GPU上运行的,我是在一张GPU上运行的。 > > > 我还有问题是是否需要将所有的数据集和ckpt获取数据梯度,我看他的第二步只是使用了一个数据集和一个ckpt进行数据梯度的获取,第三步计算影响力分数时使用确实是所有的数据集和ckpt(如图1和图2),我个人觉得应该是对所有的数据集和ckpt进行计算吧? > > > 我目前实现了只对最后一个ckpt进行了实验(因为ckpt=1688),使用了1个和4个数据集分别进行了实验,但是得到的结果却是使用1个数据集的效果明显好于使用4个数据集。(模型是llama2-7b).图3是我运行步骤二得到的数据。图1图2图3 > >...
> If I use pip install vllm directly, there seems to be version incompatibility issues. > > Thanks! Hello, Have you figured out the vllm version issue? Thanks!
> > > If I use pip install vllm directly, there seems to be version incompatibility issues. > > > Thanks! > > > > > > Hello, > >...