shajiu
shajiu
你好请问你跑来了吗?我怎么出现了问题,可以请教你么?
> > > > > > > > > cln = word_reps.unsqueeze(2).repeat(1,1,word_reps.shape[1],1),这句话的repeat()不太明白,我看pytorch的repeat()方法只有三个参数,这个地方四个参数就代表4个维度吧;然后cln的输入应该是两个张量,不太明天怎么传入了两个张量。。。 > > 是的repeat这里代表4个维度;cln的输入是两个张量,因为作者的cln设计forward的时候传入的参数就有2个,这个2个就是2个张量 后来怎么修改的呀?可否指点指点呢?万分感谢
> 感谢提醒,确实是CLN导致使随机种子失效,我们会进一步尝试解决这个问题 后来怎么修改的呀?可否指点指点呢?万分感谢
> 已收到!谢谢! ——黄洋 后来怎么修改的呀?可否指点指点呢?万分感谢
> 您好! > > 在运行您提供的脚本后,发现recall一直为1.0的情况,不知是否是下面这行代码的原因(这里将真实标签也拼进去,后面评测的时候泄露了)https://github.com/wjn1996/SpanProto/blob/f1e0acb8672f0bfcbb7c827c48b06b3e8ccb295a/models/span_proto.py#L588 > > 此外,在将此处改成`query_all_spans = query_predict_spans`后,得到的结果和论文中相差较大,不知哪边出了问题。 FEW-NERD 5way-1shot: inter—— span_f1:0.5826 class_f1:0.4618 intra——span_f1:0.4606 class_f1:0.3548 大佬你好~ 请问你是怎么复现的,我怎么没法运行呢?源码是否有问题呀?
您是怎么实现的呢? ou should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference. Fail to resize token embeddings. Running tokenizer on dataset:...
ou should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference. Fail to resize token embeddings. Running tokenizer on dataset: 0%|...
> 您好,请检查一下您的机器以及相应版本问题,单独在这个项目的目录中执行。 我已经检查了并且是在单独的环境中运行的呀~
您好!我还是出现如下问题:麻烦您帮我看看么? ou should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference. Fail to resize token embeddings. Running tokenizer on dataset:...
您好!我训练到1000步后出现如此的错误这是怎么回事儿呢? 我的命令如下: CUDA_VISIBLE_DEVICES='1','4','5','6','7' python train.py --model_name RecoverSAT --segment_num 2 --dataset IWSLT16 --init_encoder_path ./checkpoint-token-zh-ti/b4-epoch-208-batch-441.ckp --train_src_file ../corpus/token/train.token.zh.shuf --train_tgt_file ../corpus/token/train.token.ti.shuf --valid_src_file ../corpus/token/dev.token.zh --valid_tgt_file ../corpus/token/dev.token.ti --vocab_path ../corpus/token/vocab.token.zhti.txt 出现的错误如下: 01/19/2021 08:48:31 - INFO - __main__...