LiuZhuang
LiuZhuang
感谢作者百忙之中的答复!🤡 ''' 1.参考mmdetection提供配置文件,将不必要得参数设置默认值。设置不同部件。 2.提供小型数据库,方便新人快速上手。 3.针对部署提供一些建议。 4.提供不同的数据加载方式,虽然现在的已经很方便了。 6.对一些参数提供必要的解释或者将对模型产生的影响。 7.fairseq在不停地迭代,提供稳定版的仓库,避免参数发生变化需要大范围改动。或者与fairseq解耦。 '''
The problem is conda.
were you able to resolve this?
> 之前有人回答了这个问题,主要是因为tf版本问题引起的,引用一下之前的回答: > ValueError: too many values to unpack (expected 2) > 这个问题,在core/sync_attention_wrapper.py里面,attention, alignments, attention_state = _compute_attention,这个返回了三个值,所以添加了这个attention_state,并且在下面next_state = seq2seq.AttentionWrapperState这个里面,缺了一项,缺了attention_state这个参数,直接将上面返回的attention_state给了这个输入 Thanks
谢谢提醒
GPU到CPU的耗时太严重了
主要的耗时出现在nms的时候,可以通过对nms加速,降低时间成本。
好像作者后来跟新模型但是没有跟新权重