liangzz1991
liangzz1991
same question......and find this phenomenon occurs in half of the total epoch.....
you may generated four files.(checkpoint,data,meta,index). so if you want run demo.py,you should modify some code of demo.py: saver = tf.train.Saver() saver.restore(sess, args.model) to saver =tf.train.Saver(write_version =saver_pb2.SaverDef.V1) ckpt =tf.train.get_checkpoint_state(args.model) print("ckpt:", ckpt)...
def parse_args(): """Parse input arguments.""" parser = argparse.ArgumentParser(description='Faster R-CNN demo') parser.add_argument('--gpu', dest='gpu_id', help='GPU device id to use [0]', default=0, type=int) parser.add_argument('--cpu', dest='cpu_mode', help='Use CPU mode (overrides --gpu)', action='store_true') parser.add_argument('--net', dest='demo_net',...
> @lelechen63What are the meanings of `new_16_full_gt_train.pkl` and `region_16_wrap_gt_train2.pkl` , can you explain? `lrw_data.py` is not very clear .Thanks. 臣附议,,,, @lelechen63
> @wjbKimberly @lelechen63 Hi there, i also encountered the same problem. I want to train the ATNet with my own dataset, the landmark data is preprocessed using code extracted from...
我理解就是用了CPM的config和tokenier(其实也是gpt2),作者利用中文数据从头训练作文生成模型,所以也就跟cpm提供的模型关系不大,我刚开始也认为作者是finetune的cpm....一直在cpm官网找对应的pretrain
yolo3通过聚类求anchor时候,,x,y同样置为0,相当于中心对齐了,求出最合理的w,h大小。这里也是对齐之后,就可以求出gt的最佳尺度在不在当前的feature map上,不在就contiues(其它层feature map负责);在的话索引其位置,用当前的wh去回归 代码我看的不是很仔细,这是我的理解
@foralliance 这gt的中心,除以比例直接映射到featuremap的某个grid中,由这个grid负责回归(类似x,y=320,320,除以32,在 gird就是(10,10)这个负责),再通过中心对齐的方式找到一个最合理的wh的anchor这个感觉没问题啊。。你说的可能多个gt同时映射到某一个gird或者不同的grid,这也没问题啊,各自选择最合理的anchor就行了啊。。欢迎讨论,发现问题,我看的有段时间了,也不是特别仔细
三个feature map分开计算效率确实有点低了,但训练效果挺好,加其它策略也方便,就是训练时间太长了