TongYoungG
TongYoungG
您好,在densenet训练阶段,train.prototxt中是否要设置BN层在TRAIN和TEST两种phase下的参数use_global_stats的状态,例如这样: layer { bottom: "conv6" top: "conv6" name: "bn_conv6" type: "BatchNorm" batch_norm_param { use_global_stats: false } include { phase: TRAIN } } layer { bottom: "conv6" top: "conv6" name: "bn_conv6"...
 您好,请问下这里的fuse_score是什么作用?是用检测框的分数来约束iou的可信度吗?
您好,谢谢您的无私分享。我将crnn中的cnn结构替换成densenet结构时,遇到了一些问题。 1. solver文件设置test_initialization: true,TEST阶段的ctcloss=nan,accuarcy=0,一直到训练结束。 我打印训练日志看了下,TEST阶段连个LSTM层的输出均为nan,且bn层的参数值也不正常。  2. 设置test_initialization: false时,1的问题就解决了,但是在模型训练好之后,利用模型对测试集进行评估时,准确率在45%左右;实际训练中训练集准确率=1, 验证集准确率为98%;我又用模型对验证集的准确率进行了统计,准确率也在55%左右。 这个问题一直困扰我很久,如果你也碰到了类似问题,请问有没有什么解决办法
作者您好,我在您代码中发现了上述两个函数 "ctc_ent_loss_log" 和 “ctc_ent_loss”。从代码实现上,“ctc_ent_loss”更符合直观的认识。我在读"ctc_ent_loss_log"函数时有点吃力,以下是几个问题想请教您: (1)您为什么选择"ctc_ent_loss_log"函数,是因为网络的output存在负项吗? (2)能解释下"ctc_ent_loss_log"函数做了哪些变化吗,我读起来感觉具体的实现和论文中貌似有些不太一致。 谢谢,期待您的回复。