ZJ
ZJ
这个调整是通过脚本还是重新标注的啊,如果是脚本的话请问能详细说一下调整的参数设置么,我这边准备在全部的MAFA数据集上都调整一遍 感谢 @AIZOOTech
@wenlihaoyu 用的是百度要自己编译的那个ctc,我现在用了一个pytorch的梯度裁剪,最后中期居然还是会出现nan,我用的优化器参考你的adadelta,lr=0.1, 我这边训练的是单词,batchsize 32时候最后图片基本resize到的最大尺寸为(32,300)上下
@WangXuanBT 谢谢回复,我也是调了batchsize、lr、梯度裁剪、optimizer最后中后期还是会nan,还有就是针对单词这种识别我觉得最后可能固定尺寸的输入可能结果还会好点,如果是中文或者英文句子的识别,大概率还是避不开不定长训练这个问题吧
@WangXuanBT 请问你那边实验来看,seq2seq+attention的方案比crnn+ctc的方案,优缺点在哪里啊,速度?准确率?
@wenlihaoyu 谢谢回复,其实我用的是pytorch0.4 加百度的ctc训练的,我之前定长训练的时候很顺利,只是到了不定长训练才会loss nan。你说的数据分组逐层训练的意思是
谢谢你的解释,感谢感谢 @WangXuanBT
[https://github.com/zeusees/HyperFT/blob/master/Prj-Linux/LandmarkTracking.h#L221](https://github.com/zeusees/HyperFT/blob/master/Prj-Linux/LandmarkTracking.h#L221)我看了下这个faceROI_Image是没有值的,导致运行doingLandmark_onet函数core dumped
本地视频是有人脸的,编译去掉/usr/lib/x86_64-linux-gnu/libsqlite3.so是可以过的,请教下链接时候这个库的作用是什么啊
[https://github.com/xiangdeyizhang/FaceTrack_ncnn_HyperFT](https://github.com/xiangdeyizhang/FaceTrack_ncnn_HyperFT)这个是吧,我跑的就是这个版本的,请问您这个版本跟这个有区别么,还没试