woshi91
woshi91
  是什么原因呢?
请教大师, 深度学习通过数百万的数据学习到的是海量的特征还是具有兼容性的少量特征 不好描述, 通俗的说我想知道 比如我就学习一个字 “好”字, 这个字我有100万个不同的图片, 不相同的特征可能有几十万个(比如钩、丿、弯,用了数十万中不同笔迹),不同角度放到cnn中学习, cnn中是否需要存储这数十万的特征, 每次做特征匹配是否也需要比较数十万中特征做匹配? 没有地方能查找资料,请大师随便说几句
def shrink(xy_list, ratio=cfg.shrink_ratio): if ratio == 0.0: return xy_list, xy_list diff_1to3 = xy_list[:3, :] - xy_list[1:4, :] diff_4 = xy_list[3:4, :] - xy_list[0:1, :] diff = np.concatenate((diff_1to3, diff_4), axis=0) dis...
请教,我看别人只用DenseNet也能做ocr识别, 为何还要加cptn?
https://ptorch.com/news/223.html https://github.com/yinchangchang/ocr_densenet
网页文档之类的截图识别效果稍好, 拍照如果字体斜一点就不认识了, 是模型不适合做这个斜字识别还是训练不够?
比如 55555, 其他库都只能识别出5,55之类的