Arthur Deng
Arthur Deng
If you are working on your own dataset, the problem may be caused by evaluating with the lexicon(not available). You can modify the eval_config in 'experiments/demo/config/trainval.prototxt' to not use the...
@Tracin @ChChwang @loralyc @Pay20Y 想请问大佬们对这个还有印象么,我按照楼主的方法进行了修改。但是发现只要label里面带中文,训练依然有问题,虽然不报错,但是收敛飞快,预测时会将所有输入预测成“0”。 感觉还是utf-8编码的问题,有人知道可能的原因吗。
@ChChwang 感谢回复,想请问大佬是在label中存在中文的情况下,切实训练成功了吗?效果大致如何? 我严格按照楼主的2,3,4步骤预处理了label,加入分隔符。我的label是车牌数据,所以同时包含中文英文,为了统一我每个字符之间都加了分隔符。只有第一步我偷了下懒,把label_map_builder.py里面的ALLCASES_SYMBOLS情况下,直接添加了我需要的中文字符。 character_set = list(string.digits + string.ascii_letters + ‘陕鲁皖....’) 然后我基本在迭代1k时loss就会降到1e-3量级,测试结果全部为‘0’.
> @rfdeng,中文是三个字节,英文和数字是一个字节。我之前训练成功了,双向中文比单向中文没有提升多少,矫正网络学习的很好。想改分布式训练,分布式训练几步后,有几台会挂掉,如果你跑分布式成功告诉我一下,谢谢 中英文加分隔符之后,tf.string_split不会按字节分的,应该不是这个问题。我目前是把中文字符重新映射成其他非中文字符加到label里去了。这样分布式训练没问题。。。但是label里只要带中文就会挂。我和别人讨论,有个兄弟讲不同的中文label会全部被映射成1个character_set里面的同一个index,我还没来得及check。
> @Tracin @ChChwang @rfdeng 小弟新手,请问中文加空格,只是在groundtruth 加 ? 还是 中文字符集中也要加?我这边按照 @Tracin 说的修改了,但识别结果为0 groundtruth也要加,我们遇到的可能是同一个问题,我后来debug发现原因是原始的配置文件中对训练的输入数据有一个string_filtering的操作。这一步会导致你label中所有非预先定义的字符集字符被过滤掉,这本来是原文中为了过滤标点符号和大小写统一的,但是这里会导致我们添加的分隔符被过滤掉。 所以可以在字符集里添加你设定的分隔符,或者说直接注释掉string_filtering对应的那个data_augmentation_options。我选用的是第二种方法。
thanks for reply. @djhoese I have checked both python scripts you mentioned above. And I write a test script like this: ------------------------------------- ``` import ctypes from ctypes import c_int as...
> @rfdeng Hi, i also find that osmesa backend is too slow, but my egl backend always get fllowing error. I am running on a remote terminal, do you know...