piginzoo

Results 9 comments of piginzoo

我的也是不收敛,用的是CeleBa数据集,1万个分类,请教大神们,你们训练大数据集的时候,m和s超参多少啊?代码默认是m=0.5和s=30,不过我看了原始论文,他推荐是m=1.35,大概是77度。另外,论文里没有推荐半径s的值。这2个超参大家在训练过程中,如何把握的呢?请教 :https://github.com/piginzoo/arcface-pytorch.git

我修改了一下,目前已经收敛了, 用了resnet的avg层,减少了点参数;m=1.2,s=64;easy_margin = True(夹角超过180度,CosFace 代替 ArcFace),训练大概10个小时,1万个分类,train acc接近到1。跟大家分享一下。代码:https://github.com/piginzoo/arcface-pytorch

@sagniklp i submit the doc3d request from for week, not get any reply, pls help to check.

for fix-length text, its easy, you can fix the max length & min length to same value, like: config.xxx.yml: ``` MAX_LENGTH : 4 # 可能的最大长度(字符数) MIN_LENGTH : 4 # 可能的最小长度(字符数)...

i test it with max=min=10, the result is ok, so, you can try again. below is my runtime config file: [config.alphabeta.yml.zip](https://github.com/piginzoo/syntext/files/4835086/config.alphabeta.yml.zip) and the command is : bin/run.sh --dir data/output --worker...

unfortunately, i did not re-produce the paper, no time to continue the project, sorry for it.

是的,要到字符级别的,为此我写了一个labelme项目,可以在我github里找到。 论文里也是先用生成样本训练,再用真实样本调优。 不过我一直没能完全复现,现在忙工作上的事,没有再继续了。

哈哈,是,我喜欢第一个

运行 bin/crawler.sh就可以,有点小bugs,我修复了