zzh

Results 13 comments of zzh

Ayh, I meet the same question. Could someone explain it? Thanks~

I think the model is too simple! So its matching competence is not enough to hold so much data. When I use 189999 samples, the final loss is around 2.2....

老哥,求教你的其他超参数设置。

总比零的好阿,我刚刚又调了调,总算不是零了。

作者的model是一个五层CNN,经过多次调参,测试集准确率最高到50%。 和同学探讨之后,认为模型(五层CNN)过于简单(也可能我们调参不够好),于是我们将模型换为了34层的残差网络res34-net,达到了测试集上86%的准确率。 86% Setting:1W例训练集、1000例测试集、15-30个epoch、64大小batch_size、学习率0.0002,loss最终在0.001左右。

另外,作者的版本为CPU版本,改成GPU版本的跑起来会很快(如果有一块不错的显卡),欢迎大家把更高准确率的模型训练详情po在这里,一起学习,共同进步!

没错,没有改动别的,只有模型层。 ---------- 该邮件从移动设备发送 --------------原始邮件-------------- 发件人:"燦哲 "

没有,torch.nn里定义好的模型

> > 作者的model是一个五层CNN,经过多次调参,测试集准确率最高到50%。 > > 和同学探讨之后,认为模型(五层CNN)过于简单(也可能我们调参不够好),于是我们将模型换为了34层的残差网络res34-net,达到了测试集上86%的准确率。 > > 86% Setting:1W例训练集、1000例测试集、15-30个epoch、64大小batch_size、学习率0.0002,loss最终在0.001左右。 > > 我也是新手,才做了3天, > 我的想法是,想从更简单的开始尝试,然后再慢慢改模型,3w的训练数据 > 简单模型是两层卷积+两层全连接 > setting1:2个字符、3w训练、10 epoch、test 1k、acc:76% > setting2:4个字符、3w训练、12 epoch、test 1k、acc:20% > 基本还没有调参经验 > 请教一下:1w的数据很容易过拟合,是因为模型太简单了吗?我其实就是把该项目的卷积层改到了2层 模型简单只会欠拟合,目前这个情况看来是作者释放的模型超参有问题,具体改法你可以看看其他人的分享~

> > 作者的model是一个五层CNN,经过多次调参,测试集准确率最高到50%。 > > 和同学探讨之后,认为模型(五层CNN)过于简单(也可能我们调参不够好),于是我们将模型换为了34层的残差网络res34-net,达到了测试集上86%的准确率。 > > 86% Setting:1W例训练集、1000例测试集、15-30个epoch、64大小batch_size、学习率0.0002,loss最终在0.001左右。 > > 感谢楼主,按照楼主方法,5个字符长度,1w训练集,500测试集完全用楼主参数精度只有22%。后来动态调整了lr, > 精度达84%,调整如下 初始为 parser.add_argument("--learning_rate", type=float, default=0.001) > 训练中调整如下 > lr = opt.learning_rate * (0.1 ** (epoch //...