Dive-into-DL-PyTorch
Dive-into-DL-PyTorch copied to clipboard
3.11 欠拟合的图是不是有问题
欠拟合的图里为什么泛化误差比训练误差要小?
我画出来和书上是相反的。
对于欠拟合,我的理解是这样的:如果模型在训练集上就表现很差,那就是欠拟合了,不需要和测试集对比;如书中的例子那样,当欠拟合比较严重的时候,强行对比在训练集和测试集上的结果其实意义不大,可以看到训练集和测试集loss都是100的量级,几乎没学到东西(因为一开始也是100的量级),况且这个例子中样本数很少,所以欠拟合结果随机性比较大,说不定你再跑一次就是训练集loss小于测试集loss了。