nndl
nndl copied to clipboard
Another Chinese Translation of Neural Networks and Deep Learning
"直接跳到该表达式如何关联于小时的梯度问题的"应为"直接跳到该表达式如何关联于消失的梯度问题的"
140页翻译,"仅仅需要计算⽐特的对的奇偶性,然后使⽤这些结果来计算⽐特对的对的奇偶性"读起来很别扭,改成"仅仅需要计算⽐特对的奇偶性,然后使⽤这些结果来计算⽐特对的对的奇偶性"似乎更妥?
"注意,这如何调整从各⾃的隐藏神经元的贡献值"翻译成“注意观察各权重值的改变如何影响各隐藏神经元的贡献值“更妥
底部"节约函数"应为"阶跃函数“
``` ./title.tex|12 error| LaTeX Error: File `cayley' not found. ``` ```{.tex} \includegraphics{cayley}\\ ```
"对第⼆个卷积–池化层有20 x 20 x 12 个输⼊" 应该是20×12×12 ? https://github.com/zhanggyb/nndl/blob/master/chap6.tex#L484
P75页上方,权重向量的长度是指权重向量的模吗?还有为什么长度很大的时候梯度下降带来的变化仅仅会引起在那个方向发生微小的变化。这句话怎么理解?
因为latex环境及字体的问题,尝试编译都失败了。请问您是否方便上传和分享最终的编译输出版本?谢谢!
P77, 物理学“家”Hans Bethe。 P93,“识别”为同样的数字的。 P93,他们不只旋转,还“平移”和扭曲图像来扩展训练数据。 P129,不“同”位置累加许多不同高度的塔 P140,另一“方”面,如果你使用更深的线路,那么可以使用规模很小的线路来计算奇偶性。 P150,“取得”最高值约0.45 P153,“本章仍然在Beta版...”这段话已经在英文原文最新版上删除了。 P154,这样的浅层网络直到“00年代中期”都占据优势 P168,这样的一个“网络”真的应该被称为一个深度网络吗? P169,“但除此之外,层的数目并不是首要的根本的点。”这句话需要意译。我尝试翻译了一版。 P169,“我们做出一个改动,在大部分情况下,我们得到了改进。” P169,为了加快这⼀进程,你可能会发现回顾第三章关于如何选择一个神经网络的超参数的讨论“,以及看一些那一小节中建议的补充阅读,会有所帮助。“ P181,英文原文已经补充了一些 P184,我们允许网络中的元素能够以动态方式不断”变化“ P185,基于RNN 的方法,已经在”音素识别“中 P186,因此,”计算机文化很大程度上意味着认同计算机是完全照字面意义的";一个小小的分号放错便会完全改变和计算机的交互含义。 P186,我们期待着创造出意图驱动的用户”界面“ P187,采取了一些方法后可以避免”过拟合“ P189,像受控核聚变和其他技术一样,”已经有 60 多年一直认为还有 10 年的距离才能有重大发现。“ P189,还有”许多“相当开放的根本性问题
规范化-正则化
建议将规范化翻译成正则化,另外建议将关键的名词保留英文+括弧