:)s
:)s
@TonyHzr 是的,正则化项通常都是针对模型的所有参数的,在神经网络模型里面所有的参数就是连接权和阈值。
@chenshijin1 同学你好,感谢你的反馈,5.10已经改正,你没写错,这里就是错误反馈区 :)
@HLBayes 同学你好,5.12里面是对某个具体的theta_j求导,所以和其他j的取值无关,因此无需求和,例如,对theta_1求导时,跟theta_2、theta_3、theta_4等都没关系,所以只需要对theta_1求导即可。5.13里面是对某个具体的v_ih求导,由于任意一个v_ih的变动都会影响到y_1至y_l的结果,因此对v_ih求导时,需要分别将y_1至y_l对v_ih的求导结果加起来。
@ZuoGangwei 好的,后续安排,到时候在南瓜书读者交流群通知,进群方式参见README最下方
@SkyGra 同学你好,公式1.1计算的实际是误差的期望值,也就是在计算某个算法能学习出来的所有可能模型在训练集之外的所有样本上的误差的期望,第一个求和符号相当于在遍历这个算法能学习出来的所有可能模型,第二个求和符号就是在遍历训练集之外的所有样本,两个求和符号后面的式子表示的就是具体的模型在具体的样本上所产生的误差期望值。这个公式具体是作者提出的还是现有的这个我没有深究过,如果你有查到相关资料的话可以反馈一下 :)
@kevinlemon 同学你好,我的理解是这样的,对于每个假设来说,色泽、根蒂、敲声这三个特征的取值是有3种确定值+任意值(*)共4种可能取值,所以假设空间的规模大小为4x4x4+1(空集)=65
@yuruotong1 同学你好,能具体标注一下你说的是西瓜书的哪一页的哪一部分内容吗?
@Aikoin 同学你好,暂时还没有,但是在我们的计划中,但是可能还得鸽一段时间,目前正在加紧赶2.0版本的南瓜书•﹏•
@johnmaster 同学你好,因为(1-ε)^m=e^[m*ln(1-ε)],而e^[m*ln(1-ε)]是恒小于e^[m*(-ε)]的,所以(1-ε)^m也就恒小于e^[m*(-ε)]了。
@yanglei-github 同学你好,西瓜书里面的公式11.9应该是写错了,因为按照lipschitz-continuous的定义来看的话,公式11.9里面的L2范数的平方是应该去掉平方项的。