:)s
:)s
@hehuakun 这是我前面给另一位同学发的ROC曲线画法:https://www.cnblogs.com/dlml/p/4403482.html,PR曲线思路一致。
@gitwbc 同学你好,书上确实是没说这种情况,但是实际应用场景中确实存在这种情况,而且公式2.21也是有考虑到这种情形,所以我们才对公式2.21进行了解析。
@PASSENGER128 好的,这个公式我们补充完后会艾特你 :)
@wanyixue 同学你好,损失函数L是关于w和theta的函数,只有w和theta是未知的变量,\hat(yi)和yi都是已知量,所以不用对他们求导,因此也不存在不可导一说
@wanyixue 因为最开始我们会随机初始化一个w_0和theta_0,然后会将所有样本代入模型找到分类错误的点构成误分类点集合M,接着从M中随机选一个误分类点(xi,yi),根据w_0和theta_0计算出\hat(yi),最后算出梯度并将w_0和theta_0按照参数更新公式更新到w_1和theta_1,所以此时\hat(yi)是已知量,这块南瓜书上没有展开写,推荐你去看李航老师的《统计学习方法》中的感知机那一节,里面有道例题,你跟着例题算一下会更容易理解。
超过7天无反对意见自动通过
先占坑,待推进一段时间后由项目负责人继续发起立项流程
in order to place the video link, we have to sacrifice the page number.
超时自动通过