Machine-Learning-Session
Machine-Learning-Session copied to clipboard
对于初学者来说,理论到实现还是一个鸿沟,up主可不可以考虑将这些求解方法用python一步步实现一下?结合简单的数据集进行分类,或者结合现有的框架和库,比如tensorflow,sklearn。 看了你讲的SVM章,确实看西瓜书变得顺利了,但是发现现实中利用二次规划算法来求解模型的很少,所以实际操作的时候还是觉得力不从心,无从下手。如果up主能讲讲怎么和现有实际数据结合那就更好啦!
您好。 视频中说,分母中同Xi无关的部分都被约掉。不太明白分母中Xi子节点部分是怎么约掉的,即使没有了Xi也还有其他父节点呀。详见图1。 另外pdf中关于这一部分的公式(图2)是不是写错了?  
第一章贝叶斯预测部分 p(x,theta|X) = p(x|theta)p(theta|X) 可以讲一下详细推导么?
感知机的损失函数
感知机的损失函数并不是错分的样本点个数,-y_i w^{T} x_i,w^{T} x_i的结果并不是+1或者-1。这里是错分样本点的函数间隔之和。
十分感谢。
老师,可不可以讲讲狄利克雷分布以及HDP哈,这个根本就看不明白
老师你好,最近在看机器学习-白板推导系列视频,有一个小问题,在第五章降维部分的P3,推导最大投影方差时,计算J(u_1)时用到了(x_i-x_ba)*u_1为一个实数,因此可以对调写成u_1*(x_i-x_ba),这里怎么说明它是一个实数呢?