林轩田机器学习技法课程学习笔记8 — Adaptive Boosting
33红色石头 发布于 2018-07-28
本节课主要介绍了Adaptive Boosting。首先通过讲一个老师教小学生识别苹果的例子,来引入Boosting的思想,即把许多“弱弱”的hypotheses合并起来,变成很强的预测模型。然后重点介绍这种算法如何实现,关键在于每次迭代时,给予样本不同的系数u,宗旨是放大错误样...
阅读(9400)评论(3)赞 (3)
红色石头 发布于 2018-07-28
本节课主要介绍了Adaptive Boosting。首先通过讲一个老师教小学生识别苹果的例子,来引入Boosting的思想,即把许多“弱弱”的hypotheses合并起来,变成很强的预测模型。然后重点介绍这种算法如何实现,关键在于每次迭代时,给予样本不同的系数u,宗旨是放大错误样...
阅读(9400)评论(3)赞 (3)
红色石头 发布于 2018-07-28
本节课主要介绍了blending和bagging的方法,它们都属于aggregation,即将不同的gt合并起来,利用集体的智慧得到更加优化的G(t)。Blending通常分为三种情况:Uniform Blending,Linear Blending和Any Blending。其...
阅读(8176)评论(0)赞 (7)
红色石头 发布于 2018-07-25
本节课主要介绍了SVR,我们先通过representer theorem理论,将ridge regression转化为kernel的形式,即kernel ridge regression,并推导了SVR的解。但是得到的解是dense的,大部分为非零值。所以,我们定义新的tube ...
阅读(8200)评论(0)赞 (4)
红色石头 发布于 2018-07-25
本节课主要介绍了Kernel Logistic Regression。首先把Soft-Margin SVM解释成Regularized Model,建立二者之间的联系,其实Soft-Margin SVM就是一个L2-regularization,对应着hinge error me...
阅读(7918)评论(0)赞 (2)
红色石头 发布于 2018-07-25
本节课主要介绍了Soft-Margin SVM。我们的出发点是与Hard-Margin SVM不同,不一定要将所有的样本点都完全分开,允许有分类错误的点,而使margin比较宽。然后,我们根据之前介绍的Dual SVM,推导出了Soft-Margin SVM的QP形式。接着介绍了...
阅读(9005)评论(1)赞 (4)
红色石头 发布于 2018-07-25
本节课主要介绍了Kernel Support Vector Machine。首先,我们将特征转换和计算内积的操作合并到一起,消除了矩阵内积复杂的影响,提高了计算速度。然后,分别推导了Polynomial Kernel和Gaussian Kernel,并列举了各自的优缺点并做了比较...
阅读(8628)评论(0)赞 (3)
红色石头 发布于 2018-07-25
本节课主要介绍了SVM的另一种形式:Dual SVM。Dual SVM的推导过程是通过引入拉格朗日因子,将SVM转化为新的非条件形式;然后,利用QP,得到最佳解的拉格朗日因子;再通过KKT条件,计算得到对应的w和b。最终求得fattest hyperplane。...
阅读(10378)评论(0)赞 (4)
红色石头 发布于 2018-07-25
本节课主要介绍了线性支持向量机(Linear Support Vector Machine)。我们先从视觉角度出发,希望得到一个比较“胖”的分类面,即满足所有的点距离分类面都尽可能远。然后,我们通过一步步推导和简化,最终把这个问题转换为标准的二次规划(QP)问题。二次规划问题可以...
阅读(15964)评论(0)赞 (18)
红色石头 发布于 2018-07-25
本节课主要介绍了机器学习三个重要的锦囊妙计:Occam's Razor, Sampling Bias, Data Snooping。并对《机器学习基石》课程中介绍的所有知识和方法进行“三的威力”这种形式的概括与总结,“三的威力”也就构成了坚固的机器学习基石。...
阅读(10339)评论(0)赞 (13)
红色石头 发布于 2018-07-24
本节课主要介绍了Validation验证。先从如何选择一个好的模型开始切入,例如使用Ein、Etest都是不太好的,最终使用Eval来进行模型选择。然后详细介绍了Validation的过程。最后,介绍了Leave-One-Out和V-Fold Cross两种验证方法,比较它们各自...
阅读(9118)评论(0)赞 (5)