我整理了 50 页 PPT 来解释 SVM
43红色石头 发布于 2018-12-03
支持向量机 SVM,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。但是想完全掌握 SVM 的理论知识包括 SMO 算法并不容易!红色石头之前在整理 SVM 内容的时候做了一个 PPT,比较清晰完整地介绍了 SVM。主要内容包...
阅读(8567)评论(2)赞 (17)
红色石头 发布于 2018-12-03
支持向量机 SVM,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。但是想完全掌握 SVM 的理论知识包括 SMO 算法并不容易!红色石头之前在整理 SVM 内容的时候做了一个 PPT,比较清晰完整地介绍了 SVM。主要内容包...
阅读(8567)评论(2)赞 (17)
红色石头 发布于 2018-11-26
简而言之,因为机器学习的主要任务就是选择合适的机器学习算法在数据集上进行训练,所以不好的算法和不好的数据都可能严重影响训练效果。下面我们先来看看不好的数据会带来什么影响。 1.4.1 训练数据不足 对一个蹒跚学步的孩子来说,如何识别苹果?方法是拿出很多各种各样颜色、形状的苹果图片...
阅读(6193)评论(2)赞 (6)
红色石头 发布于 2018-11-20
本章介绍的是每一个数据科学家都应该知道并听说的机器学习许多基本的概念和术语。这将是一个高层次的概括(本书唯一没有很多代码的一章)。内容很简单,但是你要保证在进行下一章之前对本章每个概念都理解得很透彻。因此,端起一杯咖啡,让我们开始吧! 1 什么是机器学习? 机器学习是一门通过编程...
阅读(6950)评论(0)赞 (7)
红色石头 发布于 2018-11-08
前阵子因为机器学习训练营的任务安排,需要打一场 AI 比赛。然后就了解到最近热度很高且非常适合新人入门的一场比赛:天池新人实战赛o2o优惠券使用预测。今天,红色石头把这场比赛的一些初级理论分析和代码实操分享给大家。本文会讲解的很细,目的是带领大家走一遍比赛流程,实现机器学习理论分...
阅读(14101)评论(6)赞 (11)
红色石头 发布于 2018-09-16
在监督式机器学习中,无论是回归问题还是分类问题,都少不了使用损失函数(Loss Function)。损失函数(Loss Function)是用来估量模型的预测值 f(x) 与真实值 y 的不一致程度。若损失函数很小,表明机器学习模型与数据真实分布很接近,则模型性能良好;若损失函数...
阅读(13370)评论(0)赞 (10)
红色石头 发布于 2018-08-22
什么是协方差(Covariance)? 协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个...
阅读(10195)评论(0)赞 (13)
红色石头 发布于 2018-08-14
机器学习是一门理论性和实战性都比较强的技术学科。在应聘机器学习相关工作岗位时,我们常常会遇到各种各样的机器学习问题和知识点。为了帮助大家对这些知识点进行梳理和理解,以便能够更好地应对机器学习笔试包括面试。红色石头准备在公众号连载一些机器学习笔试题系列文章,希望能够对大家有所帮助!...
阅读(9537)评论(0)赞 (9)
红色石头 发布于 2018-08-06
因为之前有不少朋友在微信或 QQ 上问我,机器学习、深度学习应该如何入门呢?对应这一问题,红色石头碰巧也在知乎上看到有人提问,就把自己的入门学习经验好好总结了一番,包括各种资源、课程笔记和建议,以及红色石头切身经历的机器学习路线图。希望对你有所帮助。 1. 放弃海量资料! 没错,...
阅读(68247)评论(1)赞 (78)
红色石头 发布于 2018-08-06
什么是梯度? 对于梯度下降算法(Gradient Descent Algorithm),我们都已经很熟悉了。无论是在线性回归(Linear Regression)、逻辑回归(Logistic Regression)还是神经网络(Neural Network)等等,都会用到梯度下降...
阅读(11296)评论(0)赞 (13)
红色石头 发布于 2018-08-03
吴恩达(Andrew Ng)在 Coursera 上开设的机器学习入门课《Machine Learning》,授课地址是: Coursera Andrew Ng Machine Learning 关于这门课的官方介绍是:本课程将广泛介绍机器学习、数据挖掘和统计模式识别。相关主题包...
阅读(15004)评论(1)赞 (17)