如何让奇异值分解(SVD)变得不“奇异”?
30红色石头 发布于 2018-08-29
在之前的一篇文章:通俗解释协方差与相关系数,红色石头为大家通俗化地讲解了协方差是如何定义的,以及如何直观理解协方差,并且比较了协方差与相关系数的关系。 本文红色石头将继续使用白话语言,介绍机器学习中应用十分广泛的矩阵分解方法:奇异值分解(SVD)。本文不注重详细的数学推导,只注重...
阅读(14599)评论(0)赞 (20)
红色石头 发布于 2018-08-29
在之前的一篇文章:通俗解释协方差与相关系数,红色石头为大家通俗化地讲解了协方差是如何定义的,以及如何直观理解协方差,并且比较了协方差与相关系数的关系。 本文红色石头将继续使用白话语言,介绍机器学习中应用十分广泛的矩阵分解方法:奇异值分解(SVD)。本文不注重详细的数学推导,只注重...
阅读(14599)评论(0)赞 (20)
红色石头 发布于 2018-08-22
什么是协方差(Covariance)? 协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个...
阅读(10374)评论(0)赞 (13)
红色石头 发布于 2018-08-06
因为之前有不少朋友在微信或 QQ 上问我,机器学习、深度学习应该如何入门呢?对应这一问题,红色石头碰巧也在知乎上看到有人提问,就把自己的入门学习经验好好总结了一番,包括各种资源、课程笔记和建议,以及红色石头切身经历的机器学习路线图。希望对你有所帮助。 1. 放弃海量资料! 没错,...
阅读(69825)评论(1)赞 (78)
红色石头 发布于 2018-08-06
什么是梯度? 对于梯度下降算法(Gradient Descent Algorithm),我们都已经很熟悉了。无论是在线性回归(Linear Regression)、逻辑回归(Logistic Regression)还是神经网络(Neural Network)等等,都会用到梯度下降...
阅读(11376)评论(0)赞 (13)
红色石头 发布于 2018-07-31
一、介绍 本篇文章,我们将讨论所谓的“维度灾难”,并解释在设计一个分类器时它为何如此重要。在下面几节中我将对这个概念进行直观的解释,并通过一个由于维度灾难导致的过拟合的例子来讲解。 考虑这样一个例子,我们有一些图片,每张图片描绘的是小猫或者小狗。我们试图构建一个分类器来自动识别图...
阅读(5646)评论(0)赞 (1)
红色石头 发布于 2018-07-31
实际优化问题的目标函数往往比较复杂。为了使问题简化,通常将目标函数在某点附近展开为泰勒(Taylor)多项式来逼近原函数。 一元函数在点x_k处的泰勒展开式为: f(x) = f(x_k)+(x-x_k)f'(x_k)+\frac{1}{2!}(x-x_k)^2f”(...
阅读(22256)评论(0)赞 (16)