吴恩达《Machine Learning》精炼笔记 1:监督学习与非监督学习
21红色石头 发布于 2020-11-28
0. 引言 吴恩达(Andrew Ng),毫无疑问,是全球人工智能(AI)领域的大 IP!然而,吴恩达从最早的 CS229,到后来的 deeplearning.ai 深度学习专项课程,还有其它 AI 资源,大神发布的 AI 知名课程和资料非常多。 说到吴恩达优秀的 AI 课程,首...
阅读(8429)评论(0)赞 (11)
红色石头 发布于 2020-11-28
0. 引言 吴恩达(Andrew Ng),毫无疑问,是全球人工智能(AI)领域的大 IP!然而,吴恩达从最早的 CS229,到后来的 deeplearning.ai 深度学习专项课程,还有其它 AI 资源,大神发布的 AI 知名课程和资料非常多。 说到吴恩达优秀的 AI 课程,首...
阅读(8429)评论(0)赞 (11)
红色石头 发布于 2020-11-27
机器学习是一门理论性和实战性都比较强的技术学科。在应聘机器学习相关工作岗位时,我们常常会遇到各种各样的机器学习问题和知识点。 算法理论基础不仅包含基本概念、数学基础,也包含了机器学习、深度学习相关。今天给大家推荐一个不错的算法理论基础面试题汇总资源,已开源~ 首先放上这份开源面试...
阅读(5084)评论(0)赞 (3)
红色石头 发布于 2020-11-27
微软剑桥研究院实验室主任 Christopher Bishop 的经典著作《Pattern Recognition and Machine Learning》,中文译名《模式识别与机器学习》,简称 PRML,深受广大机器学习爱好者好评! 在豆瓣上,这本书也是收到了 9.5 的高分...
阅读(5826)评论(0)赞 (1)
红色石头 发布于 2020-06-28
如今,AI有道已经陪伴读者两年了。在这段时间里,我们一直专注于人工智能最前沿的技术、干货和资讯,努力为读者呈现最有价值的 AI 信息,致力于为读者提供切实可行的 AI 学习路线。 两年的时间,我们已经发布了超过 160 篇技术干货文章,52 万字,电子版总共 1700 多页。内容...
阅读(41064)评论(0)赞 (13)
红色石头 发布于 2020-06-28
现在大家平时会遇到很多不错的机器学习资源,但是大多数情况下,资源比较分散,不方便集中管理和查阅。更重要的是往往很难找到一个系统完整的资源导航,形成系统的学习路线,方便搜索。 重磅!今天小编在网上“闲逛”的时候发现了一个超级棒的机器学习优质资源分类导航。至少节约大家 50% 的时间...
阅读(10522)评论(0)赞 (2)
红色石头 发布于 2020-06-28
作者:陈颖祥、杨子晗 编译:AI有道编译:AI有道 经过数据预处理和特征选择,我们已经生成了一个很好的特征子集。但是有时该子集可能仍然包含过多特征,导致需要花费太多的计算能力用以训练模型。在这种情况下,我们可以使用降维技术进一步压缩特征子集。但这可能会降低模型性能。 同时,如果我...
阅读(9391)评论(0)赞 (1)
红色石头 发布于 2020-05-24
数据预处理后,我们生成了大量的新变量(比如独热编码生成了大量仅包含0或1的变量)。但实际上,部分新生成的变量可能是多余:一方面它们本身不一定包含有用的信息,故无法提高模型性能;另一方面过这些多余变量在构建模型时会消耗大量内存和计算能力。因此,我们应该进行特征选择并选择特征子集进行...
阅读(9655)评论(0)赞 (2)
红色石头 发布于 2020-05-07
数据预处理后,我们生成了大量的新变量(比如独热编码生成了大量仅包含0或1的变量)。但实际上,部分新生成的变量可能是多余:一方面它们本身不一定包含有用的信息,故无法提高模型性能;另一方面过这些多余变量在构建模型时会消耗大量内存和计算能力。因此,我们应该进行特征选择并选择特征子集进行...
阅读(10525)评论(0)赞 (1)
红色石头 发布于 2020-04-24
数据预处理后,我们生成了大量的新变量(比如独热编码生成了大量仅包含0或1的变量)。但实际上,部分新生成的变量可能是多余:一方面它们本身不一定包含有用的信息,故无法提高模型性能;另一方面过这些多余变量在构建模型时会消耗大量内存和计算能力。因此,我们应该进行特征选择并选择特征子集进行...
阅读(10134)评论(0)赞 (2)
红色石头 发布于 2020-04-24
数据预处理后,我们生成了大量的新变量(比如独热编码生成了大量仅包含0或1的变量)。但实际上,部分新生成的变量可能是多余:一方面它们本身不一定包含有用的信息,故无法提高模型性能;另一方面过这些多余变量在构建模型时会消耗大量内存和计算能力。因此,我们应该进行特征选择并选择特征子集进行...
阅读(8762)评论(0)赞 (2)