火爆 GitHub 的《机器学习 100 天》,现在出了视频讲解!
7红色石头 发布于 2022-08-04
大家好!我是红色石头! 曾经在 GitHub 上有一个爆火的《100-Days-Of-ML-Code》项目,收获了近 4w star。可惜的是原作者只出了一小部分内容,停更 4 年之久了! 没关系!今天我花几个月打造的《机器学习100天》计划已经开始! 之前,我在知乎上写的一篇“...
阅读(23956)评论(0)赞 (6)
红色石头 发布于 2022-08-04
大家好!我是红色石头! 曾经在 GitHub 上有一个爆火的《100-Days-Of-ML-Code》项目,收获了近 4w star。可惜的是原作者只出了一小部分内容,停更 4 年之久了! 没关系!今天我花几个月打造的《机器学习100天》计划已经开始! 之前,我在知乎上写的一篇“...
阅读(23956)评论(0)赞 (6)
红色石头 发布于 2022-02-28
2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司一起研发了新的卷积神经网络,并命名为VGGNet。VGGNet是比AlexNet更深的深度卷积神经网络,该模型获得了2014年ILSVRC竞赛的第二名,第一名是Goo...
阅读(38410)评论(0)赞 (4)
红色石头 发布于 2022-02-10
大家好,我是红色石头! 第一个典型的CNN是LeNet5网络,而第一个大放异彩的CNN却是AlexNet。2012年在全球知名的图像识别竞赛 ILSVRC 中,AlexNet 横空出世,直接将错误率降低了近 10 个百分点,这是之前所有机器学习模型无法做到的。 AlexNet的作...
阅读(25531)评论(0)赞 (1)
红色石头 发布于 2022-01-07
大家好,我是红色石头! 在上三篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 我用 PyTorch 复现了 LeNet-5 神经网络(MNIST 手写数据集篇)! 我用 PyTorch 复现了 LeNet-5 神经网络(CIFAR10 数据集篇)! 详细介绍了卷积神...
阅读(25346)评论(0)赞 (3)
红色石头 发布于 2021-12-28
大家好,我是红色石头! 在上两篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 我用 PyTorch 复现了 LeNet-5 神经网络(MNIST 手写数据集篇)! 详细介绍了卷积神经网络 LeNet-5 的理论部分和使用 PyTorch 复现 LeNet-5 网络来...
阅读(25618)评论(0)赞 (2)
红色石头 发布于 2021-12-17
大家好,我是红色石头! 在上一篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 详细介绍了卷积神经网络 LeNet-5 的理论部分。今天我们将使用 Pytorch 来实现 LeNet-5 模型,并用它来解决 MNIST数据集的识别。 正文开始! 一、使用 LeNet-...
阅读(26600)评论(0)赞 (2)
红色石头 发布于 2021-12-07
大家好,我是红色石头! 说起深度学习目标检测算法,就不得不提 LeNet- 5 网络。LeNet-5由LeCun等人提出于1998年提出,是一种用于手写体字符识别的非常高效的卷积神经网络。出自论文《Gradient-Based Learning Applied to Docume...
阅读(26591)评论(0)赞 (4)
红色石头 发布于 2020-07-16
大名鼎鼎的 Mask RCNN 一举夺得 ICCV2017 Best Paper,名声大造。Mask RCNN 是何恺明基于以往的 Faster RCNN 架构提出的新的卷积网络,实现高效地检测图中的物体,并同时生成一张高质量的每个个体的分割掩码,即有效地目标的同时完成了高质量的...
阅读(10848)评论(0)赞 (5)
红色石头 发布于 2020-06-28
作者:陈颖祥、杨子晗 编译:AI有道编译:AI有道 经过数据预处理和特征选择,我们已经生成了一个很好的特征子集。但是有时该子集可能仍然包含过多特征,导致需要花费太多的计算能力用以训练模型。在这种情况下,我们可以使用降维技术进一步压缩特征子集。但这可能会降低模型性能。 同时,如果我...
阅读(9416)评论(0)赞 (1)
红色石头 发布于 2020-05-24
数据预处理后,我们生成了大量的新变量(比如独热编码生成了大量仅包含0或1的变量)。但实际上,部分新生成的变量可能是多余:一方面它们本身不一定包含有用的信息,故无法提高模型性能;另一方面过这些多余变量在构建模型时会消耗大量内存和计算能力。因此,我们应该进行特征选择并选择特征子集进行...
阅读(9685)评论(0)赞 (2)