火爆 GitHub 的《机器学习 100 天》,现在出了视频讲解!
7红色石头 发布于 2022-08-04
大家好!我是红色石头! 曾经在 GitHub 上有一个爆火的《100-Days-Of-ML-Code》项目,收获了近 4w star。可惜的是原作者只出了一小部分内容,停更 4 年之久了! 没关系!今天我花几个月打造的《机器学习100天》计划已经开始! 之前,我在知乎上写的一篇“...
阅读(18981)评论(0)赞 (5)
红色石头 发布于 2022-08-04
大家好!我是红色石头! 曾经在 GitHub 上有一个爆火的《100-Days-Of-ML-Code》项目,收获了近 4w star。可惜的是原作者只出了一小部分内容,停更 4 年之久了! 没关系!今天我花几个月打造的《机器学习100天》计划已经开始! 之前,我在知乎上写的一篇“...
阅读(18981)评论(0)赞 (5)
红色石头 发布于 2022-02-28
2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司一起研发了新的卷积神经网络,并命名为VGGNet。VGGNet是比AlexNet更深的深度卷积神经网络,该模型获得了2014年ILSVRC竞赛的第二名,第一名是Goo...
阅读(32534)评论(0)赞 (4)
红色石头 发布于 2022-02-10
大家好,我是红色石头! 第一个典型的CNN是LeNet5网络,而第一个大放异彩的CNN却是AlexNet。2012年在全球知名的图像识别竞赛 ILSVRC 中,AlexNet 横空出世,直接将错误率降低了近 10 个百分点,这是之前所有机器学习模型无法做到的。 AlexNet的作...
阅读(20706)评论(0)赞 (1)
红色石头 发布于 2022-01-07
大家好,我是红色石头! 在上三篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 我用 PyTorch 复现了 LeNet-5 神经网络(MNIST 手写数据集篇)! 我用 PyTorch 复现了 LeNet-5 神经网络(CIFAR10 数据集篇)! 详细介绍了卷积神...
阅读(20569)评论(0)赞 (3)
红色石头 发布于 2021-12-28
大家好,我是红色石头! 在上两篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 我用 PyTorch 复现了 LeNet-5 神经网络(MNIST 手写数据集篇)! 详细介绍了卷积神经网络 LeNet-5 的理论部分和使用 PyTorch 复现 LeNet-5 网络来...
阅读(20830)评论(0)赞 (2)
红色石头 发布于 2021-12-17
大家好,我是红色石头! 在上一篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 详细介绍了卷积神经网络 LeNet-5 的理论部分。今天我们将使用 Pytorch 来实现 LeNet-5 模型,并用它来解决 MNIST数据集的识别。 正文开始! 一、使用 LeNet-...
阅读(21670)评论(0)赞 (2)
红色石头 发布于 2021-12-07
大家好,我是红色石头! 说起深度学习目标检测算法,就不得不提 LeNet- 5 网络。LeNet-5由LeCun等人提出于1998年提出,是一种用于手写体字符识别的非常高效的卷积神经网络。出自论文《Gradient-Based Learning Applied to Docume...
阅读(21834)评论(0)赞 (3)
红色石头 发布于 2021-10-12
跟大家说个事,也算是憋了很久,之前花了近一年时间撰写的 AI 书籍《深度学习入门:基于PyTorch和TensorFlow的理论与实现》终于正式出版了! 一睹真容: 这里跟大家唠一下,之前很多出版社的编辑找过我,想让我写一本关于机器学习或深度学习的入门教程。一开始我是拒绝的,大家...
阅读(24867)评论(2)赞 (28)
红色石头 发布于 2021-09-22
机器学习、深度学习最简单的入门方式就是基于 Python 开始编程实战。最近闲逛 GitHub,发现了一个非常不错的 Python 学习实例集,完全是基于 Python 来实现包括 ML、DL 等领域。推荐给大家~ 首先放上该开源项目的 GitHub 地址: https://gi...
阅读(24807)评论(0)赞 (10)
红色石头 发布于 2021-09-22
首先介绍一下链式法则 假如我们要求z对x1的偏导数,那么势必得先求z对t1的偏导数,这就是链式法则,一环扣一环 BackPropagation(BP)正是基于链式法则的,接下来用简单的前向传播网络为例来解释。里面有线的神经元代表的sigmoid函数,y_1代表的是经过模型预测出来...
阅读(68498)评论(0)赞 (1)