标签:深度学习

深度学习

目标检测(5):手撕 CNN 经典网络之 AlexNet(理论篇)

21

红色石头 发布于 2022-02-10

大家好,我是红色石头! 第一个典型的CNN是LeNet5网络,而第一个大放异彩的CNN却是AlexNet。2012年在全球知名的图像识别竞赛 ILSVRC 中,AlexNet 横空出世,直接将错误率降低了近 10 个百分点,这是之前所有机器学习模型无法做到的。 AlexNet的作...

阅读(2266)评论(0)赞 (0)

深度学习

目标检测(2):LeNet-5 的 PyTorch 复现(MNIST 手写数据集篇)

4

红色石头 发布于 2021-12-17

大家好,我是红色石头! 在上一篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 详细介绍了卷积神经网络 LeNet-5 的理论部分。今天我们将使用 Pytorch 来实现 LeNet-5 模型,并用它来解决 MNIST数据集的识别。 正文开始! 一、使用 LeNet-...

阅读(3750)评论(0)赞 (1)

深度学习

目标检测(1):初识 LeNet-5

11

红色石头 发布于 2021-12-07

大家好,我是红色石头! 说起深度学习目标检测算法,就不得不提 LeNet- 5 网络。LeNet-5由LeCun等人提出于1998年提出,是一种用于手写体字符识别的非常高效的卷积神经网络。出自论文《Gradient-Based Learning Applied to Docume...

阅读(4122)评论(0)赞 (3)

机器学习

我 · 出 · 书 · 了!

3

红色石头 发布于 2021-10-12

跟大家说个事,也算是憋了很久,之前花了近一年时间撰写的 AI 书籍《深度学习入门:基于PyTorch和TensorFlow的理论与实现》终于正式出版了! 一睹真容: 这里跟大家唠一下,之前很多出版社的编辑找过我,想让我写一本关于机器学习或深度学习的入门教程。一开始我是拒绝的,大家...

阅读(6072)评论(2)赞 (28)

深度学习

详解 BackPropagation 反向传播算法!

7

红色石头 发布于 2021-09-22

首先介绍一下链式法则 假如我们要求z对x1的偏导数,那么势必得先求z对t1的偏导数,这就是链式法则,一环扣一环 BackPropagation(BP)正是基于链式法则的,接下来用简单的前向传播网络为例来解释。里面有线的神经元代表的sigmoid函数,y_1代表的是经过模型预测出来...

阅读(66147)评论(0)赞 (1)

深度学习

深入探讨!Batch 大小对训练的影响

13

红色石头 发布于 2021-08-12

一、概要: 批训练(mini-batch)的训练方法几乎每一个深度学习的任务都在用,但是关于批训练的一些问题却仍然保留,本文通过对MNIST数据集的演示,详细讨论了batch_size对训练的影响,结果均通过colab(https://colab.research.google....

阅读(4940)评论(0)赞 (3)