目标检测(6):手撕 CNN 经典网络之 VGGNet(理论篇)
16红色石头 发布于 2022-02-28
2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司一起研发了新的卷积神经网络,并命名为VGGNet。VGGNet是比AlexNet更深的深度卷积神经网络,该模型获得了2014年ILSVRC竞赛的第二名,第一名是Goo...
阅读(34391)评论(0)赞 (4)
红色石头 发布于 2022-02-28
2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司一起研发了新的卷积神经网络,并命名为VGGNet。VGGNet是比AlexNet更深的深度卷积神经网络,该模型获得了2014年ILSVRC竞赛的第二名,第一名是Goo...
阅读(34391)评论(0)赞 (4)
红色石头 发布于 2022-02-10
大家好,我是红色石头! 第一个典型的CNN是LeNet5网络,而第一个大放异彩的CNN却是AlexNet。2012年在全球知名的图像识别竞赛 ILSVRC 中,AlexNet 横空出世,直接将错误率降低了近 10 个百分点,这是之前所有机器学习模型无法做到的。 AlexNet的作...
阅读(22141)评论(0)赞 (1)
红色石头 发布于 2022-01-07
大家好,我是红色石头! 在上三篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 我用 PyTorch 复现了 LeNet-5 神经网络(MNIST 手写数据集篇)! 我用 PyTorch 复现了 LeNet-5 神经网络(CIFAR10 数据集篇)! 详细介绍了卷积神...
阅读(21989)评论(0)赞 (3)
红色石头 发布于 2021-12-28
大家好,我是红色石头! 在上两篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 我用 PyTorch 复现了 LeNet-5 神经网络(MNIST 手写数据集篇)! 详细介绍了卷积神经网络 LeNet-5 的理论部分和使用 PyTorch 复现 LeNet-5 网络来...
阅读(22268)评论(0)赞 (2)
红色石头 发布于 2021-12-17
大家好,我是红色石头! 在上一篇文章: 这可能是神经网络 LeNet-5 最详细的解释了! 详细介绍了卷积神经网络 LeNet-5 的理论部分。今天我们将使用 Pytorch 来实现 LeNet-5 模型,并用它来解决 MNIST数据集的识别。 正文开始! 一、使用 LeNet-...
阅读(23159)评论(0)赞 (2)
红色石头 发布于 2021-12-08
学习深度学习,永远绕不开 GPU,跑模型。就算力来说,最合适的还是在一些适合跑深度学习的服务器上训练模型。我也用过不少深度学习服务器。但经常遇到3个主要问题: 一是算力不够; 二是价格较贵; 三是搭建深度学习环境麻烦。 相对来说,GPU 云服务器还是相对比较贵的。最近我发现恒源云...
阅读(24970)评论(0)赞 (2)
红色石头 发布于 2021-12-07
大家好,我是红色石头! 说起深度学习目标检测算法,就不得不提 LeNet- 5 网络。LeNet-5由LeCun等人提出于1998年提出,是一种用于手写体字符识别的非常高效的卷积神经网络。出自论文《Gradient-Based Learning Applied to Docume...
阅读(23229)评论(0)赞 (4)
红色石头 发布于 2021-10-12
跟大家说个事,也算是憋了很久,之前花了近一年时间撰写的 AI 书籍《深度学习入门:基于PyTorch和TensorFlow的理论与实现》终于正式出版了! 一睹真容: 这里跟大家唠一下,之前很多出版社的编辑找过我,想让我写一本关于机器学习或深度学习的入门教程。一开始我是拒绝的,大家...
阅读(26314)评论(2)赞 (28)
红色石头 发布于 2021-09-22
机器学习、深度学习最简单的入门方式就是基于 Python 开始编程实战。最近闲逛 GitHub,发现了一个非常不错的 Python 学习实例集,完全是基于 Python 来实现包括 ML、DL 等领域。推荐给大家~ 首先放上该开源项目的 GitHub 地址: https://gi...
阅读(26277)评论(0)赞 (10)
红色石头 发布于 2021-09-22
首先介绍一下链式法则 假如我们要求z对x1的偏导数,那么势必得先求z对t1的偏导数,这就是链式法则,一环扣一环 BackPropagation(BP)正是基于链式法则的,接下来用简单的前向传播网络为例来解释。里面有线的神经元代表的sigmoid函数,y_1代表的是经过模型预测出来...
阅读(68570)评论(0)赞 (1)