深度学习

撒花!我建立了专属 GPU 云服务器租用平台!便宜、好用、速来!

12

红色石头 发布于 2021-12-08

学习深度学习,永远绕不开 GPU,跑模型。就算力来说,最合适的还是在一些适合跑深度学习的服务器上训练模型。我也用过不少深度学习服务器。但经常遇到3个主要问题: 一是算力不够; 二是价格较贵; 三是搭建深度学习环境麻烦。 相对来说,GPU 云服务器还是相对比较贵的。最近我发现恒源云...

阅读(1888)评论(0)赞 (1)

目标检测(1):初识 LeNet-5

11

红色石头 发布于 2021-12-07

大家好,我是红色石头! 说起深度学习目标检测算法,就不得不提 LeNet- 5 网络。LeNet-5由LeCun等人提出于1998年提出,是一种用于手写体字符识别的非常高效的卷积神经网络。出自论文《Gradient-Based Learning Applied to Docume...

阅读(1163)评论(0)赞 (0)

我 · 出 · 书 · 了!

3

红色石头 发布于 2021-10-12

跟大家说个事,也算是憋了很久,之前花了近一年时间撰写的 AI 书籍《深度学习入门:基于PyTorch和TensorFlow的理论与实现》终于正式出版了! 一睹真容: 这里跟大家唠一下,之前很多出版社的编辑找过我,想让我写一本关于机器学习或深度学习的入门教程。一开始我是拒绝的,大家...

阅读(2972)评论(2)赞 (22)

详解 BackPropagation 反向传播算法!

7

红色石头 发布于 2021-09-22

首先介绍一下链式法则 假如我们要求z对x1的偏导数,那么势必得先求z对t1的偏导数,这就是链式法则,一环扣一环 BackPropagation(BP)正是基于链式法则的,接下来用简单的前向传播网络为例来解释。里面有线的神经元代表的sigmoid函数,y_1代表的是经过模型预测出来...

阅读(63562)评论(0)赞 (0)

深入探讨!Batch 大小对训练的影响

13

红色石头 发布于 2021-08-12

一、概要: 批训练(mini-batch)的训练方法几乎每一个深度学习的任务都在用,但是关于批训练的一些问题却仍然保留,本文通过对MNIST数据集的演示,详细讨论了batch_size对训练的影响,结果均通过colab(https://colab.research.google....

阅读(3858)评论(0)赞 (3)

卷积神经网络(CNN)详解

19

红色石头 发布于 2021-08-05

章节 Filter 池化 Demo 冷知识 参考 CNN 一共分为输入,卷积,池化,拉直,softmax,输出 卷积由互关运算(用Filter完成)和激活函数 Filter CNN常用于图像识别,在深度学习中我们不可能直接将图片输入进去,向量是机器学习的通行证,我们将图片转换为像...

阅读(87954)评论(0)赞 (4)