2020-01-10 09:13:10
卷积神经网络之空间金字塔池化方法
空间金字塔池化,要解决的就是从卷积层到全连接层之间的一个过渡。使用金字塔池化,使得任意大小的特征图都能够转换成固定大小的特征向量。
分类:网络日志 | 评论:0 | 浏览:160| 阅读全文
2020-01-07 16:52:06
机器学习重要概念:梯度(Gradient)与梯度下降法(Gradient Descent)
机器学习中的大部分问题都是优化问题,而绝大部分优化问题都可以使用梯度下降法处理,那么搞懂什么是梯度,什么是梯度下降法就非常重要!这是基础中的基础,也是必须掌握的概念!
分类:网络日志 | 评论:0 | 浏览:266| 阅读全文
2020-01-03 16:33:21
卷积神经网络的训练过程(前向传播、反向传播过程)
卷积神经网络的训练过程分为两个阶段。第一个阶段是数据由低层次向高层次传播的阶段,另外一个阶段是,当前向传播得出的结果与预期不相符时,将误差从高层次向底层次进行传播训练的阶段。
分类:网络日志 | 评论:0 | 浏览:314| 阅读全文
2020-01-03 09:12:18
卷积神经网络简介
卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子采样层(池化层)构成的特征抽取器。
分类:网络日志 | 评论:0 | 浏览:183| 阅读全文
2020-01-02 15:07:34
图示卷积神经网络之激活函数RelU (Rectified Linear Units)
常用的激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层。
分类:网络日志 | 评论:0 | 浏览:215| 阅读全文
2020-01-02 14:56:14
图示卷积神经网络之池化(Pooling)过程和作用
为了有效地减少计算量,CNN卷积神经网络使用的另一个有效的工具被称为“池化(Pooling)”。池化就是将输入图像进行缩小,减少像素信息,只保留重要信息。
分类:网络日志 | 评论:0 | 浏览:262| 阅读全文
2019-12-31 09:27:11
卷积神经网络各种池化
在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果。
分类:网络日志 | 评论:0 | 浏览:149| 阅读全文
2019-12-30 15:06:23
常用激活函数(激励函数)理解与总结
学习神经网络的时候我们总是听到激活函数这个词,而且很多资料都会提到常用的激活函数,比如Sigmoid函数、tanh函数、Relu函数。本文的内容包括几个部分:
分类:网络日志 | 评论:0 | 浏览:206| 阅读全文
2019-12-30 10:17:17
深度学习(DL, Deep Learning)简介
深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
分类:网络日志 | 评论:0 | 浏览:160| 阅读全文
2019-12-27 16:00:37
神经网络基础:神经元模型、激活函数、神经网络模型
神经网络中最基本的单元是神经元模型(neuron)。细胞体分为两部分:
分类:网络日志 | 评论:0 | 浏览:267| 阅读全文
2019-12-27 15:02:08
前馈神经网络
前馈神经网络(feedforward neural network,FNN),简称前馈网络,是人工神经网络的一种。前馈神经网络采用一种单向多层结构。
分类:网络日志 | 评论:0 | 浏览:258| 阅读全文
2019-12-27 11:11:21
CNN中图像卷积操作的通道、滤波器、步长的理解
文章通过动画演示图像卷积操作的通道、滤波器、步长的概念。