才子佳人博客

我的故事我讲述

相关度度量之皮尔逊相关系数

相关系数的绝对值越大,相关性越强,相关系数越接近于1或-1,相关度越强,相关系数越接近于0,相关度越弱。

精神分裂症脑网络研究简介(一)

静息态脑网络的研究方法已经被广泛地应用到精神分裂症的研究中,目前的研究大致分为三个方向。

梯度消失与梯度爆炸问题简述

文章简述了梯度消失与梯度爆炸问题、成因及解决办法。

分类与聚类,监督学习与无监督学习

文章简要介绍了分类和聚类的基本概念、常见的分类与聚类算法以及监督学习与无监督学习概念。

模式识别基本概念、研究方法及其应用领域

文章简要介绍了模式识别的基本概念、研究方法及模式识别的应用领域。

ILSVRC竞赛项目详细介绍

ILSVRC是近年来机器视觉领域最受追捧也是最具权威的学术竞赛之一,代表了图像领域的最高水平。ILSVRC竞赛的项目主要包括以下几个问题:

卷积神经网络中全连接层及其反向传播的理解

全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。

卷积神经网络之空间金字塔池化方法

空间金字塔池化,要解决的就是从卷积层到全连接层之间的一个过渡。使用金字塔池化,使得任意大小的特征图都能够转换成固定大小的特征向量。

机器学习重要概念:梯度(Gradient)与梯度下降法(Gradient Descent)

机器学习中的大部分问题都是优化问题,而绝大部分优化问题都可以使用梯度下降法处理,那么搞懂什么是梯度,什么是梯度下降法就非常重要!这是基础中的基础,也是必须掌握的概念!

卷积神经网络的训练过程(前向传播、反向传播过程)

卷积神经网络的训练过程分为两个阶段。第一个阶段是数据由低层次向高层次传播的阶段,另外一个阶段是,当前向传播得出的结果与预期不相符时,将误差从高层次向底层次进行传播训练的阶段。

卷积神经网络简介

卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子采样层(池化层)构成的特征抽取器。

图示卷积神经网络之激活函数RelU (Rectified Linear Units)

常用的激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层。

图示卷积神经网络之池化(Pooling)过程和作用

为了有效地减少计算量,CNN卷积神经网络使用的另一个有效的工具被称为“池化(Pooling)”。池化就是将输入图像进行缩小,减少像素信息,只保留重要信息。

卷积神经网络之感受野

感受野用来表示网络内部的不同神经元对原图像的感受范围的大小。

卷积神经网络各种池化

在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果。

[4/33][<<][1][2][3][4][5][6][7][8][9][10][>>]