常见的五种神经网络(2)-卷积神经网络

在这里插入图片描述


该系列的其他文章:


卷积神经网络(Convolutional Neural Network)是一种具有局部连接,权重共享等特性的深层前馈神经网络。一般是由卷积层,汇聚层,全连接层交叉堆叠而成,使用反向传播算法进行训练。其有三个结构上的特征:局部连接,权重共享以及汇聚。这些特征使得卷积神经网络具有一定程度上的平移,缩放和旋转不变性。较前馈神经网络而言,其参数更少。

卷积神经网络目前主要应用在图像和视频分析的各种任务上,比如图像分类,人脸识别,物体识别,图像分割等,其准确率也远远超过了其他的人工神经网络。近年来,卷积神经网络也应用到自然语言处理和推荐系统等领域。

卷积的概念

卷积(Convolution)也叫摺积,是分析数学中一种重要的运算。在信号处理或者图像处理中,会经常使用一维或二维卷积。

一维卷积

一维卷积经常用在信号处理上,用来计算信号的累积。假设一个信号发生器每个时刻t发生一个信号 x t x_t xt,其信号衰减率维 w k w_k wk,即在 k − 1 k-1 k1时刻后,信息变为原来的 w k w_k wk倍,假设 w 1 = 1 , w 2 = 1 / 2 , w 3 = 1 / 4 w_1 = 1, w_2=1/2,w_3=1/4 w1=1,w2=1/2,w3=1/4那么在t时刻收到的信号 y t y_t yt为当前时刻产生的信息之前时刻产生的延迟信息的叠加(公式1.1)。
y t = 1 ∗ x t + 1 / 2 ∗ x t − 1 + 1 / 4 ∗ x t − 2 = w 1 ∗ x t + w 2 ∗ x t − 1 + w 3 ∗ x t − 2 = ∑ k = 1 3 w k ∗ x t − k + 1 y_t = 1 * x_t + 1/2 * x_{t-1} + 1/4 * x_{t-2} \\ =w_1 * x_t + w_2 * x_{t-1} + w_3 * x{t-2} \\ = \sum_{k=1}^{3} w_k * x_{t-k+1} yt=1xt+1/2xt1+1/4xt2=w1xt+w2xt1+w3xt2=k=13wkxtk+1
我们把 w 1 , w 2 , . . . . w_1, w_2, .... w1,w2,....称为滤波器(Filter)或者卷积核(Convolution Kernel)。假设滤波器长度为m,它和一个信号序列 x 1 , x 2 , . . . x_1,x_2,... x1,x2,...的卷积为(公式1.2):
∑ k = 1 m w k ∗ x t − k + 1 \sum_{k=1}^{m} w_k * x_{t-k+1} k=1mwkxtk+1
信号序列x和滤波器w的卷积定义为(公式1.3):
y = w ⊗ x y = w \otimes x y=wx
一维卷积示例如下:
一维卷积神经网络

二维卷积

卷积也常用在图像处理中,因为图像是一个二维结构,需要对一维卷积进行扩展。给定一个图像 X ∈ R M ∗ N X \in R^{M*N} XRMN和滤波器 W ∈ R m ∗ n W \in R^{m*n} WRmn,一般 m < < M , n < < N m << M, n <<N m<<M,n<<N,其卷积为(公式1.4):
y i j = ∑ u = 1 M ∑ v = 1 N w u v ∗ x i − u + 1 , j − v + 1 y_{ij}=\sum_{u=1}^{M}\sum_{v=1}^{N} w_{uv} * x_{i-u+1,j-v+1} yij=u=1Mv=1Nwuvxiu+1,jv+1
二维卷积示例如下:
二维卷积示例

注意:上图中的展示的卷积核(3*3矩阵)和二维结构数据相乘时需要逆时针旋转180度!对照着卷积公式可以理解。

互相关

在计算卷积过程中,需要进行卷积核翻转,在具体实现上一般会以互相关操作来代替卷积,从而会减少一些不必要的操作或者开销。互相关是一个衡量两个序列相关性的函数,通常是用滑动窗口的点积计算来实现。给定一个图像 X ∈ R M ∗ N X \in R^{M*N} XRMN和卷积核 W ∈ R m ∗ n W \in R^{m*n} WRmn,他们的互相关为(公式1.5):
y i j = ∑ u = 1 M ∑ v = 1 N w u v ∗ x i + u − 1 , j + v − 1 y_{ij}=\sum_{u=1}^{M}\sum_{v=1}^{N} w_{uv} * x_{i+u-1,j+v-1} yij=u=1Mv=1Nwuvxi+u1,j+v1
和公式1.4相比,互相关和卷积的区别在于是否对卷积核进行翻转,因此互相关也称为不翻转卷积。

在神经网络中使用卷积是为了进行特征抽取,卷积核是否进行核翻转与其特征抽取能力无关。特别是当卷积核是可学习的参数时,卷积和互相关是等价的,因此为了实现方便,通常使用互相关来代替卷积。事实上很多深度学习工具中卷积操作都是用互相关来代替的。

公式1.5可以表示为:

Y = W ⊗ X Y = W \otimes X Y=WX


常见的卷积核及特征

常见的卷积核

  1. 对图像无任何影响的卷积核
    [ 0 0 0 0 1 0 0 0 0 ] \begin{bmatrix} 0 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \end{bmatrix} 000010000
  2. 对图像进行锐化的滤波器
    [ − 1 − 1 − 1 − 1 9 − 1 − 1 − 1 − 1 ] \begin{bmatrix} -1 & -1 & -1 \\ -1 & 9 & -1 \\ -1 & -1 & -1 \end{bmatrix} 111191111
  3. 浮雕滤波器
    [ − 1 − 1 0 − 1 0 1 0 1 1 ] \begin{bmatrix} -1 & -1 & 0 \\ -1 & 0 & 1 \\ 0 & 1 & 1 \end{bmatrix} 110101011
  4. 均值模糊滤波器
    [ 0 0.2 0 0.2 0.2 0.2 0 0.2 0 ] \begin{bmatrix} 0 & 0.2 & 0 \\ 0.2 & 0.2 & 0.2 \\ 0 & 0.2 & 0 \end{bmatrix} 00.200.20.20.200.20

均值模糊是对像素点周围的像素进行均值化处理,将上下左右及当前像素点分文5份,然后进行平均,每份占0.2,即对当前像素点周围的点进行均值化处理。

  1. 高斯模糊滤波器

均值模糊是一种简单的模糊处理方式,但是会现实模糊不够平滑,而高斯模糊可以很好的处理,因此高斯模糊经常用于图像的降噪处理上,尤其是在边缘检测之前,进行高斯模糊,可以移除细节带来的影响。

  • 一维高斯模糊
    G ( x ) = 1 2 π σ 2 e ( − x 2 2 σ 2 ) G(x)=\frac{1}{ \sqrt{2 \pi \sigma ^2}} e^{( -\frac{x^2}{2\sigma ^2} )} G(x)=2πσ2 1e(2σ2x2)
  • 二维高斯模糊
    G ( x ) = 1 2 π σ 2 e ( − x 2 + y 2 2 σ 2 ) G(x)=\frac{1}{ \sqrt{2 \pi \sigma ^2}} e^{( -\frac{x^2+y^2}{2\sigma ^2} )} G(x)=2πσ2 1e(2σ2x2+y2)

卷积核的特征

这里的滤波器就是卷积核

  • 当滤波器矩阵中的值相加为0甚至更小时,被滤波器处理之后的图像相对会比原始图像暗,值越小越暗
  • 当滤波器矩阵中的值相加和为1时,被滤波器处理之后的图像与原始图像的亮度相比几乎一致
  • 当滤波器矩阵中的值相加和大于1时,被滤波器处理之后的图像相对会比原始图像的亮度更亮

卷积的变种

在卷积的标准定义基础上,还可以引入滤波器的滑动步长和零填充来增加卷积的多样性,可以更加灵活的提取特征。

  • 滤波器的步长(Stride)是指滤波器在滑动时的时间间隔
  • 零填充(Zero Padding)是在输入向量两端进行补零

下图展示为步长为2和零填充的示例:
步长为2和零填充示例

假设卷积层的输入神经元个数为n,卷积大小为m,步长为s,输入神经元两端各补p各零,那么该卷积对应的神经元数量为:(n+2p-m)/s + 1。

一般的卷积分为以下三种:

  • 窄卷积(Narrow Convolution):步长s=1,两端不补零即p=0,卷积后输出长度为:n-m + 1
  • 宽卷积(Wide Convolution):步长s=1,两端补零p=m-1,卷积后输出长度为:n+m-1
  • 等宽卷积(Equal-Width Convolution):步长s = 1,两端补零p = (m −1)/2,卷积后输出长度 n。

卷积的数学性质

卷积有很多比较好的数学性质,这里主要介绍一些二维的数学性质,同样针对一维卷积也同样适用。

交换性

如果不限制两个卷积的长度,卷积是具有交换性的。即 x ⊗ y = y ⊗ x x \otimes y = y \otimes x xy=yx,当输入信息和卷积核有固定长度时,他们的宽卷积依然具有交换性。对于两维图像 X ∈ R M ∗ N X \in R^{M*N} XRMN和卷积核 W ∈ R m ∗ n W \in R^{m*n} WRmn,对图像X的两个维度进行零填充,两端各补m-1和n-1个零,得到全填充(Full Padding)的图像 X ~ ∈ R ( M + 2 m − 2 ) ( N + 2 n − 2 ) \tilde{X} \in R^{(M+2m-2)(N+2n-2)} X~R(M+2m2)(N+2n2)。图像X和卷积核W的宽卷积(Wide Convolution)定义为: W ⊗ ~ X ≜ X ⊗ ~ W W \tilde{\otimes } X \triangleq X \tilde{\otimes } W W~XX~W
,其中 ⊗ ~ \tilde{\otimes } ~为宽卷积操作。宽卷积具有交换性,即: W ⊗ ~ X = X ⊗ ~ W W \tilde{\otimes } X = X \tilde{\otimes } W W~X=X~W

导数

假设 Y = W ⊗ X Y = W \otimes X Y=WX,其中 X ∈ R M ∗ N X \in R^{M*N} XRMN W ∈ R m ∗ n W \in R^{m*n} WRmn Y ∈ R ( M − m + 1 ) ∗ ( N − n + 1 ) Y \in R^{(M-m+1)*(N-n+1)} YR(Mm+1)(Nn+1),函数 f ( Y ) ∈ R f(Y) \in R f(Y)R为一个标量函数,则(公式1.6)
∂ f ( Y ) ∂ w u v = ∑ i = 1 M − m + 1 ∑ j = 1 N − n + 1 ∂ f ( Y ) ∂ y i j ∂ y i j ∂ w u v = ∑ i = 1 M − m + 1 ∑ j = 1 N − n + 1 ∂ f ( Y ) ∂ y i j x i + u − 1 , j + v − 1 = ∑ i = 1 M − m + 1 ∑ j = 1 N − n + 1 ∂ f ( Y ) ∂ y i j x u + i − 1 , v + j − 1 \frac{\partial f(Y)}{\partial w_{uv}} = \sum_{i=1}^{M-m+1}\sum_{j=1}^{N-n+1} \frac{\partial f(Y)}{\partial y_{ij}} \frac{\partial y_{ij}}{\partial w_{uv}} \\ = \sum_{i=1}^{M-m+1}\sum_{j=1}^{N-n+1} \frac{\partial f(Y)}{\partial y_{ij}}x_{{i+u-1},{j+v-1}} \\ = \sum_{i=1}^{M-m+1}\sum_{j=1}^{N-n+1} \frac{\partial f(Y)}{\partial y_{ij}}x_{{u+i-1},{v+j-1}} wuvf(Y)=i=1Mm+1j=1Nn+1yijf(Y)wuvyij=i=1Mm+1j=1Nn+1yijf(Y)xi+u1,j+v1=i=1Mm+1j=1Nn+1yijf(Y)xu+i1,v+j1
从公式1.6可以看出,f(Y)关于W的偏导数为X和 ∂ f ( Y ) ∂ Y \frac{\partial f(Y)}{\partial Y} Yf(Y)的卷积(公式1.7)
∂ f ( Y ) ∂ W = ∂ f ( Y ) ∂ Y ⊗ X \frac{\partial f(Y)}{\partial W} = \frac{\partial f(Y)}{ \partial Y } \otimes X Wf(Y)=Yf(Y)X
同理得到(公式1.8):
∂ f ( Y ) ∂ x s t = ∑ i = 1 M − m + 1 ∑ j = 1 N − n + 1 ∂ f ( Y ) ∂ y i j ∂ y i j ∂ x s t = ∑ i = 1 M − m + 1 ∑ j = 1 N − n + 1 ∂ f ( Y ) ∂ y i j w s − i + 1 , t − j + 1 \frac{\partial f(Y)}{\partial x_{st}} = \sum_{i=1}^{M-m+1}\sum_{j=1}^{N-n+1} \frac{\partial f(Y)}{\partial y_{ij}} \frac{\partial y_{ij}}{\partial x_{st}} \\ = \sum_{i=1}^{M-m+1}\sum_{j=1}^{N-n+1} \frac{\partial f(Y)}{\partial y_{ij}}w_{{s-i+1},{t-j+1}} xstf(Y)=i=1Mm+1j=1Nn+1yijf(Y)xstyij=i=1Mm+1j=1Nn+1yijf(Y)wsi+1,tj+1
其中当 ( s − i + 1 ) < 1 (s-i+1) < 1 (si+1)<1,或 ( s − i + 1 ) > m (s-i+1)>m (si+1)>m,或 ( t − j + 1 ) < 1 (t-j+1) <1 (tj+1)<1,或 ( t − j + 1 ) > n (t-j+1) >n (tj+1)>n,或 w s − i + 1 , t − j + 1 = 0 w_{s-i+1,t-j+1}=0 wsi+1,tj+1=0时,即相当于对W进行了 p=(M-m,N-n)的零填充。

从公式1.8可以看出,f(Y)关于X的偏导数为W和 ∂ f ( Y ) ∂ Y \frac{\partial f(Y)}{ \partial Y } Yf(Y),公式1.8中的卷积是真正的卷积而不是互相关,为了一致性,我们用互相关的卷积,即(公式1.9):
∂ f ( Y ) ∂ X = r o t 180 ( ∂ f ( Y ) ∂ X ) ⊗ ~ W = r o t 180 ( W ) ⊗ ~ ∂ f ( Y ) ∂ X \frac{\partial f(Y)}{\partial X} = rot180(\frac{\partial f(Y)}{\partial X}) \tilde{\otimes }W=rot180(W) \tilde{\otimes }\frac{\partial f(Y)}{\partial X} Xf(Y)=rot180(Xf(Y))~W=rot180(W)~Xf(Y)
其中rot180(.)表示旋转180度。


卷积神经网络

卷积神经网络一般由卷积层,汇聚层和全连接层构成。

用卷积代替全连接

在全连接前馈神经网络中,如果第 l l l层有 n l n^l nl个神经元,第 l − 1 l-1 l1层有 n l − 1 n^{l-1} nl1个神经元,连接边就有 n l ∗ n l − 1 n^l * n^{l-1} nlnl1也就是权重参数有这么多个,当m和n都很大时,权重矩阵的参数会非常多,训练的效率会非常低。

如果用卷积代替全连接,第 l l l层的净输入 z l z^l zl l − 1 l-1 l1层活性值 a l − 1 a^{l-1} al1和滤波器 w l ∈ R m w^l \in R^m wlRm的卷积,即 z l = w l ∗ a l − 1 + b l z^l = w^l * a^{l-1} + b^l zl=wlal1+bl,其中滤波器 w l w^l wl
为可学习的权重向量, b l ∈ R l − 1 b^l \in R^{l-1} blRl1为可学习的偏置。

根据卷积的定义,卷积层有两个很重要的性质:

  • 局部连接:在卷积层(假设是第 l l l层)中的每一个神经元都只和下一层(第 l − 1 l − 1 l1层)中某个局部窗口内的神经元相连,构成一个局部连接网络。
  • 全局共享:作为参数的滤波器 w l w^l wl,对于第 l l l层的所有的神经元都是相同的。

卷积层

卷积层的作用是提取一个局部区域的特征,不同大小的卷积相当于不同的特征提取器。上文介绍的卷积和神经元都是一维的,但卷积神经网络主要是针对图像处理而言的,而图像通常是二维的,为了充分利用图像的局部特征,通常将神经元组织为三维结构的神经层,其大小 M * 宽度 W * 深度 D,即D个M*N的特征映射组成。

对于输入层的而言,特征映射就是图像本身,如果是灰色图像,则深度为1,如果为彩色图像(分别是RGB三个通道的颜色特征映射),则深度为3。

汇聚层

汇聚层(Pooling Layer)也叫子采样层(Subsampling Layer),其作用是进行特征选择,降低特征数量,从而减少参数数量。

卷积层虽然可以明显减少网络中的连接数量,但是特征映射中的神经元个数并未显著减少。如果后边接一个分类器的话,分类器的输入维数依然很高,很容易出现过拟合。因此有了汇聚层的产生,在卷积后边加一个汇聚层,从而降低特征维数,避免过拟合。

假设汇聚层的输入特征映射组为 X ∈ R M ∗ N ∗ D X \in R^{M * N * D} XRMND,对于其中每一个映射 X d X^d Xd,将其划分为很多区域 R m , n d R^d_{m,n} Rm,nd,1 <= m <= M’,1<= n <= N’,这些区域可以重叠,也可以不重叠。汇聚(Pooling)是指对每个区域进行下采样(Down Sampling)得到一个值,作为这个区域的概括。常见的汇聚方式有两种:

  • 最大汇聚(Maximum Pooling):一个区域内所有神经元的最大值
  • 平均汇聚(Mean Pooling):一个区域内所有神经元的平均值

典型的汇聚层是将每个特征映射划分为2*2大小的不重叠区域,然后使用最大汇聚的方式进行下采样。汇聚层也可以看作是一个特殊的卷积层,卷积核大小为m * m,步长为s * s,卷积核为 max函数或者mean函数。过大的采样区域会急剧减少神经元的数量,会造成过多的信息损失。

下图所示为最大汇聚示例:
最大汇聚实例

全连接层

在全连接层中,将最后一层的卷积输出展开,并将当前层的每个节点与下一层的另一个节点连接起来。全连接层只是人工神经网络的另一种说法,如下图所示,全连接层中的操作与一般神经网络中的操作完全相同。

image

对于output layer中的的每个神经元,其表达式可以记做为(公式1.10):
y = σ ( ∑ i = 1 m w i T x i + b ) y = \sigma (\sum_{i=1}^{m} w_i ^T x_i + b) y=σ(i=1mwiTxi+b)
如果outptu有多个神经元,最终可以通过softmax进行最终类别的判断。


典型的卷积网络结构

一个典型的卷积网络是有卷积层,汇聚层,全连接层交叉堆叠而成。目前常用的卷积神经网络结构如下图所示:
卷积神经网络

卷积块是由M个卷积层b个汇聚层(M通常在2~之间,b为0或1),一个卷积网络中可以堆叠N个连续的卷积块,然后再接着K个全连接层(N的取值空间比较大,一般是1~100或者更大,K通常为0~2)。

目前整个网络倾向于使用更小的卷积核(比如11或者33)以及更深的结构(比如层数大于50),此外,卷积操作的灵活性越来越大,汇聚层的作用变得越来越小,因此目前流行的卷积网络中,汇聚层的比例也在逐渐降低,倾向于全连接网络。


参数学习

在卷积神经网络中,参数为卷积核中的权重和偏置,和全连接前馈神经网络一样,使用误差反向传播算法来进行参数学习。梯度主要通过每一层的误差项 δ \delta δ进行反向传播,并进一步计算每一层的梯度。在卷积神经网络中主要有两种功能不同的网络层:卷积层和汇聚层。而参数为卷积核中权重和偏置,因此只需要计算卷积层中参数梯度。

不失一般性,对第 l l l层卷积层,第 l − 1 l-1 l1层的输入特征映射为 X ( l − 1 ) ∈ R M ∗ N ∗ D X^{(l-1)} \in R^{M*N*D} X(l1)RMND,通过卷积计算得到第 l l l层净输入为 Z ( l ) ∈ R M ′ ∗ N ′ ∗ P Z^{(l)}\in R^{M'*N'*P} Z(l)RMNP,第 l l l层的第p(1<= p <= P)个特征净输入为(公式1.11)
Z ( l , p ) = ∑ d = 1 D W ( l , p , d ) ⊗ X ( l − 1 , d ) + b ( l , p ) Z^{(l,p)} = \sum_{d=1}^{D} W^{(l,p,d)} \otimes X^{(l-1,d)}+ b^{(l,p)} Z(l,p)=d=1DW(l,p,d)X(l1,d)+b(l,p)
其中 W ( l , p , d ) , b ( l , p ) W^{(l,p,d)} ,b^{(l,p)} W(l,p,d),b(l,p)为卷积核以及偏置。第 l l l层共有P * D 个卷积和P个偏置,可以分别使用链式法则计算其梯度。

根据公式1.7 和 1.11,损失函数关于第 l l l层的卷积核 W ( l , p , d ) W^{(l,p,d)} W(l,p,d)的偏导数为为(公式1.12):
∂ L ( Y , Y ^ ) ∂ W ( l , p , d ) = ∂ L ( Y , Y ^ ) ∂ Z ( l , p ) ⊗ X ( l − 1 , d ) = δ ( l , p ) ⊗ X ( l − 1 , d ) \frac{\partial L (Y,\hat{Y})}{ \partial W^{(l,p,d)} } = \frac{\partial L (Y,\hat{Y})}{ \partial Z^{(l,p)} } \otimes X^{(l-1,d)}=\delta ^{(l,p)} \otimes X^{(l-1,d)} W(l,p,d)L(Y,Y^)=Z(l,p)L(Y,Y^)X(l1,d)=δ(l,p)X(l1,d)
其中为(公式1.13)
δ ( l , p ) = ∂ L ( Y , Y ^ ) ∂ Z ( l , p ) \delta ^{(l,p)} = \frac{\partial L (Y,\hat{Y})}{ \partial Z^{(l,p)} } δ(l,p)=Z(l,p)L(Y,Y^)
为损失函数关于第 l l l层的第p个特征映射净输入 Z ( l , p ) Z^{(l,p)} Z(l,p)的偏导数。

同理可得,损失函数关于第 l l l层的第p个偏置 b ( l , p ) b^{(l,p)} b(l,p)的偏导数为为(公式1.14):
∂ L ( Y , Y ^ ) ∂ b ( l , p ) = ∑ i , j [ δ ( l , p ) ] i , j \frac{ \partial L (Y,\hat{Y}) }{ \partial b^{(l,p)} } = \sum_{i,j} [\delta ^{(l,p)}]_{i,j} b(l,p)L(Y,Y^)=i,j[δ(l,p)]i,j
卷积网络中,每层参数的梯度依赖其所在层的误差项 δ ( l , p ) \delta ^{(l,p)} δ(l,p)

误差项的计算

卷积层和汇聚层的误差项计算不同。

卷积层

l + 1 l+1 l+1层为卷积层时,假设特征映射净输入(公式1.15)
Z ( l + 1 , p ) = ∑ d = 1 D W ( l + 1 , p , d ) ⊗ X ( l , d ) + b ( l + 1 , p ) Z^{(l+1,p)} = \sum_{d=1}^{D} W^{(l+1,p,d)} \otimes X^{(l,d)} + b^{(l+1,p)} Z(l+1,p)=d=1DW(l+1,p,d)X(l,d)+b(l+1,p)

其中 W ( l + 1 , p , d ) , b ( l + 1 , p ) W^{(l+1,p,d)},b^{(l+1,p)} W(l+1,p,d),b(l+1,p)为第 l l l层的卷积核和偏置。第 l + 1 l+1 l+1层共有 P *D 个卷积核和P个偏置。

l l l层的第 d d d个特征映射的误差项 δ ( l , d ) \delta ^{(l,d)} δ(l,d)的具体推导过程如下(公式1.16):
δ ( l , d ) ≜ ∂ L ( Y , Y ^ ) ∂ Z ( l , d ) = ∂ X ( l , d ) ∂ Z ( l , d ) ⋅ ∂ L ( Y , Y ^ ) ∂ X ( l , d ) = f l ′ ( Z ( l , p ) ) ⊙ ∑ p = 1 P ( r o t 180 ( W ( l + 1 , p , d ) ) ⊗ ~ ∂ L ( Y , Y ^ ) ∂ Z ( + 1 , p ) ) = f l ′ ( Z ( l , p ) ) ⊙ ∑ p = 1 P ( r o t 180 ( W ( l + 1 , p , d ) ) ⊗ ~ δ ( l + 1 , p ) ) \delta ^{(l,d)} \triangleq \frac{\partial L (Y,\hat{Y})}{ \partial Z^{(l,d)} } \\ =\frac{\partial X^{(l,d)} } { \partial Z^{(l,d)}} \cdot \frac{\partial L (Y,\hat{Y})}{ \partial X^{(l,d)} } \\ = f'_l (Z^{(l,p)}) \odot \sum_{p=1}^{P}( rot180(W^{(l+1,p,d)} ) \tilde{\otimes } \frac{\partial L(Y,\hat{Y})}{ \partial Z^{(+1,p)}}) \\ = f'_l (Z^{(l,p)}) \odot \sum_{p=1}^{P}(rot180(W^{(l+1,p,d)} ) \tilde{\otimes }\delta ^{(l+1,p)}) δ(l,d)Z(l,d)L(Y,Y^)=Z(l,d)X(l,d)X(l,d)L(Y,Y^)=fl(Z(l,p))p=1P(rot180(W(l+1,p,d))~Z(+1,p)L(Y,Y^))=fl(Z(l,p))p=1P(rot180(W(l+1,p,d))~δ(l+1,p))

其中 ⊗ ~ \tilde{\otimes} ~表示宽卷积。

汇聚层

当第 l + 1 l+1 l+1层为汇聚层时, 因为汇聚层是下采样操作, l + 1 l+1 l+1层的每个神经元的误差项 δ \delta δ对应于第 l l l层的相应特征映射的一个区域。 l l l层的第 p p p个特征映射中的每个神经元都有一条边和 l + 1 l+1 l+1层的第 p p p个特征映射中的一个神经元相连。

根据链式法则,第 l l l层的一个特征映射的误差项 δ ( l , p ) \delta ^{(l,p)} δ(l,p),只需要将 l + 1 l+1 l+1层对应特征映射的误差项 δ ( l + 1 , p ) \delta ^{(l+1,p)} δ(l+1,p)进行上采样操作(和第 l l l层的大小一样) ,再和 l l l层特征映射的激活值偏导数逐元素相乘,就得到了 δ ( l , p ) \delta ^{ (l,p)} δ(l,p)

l l l层的第 p p p个特征映射的误差项 δ ( l , p ) \delta ^{(l,p)} δ(l,p)的具体推导过程如下(公式1.17):
δ ( l , p ) ≜ ∂ L ( Y , Y ^ ) ∂ Z ( l , p ) = ∂ X ( l , p ) ∂ Z ( l , p ) ⋅ ∂ Z ( l + 1 , p ) ∂ X ( l , p ) ⋅ ∂ L ( Y , Y ^ ) ∂ Z ( l + 1 , p ) = f l ′ ( Z ( l , p ) ) ⊙ u p ( δ ( l + 1 , p ) ) \delta ^{(l,p)} \triangleq \frac{\partial L (Y,\hat{Y})}{ \partial Z^{(l,p)} } \\ =\frac{\partial X^{(l,p)} } { \partial Z^{(l,p)}} \cdot \frac{\partial Z^{(l+1,p)} } { \partial X^{(l,p)}} \cdot \frac{\partial L (Y,\hat{Y})}{ \partial Z^{(l+1,p)} } \\ = f'_l (Z^{(l,p)}) \odot up(\delta ^{(l+1,p)}) δ(l,p)Z(l,p)L(Y,Y^)=Z(l,p)X(l,p)X(l,p)Z(l+1,p)Z(l+1,p)L(Y,Y^)=fl(Z(l,p))up(δ(l+1,p))
其中 f l ′ f'_l fl为第l层使用的激活函数导数,up为上采样函数(upsampling),与汇聚层中使用的下采样函数刚好相反,如果下采样是最大汇聚(max pooling),误差项 δ ( l + 1 , p ) \delta ^{(l+1,p)} δ(l+1,p)中每个值都会传递到上一层对应区域中的最大值所对应的神经元,该区域中其他位置的神经元的误差都设为0,如果下采样是平均汇聚(mean pooling) ,误差项 δ ( l + 1 , p ) \delta ^{(l+1,p)} δ(l+1,p)中每个值会被平均分配到上一层对应区域中的所有神经元上。


几种典型的卷积神经网络

LeNet-5

LeNet-5 虽然提出的时间比较早(LeCun et al., 1998),但是一个非常成功的卷积神经网络模型,90年代在许多银行进行使用,用来识别手写数字,其网络结构如下:
LeNet-5

AlexNet

AlexNet是第一个现代深度卷积网络模型,其首次使用了现在深度卷积网络的一些技巧,比如GPU并行训练,采用ReLU作为非线性激活函数,使用DropOut防止过拟合,使用数据增强来提高模型准确率。AlexNet获得了2012年ImageNet图像分类比赛的冠军,其网络结构如下:
AlexNet

Inception

在卷积网络中,如何定义一个卷积的大小是一个十分关键的问题,在Inception网络中,一个卷积层包含多个不同大小的卷积操作,称为Inception模块, Inception网络是由多个inception模块和汇聚层堆叠而成。

Inception模块同时使用11,33,55等大小不同的卷积核,并将得到的特征映射在深度上拼接(堆叠)起来作为输出特征映射。下图给出了v1版本的inception模块结构图,采用了4组平行的特征抽取方式,分别为11,33,55的卷积和33的最大汇聚,同时为了提高计算效率,减少参数数量,inception模块在进行33,55的卷积之前,33的最大汇聚之后,进行一次1*1的卷积来减少特征映射的深度。
v1版本的inception模块

Inception网络最早的v1版本就是非常著名的GoogleNet,获得了2014年ImageNet图像分类竞赛的冠军。其结构图如下所示:
GoogleLeNet

当然Inception网络有多个改进版本,比如Inception-v3网络,Inception-ResNet v2网络和改进版的Inception-v4模型。

残差网络

残差网络(Residual Network,ResNet)是通过给非先行的卷积层增加直连边的方式来提高信息的传播效率。

假设在一个深度网络中,我们期望一个非线性单元 f ( x , θ ) f(x,\theta) f(x,θ)去逼近一个目标函数为h(x)。如果将目标函数拆分为两部分:恒等函数(Identity)和残差函数(Reside Function)h(x)-x。

h ( x ) = x ⏟ I d e n t i t y F u n c + ( h ( x ) − x ⏟ R e s i d u e F u n c ) h(x) = \underset{IdentityFunc}{\underbrace{x}} +( \underset{ResidueFunc}{\underbrace{h(x)-x}}) h(x)=IdentityFunc x+(ResidueFunc h(x)x)

根据通用近似定理,一个由神经网络构成的非线性单元有足够的能力来近似逼近原始目标函数或残差函数,但实际中后者更容易血虚。因此原来的优化问题可以转化为:让非线性单元 f ( x , θ ) f(x,\theta) f(x,θ)去近似残差h(x)-x,并用 f ( x , θ ) + x f(x,\theta) +x f(x,θ)+x去逼近h(x)。

下图给出了一个典型的残差单元示例,残差单元由多个级联的(等长)卷积层和一个跨层的直连边组成,再经过ReLU激活后得到输出。残差网络就是将很多个残差单元串联起来构成的一个非常深的网络。
残差单元示例


其他卷积方式

转置卷积

我们一般通过卷积操作来实战高维特征到低维特征的转换,但在一些任务中需要把低维特征映射到高维特征,并且希望通过卷积操作来实现。

卷积操作可以通过仿射变换的形式。假设一个5维的向量x,经过大小为3的卷积核w=[w1,w2,w2]^T来进行卷积,得到3维向量z,卷积操作可以写为:

5维向量x与大小为3的卷积核进行卷积

其中C是一个稀疏矩阵,其非零元素来自于卷积核w中的元素。如果实现3维向量z到5维向量x的映射,可以通过仿射矩阵转置来实现。

仿射矩阵转置

其中rot180(.)表示旋转180度。

我们将低维特征映射到高维特征的卷积操作称之为转置卷积(Transposed Convolution),也叫反转卷积(Deconvolution)。

空洞卷积

对于一个卷积层,如果希望增加输出单元的感受野,一般可以通过三种方式实现:

  • 增加卷积核的大小
  • 增加层数
  • 在卷积之前进行汇聚操作

前两种会增加参数数量,最后一种会丢失一些信息。

空洞卷积(Atrous Convolution)也成为膨胀卷积(Dilated Convolution),是一种不增加参数数量,同时增加输出单元感受野的一种方法。

空洞卷积通过给卷积核插入“空洞”来变相的增加其大小,如果在卷积核的每两个元素之间插入d-1个空洞,卷积核的有效大小维:
m ′ = m + ( m − 1 ) ∗ ( d − 1 ) m'=m+ (m-1) * (d-1) m=m+(m1)(d1)
其中d称为膨胀率(Dilation Rate)。当d=1时卷积核维普通的卷积核。
不同膨胀率的卷积核


【技术服务】,详情点击查看: https://mp.weixin.qq.com/s/PtX9ukKRBmazAWARprGIAg

扫一扫 关注微信公众号!号主 专注于搜索和推荐系统,尝试使用算法去更好的服务于用户,包括但不局限于机器学习,深度学习,强化学习,自然语言理解,知识图谱,还不定时分享技术,资料,思考等文章!

Thinkgamer_ CSDN认证博客专家 图书作者 推荐系统研究者
Thinkgamer,著有《推荐系统开发实战》,「搜索与推荐Wiki」公众号独立作者,愿景是持续输出精品系列内容,让知识能够平等的到达每一个人。从事推荐系统相关工作多年!
已标记关键词 清除标记
©️2020 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 返回首页