常见的五种神经网络(3)-循环神经网络(上)篇

转载请注明出处:https://thinkgamer.blog.csdn.net/article/details/100600661
博主微博:http://weibo.com/234654758
Github:https://github.com/thinkgamer
公众号:搜索与推荐Wiki


引言

常见的五种神经网络系列第三种,主要介绍循环神经网络,由于循环神经网络包含的内容过多,分为上中下三篇进行介绍,本文主要是循环神经网络(上)篇,主要介绍以下内容:

  • 循环神经网络概述
  • 如何给神经网络增加记忆能力
    • 延时神经网络
    • 有外部输入的非线性自回归模型
    • 循环神经网络
  • 一般的循环神经网络
    • 单向循环神经网络
    • 双向循环神经网络
    • 深度循环神经网络
  • 循环神经网络应用到机器学习任务

该系列的其他文章:

概述

在前馈神经网络中,信息在神经元之间的传递是单向,网络的输出只依赖于当前的输入,这样限制虽然使网络变得容易学习,但是却减弱了网络的表达能力。在很多现实任务中,网络的输出不仅和当前的输入有关,也和过去一段时间的输出相关,比如一个有限状态自动机不仅和当前的输入有关,也和当前的状态(上一步的输出)有关。如下图(图-1)

有限状态自动机

有限状态自动机称为FSM(finite state machine)或者FSA(finite state automaton)

此外,前馈神经网络难以处理时序数据,比如视频,语音,文本等。因为时序数据的长度是不固定的,而前馈神经网络要求输入和输出的维度是固定的。因此当处理这种复杂的时序数据时,就需要一种表达能力能强的模型。

循环神经网络(Recurrent Neural Network,RNN) 是一类具有短期记忆能力的神经网络,在循环神经网络中,神经元不仅可以接受其他神经元的信息,还可以接受自身的信息,形成一个环路结构。RNN的参数学习可以通过随时间反向传播算法进行学习(下文会具体介绍),随时间反向传播算法按照时间的逆序将错误信息一步步的向前传递,当输入序列时间较长时,会存在梯度消失和梯度爆炸问题(也叫长期依赖问题),为了解决这个问题,人们对RNN进行了许多改进,其中最有效的是引入门控制,比如长短期记忆网络(LSTM)和门控循环单元网络(GRU),将在(下)篇进行介绍。

如何给网络增加记忆能力

上边提到前馈神经网络是一个静态网络,不能处理时序数据,那么可以通过以下三种方法给网络增加记忆能力:

  • 延时神经网络
  • 有外部输入的非线性自回归模型
  • 循环神经网络

延时神经网络

一种简单的利用利用历史信息的方法是建立一个额外的延时单元,用来存储网络的历史信息(比如输入,输出,隐状态等),这其中比较有代表性的就是延时神经网络(TDNN,Time Delay Neural Network)。

延时神经网络是在前馈神经网络的非输出层都添加一个延时器,记录最近几次神经元的输出,在第t个时刻,第(l+1)层的神经元和第(l)层神经元的最近p次输出有关,即(公式-1):
htl+1=f(htl,ht1l,....,htp+1l) h_t^{l+1} = f(h_t^l,h_{t-1}^l,....,h_{t-p+1}^l)
通过延时器,前馈神经网络就具有了短期记忆的能力。

有外部输入的非线性自回归模型

自回归模型(Autoregressive Model) 是统计学中常用一类时间序列模型,用一个变量 yty_t 的历史信息来预测自己(公式-2)。
yt=w0+i=1pwpyti+εt y_t = w_0 + \sum_{i=1}^{p}w_p * y_{t-i} + \varepsilon_t
其中p为超参数,wpw_p 为参数,εtN(0,σ2)\varepsilon_t~N(0,\sigma ^2) 为第t个时刻的噪声,方差σ2\sigma^2和时间t无关。

有外部输入的非线性自回归模型(Nonlinear Autoregressive Model)是自回归模型的扩展,在每个时刻t都有一个外部输入xtx_t,产出一个输出yty_t,NART通过一个延时器来记录最近几次的外部输入和输出,第t个时刻的输出yty_t为(公式-3):
yt=f(xt,xt1,..,xtp,yt1,yt2,....,ytq) y_t = f(x_t, x_{t-1},..,x_{t-p}, y_{t-1},y_{t-2},....,y_{t-q})
其中f(.)为非线性函数,可以是前馈神经网络,p和q为超参数。

循环神经网络

给定一个输入序列,x1:T=(x1,x2,...,xT)x_{1:T}=( x_1, x_2, ... , x_T ) 循环神经网络通过以下公式(公式-4)更新带反馈边的隐藏层的活性值hth_t
ht=(ht1,xt) h_t = (h_{t-1}, x_t)
循环神经网络示例如下(图-2):
循环神经网络示例

一般的循环神经网络

在(图-2)中展示了一个简单的循环神经网络,其整个结构分为3层:输入层,隐藏层和输出层。其中t时刻,隐藏层的状态hth_t不仅与输入xtx_t有关,还与上一个时刻的隐藏层状态ht1h_{t-1}有关。

由于隐藏层多了一个自身到自身的输入,因此该层被称为循环层,(图-2)所示的为一个简单循环神经网络。循环神经网络还有多种类型,基于循环的方向划分为:

  • 单向循环神经网络
  • 双向循环神经网络

基于循环的深度分为:

  • 循环神经网络
  • 深度循环神经网络

单向循环神经网络

(图-2)所示即为一个单向的循环神经网络,对其展开后的效果图如下(图-3):
单向循环神经网络

上图可以理解为网络的输入通过时间往后传递,当前隐藏层的输出hth_t取决于当前层的输入xtx_t和上一层的输出ht1h_{t-1},因此当前隐藏层的输出信息包含了之前时刻的信息,表达出对之前信息的记忆能力。单向循环神经网络表达如下(公式-5):
ot=g(Vht)ht=f(Uxt+Wht1) o_t = g(V*h_t) \\ h_t = f(U*x_t + W*h_{t-1})
其中oto_t为输出层的计算公式, hth_t为隐藏层的计算公式,g(.) 和 f(.)为激活函数。值得说明的是在循环神经网络中U,V,W权重矩阵值每次循环都是一份,因此循环神经网络的每次循环步骤中,这些参数都是共享的,这也是循 环神经网络 的结构特征之一。

双向循环神经网络

在日常的信息推断中,当前信息不仅仅依赖之前的内容,也有可能会依赖后续的内容,比如英语的完形天空。这时候单向的循环神经网络就不能很好的处理,就需要 ** 双向循环神经网络(Bi-directional Recurrent Neural Network)** 。

其主要思想是训练一个分别向前和分别向后的循环神经网络,表示完整的上下文信息,两个循环 网络对应同一个输出层,因此可以理解为两个循环神经网络的叠加,对应的输出结果根据两个神经网络输出状态计算获得,将双向循环神经网络按照时间序列结构展开,如下图所示(图-4):
双向循环神经网络

从上图可以看出,隐藏层需要保留两部分,一部分为由前向后的正向传递hth_t,一部分为由后向前的反向传递hth'_t,最新的信息输出oto_t。双向循环神经网络的表达公式如下(公式-6):
ot=g(Vht+Vht)ht=f(Uxt+Wht1)ht=f(Uxt+Wht1) o_t = g(V*h_t + V'*h'_t) \\ h_t = f(U*x_t + W*h_{t-1}) \\ h'_t = f(U'*x_t + W'*h'_{t-1})

深度循环神经网络

上边介绍的单向训练神经网络和双向循环神经网络都只有一个隐藏层,但是在实际应用中,为了增强表达能力,往往引入多个隐藏层,即深度循环神经网络,如下图所示(图-5):
深度循环神经网络

同样可以得到深度循环神经网络的表达式(公式-7):
ot=g(V(i)ht(i)+V(i)ht(i))ht(i)=f(U(i)ht(i1)+W(i)ht1)ht(i)=f(U(i)ht(i1)+W(i)ht+1)...ht(1)=f(U(1)ht+W(1)ht1)ht(1)=f(U(1)ht+W(1)ht+1) o_t = g(V^{(i)}*h^{(i)}_t + V'^{(i)}*h'^{(i)}_t) \\ h^{(i)}_t = f(U^{(i)}*h^{(i-1)}_t + W^{(i)}*h_{t-1}) \\ h'^{(i)}_t = f(U'^{(i)}*h'^{(i-1)}_t + W'^{(i)}*h'_{t+1}) \\ ... \\ h^{(1)}_t = f(U^{(1)} * h_t + W^{(1)}*h_{t-1}) \\ h'^{(1)}_t = f(U'^{(1)} * h_t + W'^{(1)}*h'_{t+1}) \\
从上述公式可以看出,最终的输出依赖两个维 度的计算,横向上内部前后信息的 叠加,即按照时间的计算;纵向上是每一时刻的输入信息在 逐层之间的传递,即按照 空间结构的计算。

循环神经网络应用到机器学习任务

循环神经网络可以应用到很多不同类型的机器学习任务,根据这些任务的特点,可以分为以下几种模式:

  • 序列到类别模式
  • 同步的序列到序列模式
  • 异步的序列到序列模式

序列到类别模式

主要应用在序列数据的分类问题,其输入为序列,输出为类别。比如在文本分类中,输入为单词序列,输出为文本的类别。

假设一个样本 x1:T=(x1,x2,...,xT)x_{1:T}=(x_1, x_2, ... , x_T)为一个长度为T的序列,输出为类别 y(1,...,C)y \in (1, ..., C),可以将样本x按不同的时刻输入到循环神经网络中,并得到不同时刻的隐含状态hth_t,可以将 hth_t 看作是整个序列的最终表示,并输入给分类器 g(.) 进行分类,如下所示(公式-8):
y^=g(hT) \hat{y} = g(h_T)

其中g(.) 为简单的线性分类器(比如LR)或者复杂的分类器(前馈神经网络)。

除了将最后时刻的状态作为序列表示之外,我们还可以对整个序列的状态进行平均,并用整个状态的最终平均作为整个序列的表示(公式-9):
y^=g(1Tt=1Tht) \hat{y} = g( \frac{1}{T} \sum_{t=1}^{T} h_t )

公式-8 和公式-9 分别对应下图(图-6)的(a)和(b):
序列到类别模式

同步的序列到序列模式

主要用于序列标注(Sequence Labeling)任务,即每一时刻都有输入和输出,输入序列和输出序列的长度相同。比如词性标注(Part-of-Speech Tagging)中,每一个单词都需要标注其对应的词性标签。

假设一个样本 x1:T=(x1,x2,...,xT)x_{1:T}=(x_1, x_2, ... , x_T)为一个长度为T的序列,输出为序列 y1:T=(y1,y2,...,yT)y_{1:T}=(y_1, y_2, ... , y_T),可以将样本x按不同的时刻输入到循环神经网络中,并得到不同时刻的隐含状态hth_t,每个时刻的 hth_t 代表了当前时刻和历史的信息,并输入给分类器 g(.) 进行分类,得到当前的标签 y^t\hat{y}_t,如下所示(公式-8):
y^=g(hT),t[1,T] \hat{y} = g(h_T), \forall_t \in [1,T]

同步的序列到序列模式

异步的序列到序列模式

异步的序列到序列模式也成为编码器-解码器,输入序列和输出序列不需要有严格的对应关系,也不需要保持相同的长度,比如在机器翻译中,输入为源语音的单词序列,输出为目标语言的单词序列。

假设输入为一个长度为T的序列 x1:T=(x1,x2,...,xT)x_{1:T}=(x_1, x_2, ... , x_T),输出为长度为M的序列y1:M=(x1,x2,...,xM)y_{1:M}=(x_1, x_2, ... , x_M),经常通过先编码后解码的形式实现。

先将样本x按不同时刻输入到一个循环神经网络(编码器)中,并得到其编码hTh_T,然后再使用另外一个循环神经网络(解码器)中,得到输出序列y^1:M\hat {y}_{1:M}。为了建立输出序列之间的依赖关系,在解码器中通常使用非线性的自回归模型。如下所示(公式-9):
ht=f1(ht1,xt),t[1,T]hT+t=f2(hT+t1,xt),t[1,M]y^t=g(hT+t),t[1,M] h_t = f_1(h_{t-1},x_t), \forall_t \in [1,T] \\ h_{T+t} = f_2(h_{T+t-1},x_t), \forall_t \in [1,M] \\ \hat{y} _t = g(h_{T+t}), \forall_t \in [1,M]
其中 f1(.)f_1(.)f2(.)f_2(.)分别为用作编码器和解码器的循环神经网络,g(.)为分类器,y^t\hat{y}_t 为输出预测y^t\hat{y}_t的表示。

在这里插入图片描述

至此,循环神经网络(上)篇已经介绍完了,在(中)篇和下篇中会展开介绍更多的内容,欢迎关注。


扫一扫 关注微信公众号!号主 专注于搜索和推荐系统,尝试使用算法去更好的服务于用户,包括但不局限于机器学习,深度学习,强化学习,自然语言理解,知识图谱,还不定时分享技术,资料,思考等文章!

【技术服务】,详情点击查看:https://mp.weixin.qq.com/s/PtX9ukKRBmazAWARprGIAg

发布了314 篇原创文章 · 获赞 459 · 访问量 177万+

没有更多推荐了,返回首页

©️2019 CSDN 皮肤主题: 大白 设计师: CSDN官方博客

分享到微信朋友圈

×

扫一扫,手机浏览