CNTK - 循环神经网络

现在,让我们了解如何在 CNTK 中构建循环神经网络 (RNN)。

简介

我们学习了如何使用神经网络对图像进行分类,这是深度学习中的标志性工作之一。但是,神经网络擅长的另一个领域是循环神经网络 (RNN),并且有大量研究正在进行。在这里,我们将了解什么是 RNN,以及如何在需要处理时间序列数据的场景中使用它。

什么是循环神经网络?

循环神经网络 (RNN) 可以定义为能够随时间推理的特殊 NN。RNN 主要用于需要处理随时间变化的值(即时间序列数据)的场景。为了更好地理解它,让我们对常规神经网络和循环神经网络进行一个小的比较 −

  • 我们知道,在常规神经网络中,我们只能提供一个输入。这限制了它只能产生一个预测。举个例子,我们可以使用常规神经网络进行文本翻译工作。

  • 另一方面,在循环神经网络中,我们可以提供一系列样本,这些样本会产生一个预测。换句话说,使用 RNN,我们可以根据输入序列预测输出序列。例如,在翻译任务中,已经有不少使用 RNN 的成功实验。

循环神经网络的用途

RNN 有多种用途。其中一些如下 −

预测单个输出

在深入研究 RNN 如何根据序列预测单个输出的步骤之前,让我们先看看基本的 RNN 是什么样子−

单个输出

正如我们在上图中看到的,RNN 包含与输入的环回连接,每当我们输入一个值序列时,它都会将序列中的每个元素作为时间步骤进行处理。

此外,由于环回连接,RNN 可以将生成的输出与序列中下一个元素的输入相结合。这样,RNN 将在整个序列上建立一个记忆,可用于进行预测。

为了使用 RNN 进行预测,我们可以执行以下步骤−

  • 首先,要创建初始隐藏状态,我们需要输入输入序列的第一个元素。

  • 之后,要生成更新的隐藏状态,我们需要获取初始隐藏状态并将其与输入序列中的第二个元素相结合。

  • 最后,要生成最终隐藏状态并预测 RNN 的输出,我们需要获取输入序列中的最后一个元素。

这样,借助这种环回连接,我们可以教 RNN 识别随时间发生的模式。

预测序列

上面讨论的 RNN 基本模型可以扩展到其他用例也是如此。例如,我们可以使用它根据单个输入预测一系列值。在这种情况下,为了使用 RNN 进行预测,我们可以执行以下步骤 −

  • 首先,要创建初始隐藏状态并预测输出序列中的第一个元素,我们需要将输入样本输入到神经网络中。

  • 之后,要生成更新的隐藏状态和输出序列中的第二个元素,我们需要将初始隐藏状态与相同的样本相结合。

  • 最后,为了再次更新隐藏状态并预测输出序列中的最后一个元素,我们再次输入样本。

预测序列

正如我们所看到的,如何根据序列预测单个值以及如何根据单个值预测序列。现在让我们看看如何预测序列的序列。在这种情况下,为了使用 RNN 进行预测,我们可以执行以下步骤 −

  • 首先,要创建初始隐藏状态并预测输出序列中的第一个元素,我们需要获取输入序列中的第一个元素。

  • 之后,要更新隐藏状态并预测输出序列中的第二个元素,我们需要获取初始隐藏状态。

  • 最后,要预测输出序列中的最后一个元素,我们需要获取更新后的隐藏状态和输入序列中的最后一个元素。

RNN 的工作原理

要了解循环神经网络 (RNN) 的工作原理,我们首先需要了解网络中循环层的工作原理。因此,首先让我们讨论如何使用标准循环层预测输出。

使用标准 RNN 层预测输出

正如我们之前讨论的那样,RNN 中的基本层与神经网络中的常规层有很大不同。在上一节中,我们还在图中展示了 RNN 的基本架构。为了更新首次进入序列的隐藏状态,我们可以使用以下公式 −

Rnn Layer

在上面的等式中,我们通过计算初始隐藏状态和一组权重之间的点积来计算新的隐藏状态。

现在对于下一步,当前时间步的隐藏状态用作序列中下一个时间步的初始隐藏状态。这就是为什么,为了更新第二个时间步骤的隐藏状态,我们可以重复第一步中执行的计算,如下所示 −

第一步

接下来,我们可以重复更新序列中第三步和最后一步的隐藏状态的过程,如下所示 −

最后一步

当我们处理完序列中的所有上述步骤后,我们可以计算输出,如下所示 −

计算输出

对于上述公式,我们使用了第三组权重和最后时间步骤的隐藏状态。

高级递归单位

基本循环层的主要问题是梯度消失问题,因此它不太擅长学习长期相关性。简而言之,基本循环层不能很好地处理长序列。这就是为什么其他一些更适合处理较长序列的循环层类型如下 −

长短期记忆 (LSTM)

长短期记忆 (LSTM)

长短期记忆 (LSTM) 网络是由 Hochreiter 和 Schmidhuber 引入的。它解决了让基本循环层长时间记住事物的问题。LSTM 的架构如上图所示。我们可以看到它有输入神经元、记忆单元和输出神经元。为了解决梯度消失问题,长短期记忆网络使用显式记忆单元(存储先前的值)和以下门 −

  • Forget gate(忘记门)− 顾名思义,它告诉记忆单元忘记先前的值。记忆单元存储这些值,直到门(即"忘记门")告诉它忘记它们。

  • Input gate(输入门)− 顾名思义,它会将新内容添加到单元中。

  • Output gate(输出门)− 顾名思义,输出门决定何时将向量从单元传递到下一个隐藏状态。

门控循环单元 (GRU)

门控循环单元 (GRU)

梯度循环单元 (GRU) 是 LSTM 网络的一个轻微变体。它比 LSTM 少一个门,连接方式也略有不同。其架构如上图所示。它有输入神经元、门控记忆单元和输出神经元。门控循环单元网络有以下两个门 −

  • 更新门−它决定了以下两件事−

    • 应该从上一个状态保留多少信息?

    • 应该从前一层引入多少信息?

  • 重置门− 重置门的功能与 LSTM 网络的遗忘门非常相似。唯一的区别是它的位置略有不同。

与长短期记忆网络相比,门控循环单元网络运行速度稍快且更容易。

创建 RNN 结构

在开始预测来自任何数据源的输出之前,我们需要首先构建 RNN,构建 RNN 与我们在上一节中构建常规神经网络非常相似。以下是构建一个−的代码

from cntk.losses import squared_error
from cntk.io import CTFDeserializer, MinibatchSource, INFINITELY_REPEAT, StreamDefs, StreamDef
from cntk.learners import adam
from cntk.logging import ProgressPrinter
from cntk.train import TestConfig
BATCH_SIZE = 14 * 10
EPOCH_SIZE = 12434
EPOCHS = 10

堆叠多个层

我们还可以在 CNTK 中堆叠多个循环层。例如,我们可以使用以下层组合 −

from cntk import sequence, default_options, input_variable
from cntk.layers import Recurrence, LSTM, Dropout, Dense, Sequential, Fold
features = sequence.input_variable(1)
with default_options(initial_state = 0.1):
   model = Sequential([
      Fold(LSTM(15)),
      Dense(1)
   ])(features)
target = input_variable(1, dynamic_axes=model.dynamic_axes)

如我们在上面的代码中看到的,我们可以通过以下两种方式在 CNTK 中对 RNN 进行建模 −

  • 首先,如果我们只想要循环层的最终输出,我们可以将 Fold 层与循环层结合使用,例如 GRU、LSTM 甚至 RNNStep。

  • 其次,作为替代方法,我们还可以使用 Recurrence 块。

使用时间序列数据训练 RNN

一旦我们建立模型,让我们看看如何在 CNTK 中训练 RNN −

from cntk import Function
@Function
def criterion_factory(z, t):
   loss = squared_error(z, t)
   metric = squared_error(z, t)
   return loss, metric
loss = criterion_factory(model, target)
learner = adam(model.parameters, lr=0.005, momentum=0.9)

现在要将数据加载到训练过程中,我们必须从一组 CTF 文件中反序列化序列。以下代码具有 create_datasource 函数,这是一个有用的实用函数,用于创建训练和测试数据源。

target_stream = StreamDef(field='target', shape=1, is_sparse=False)
features_stream = StreamDef(field='features', shape=1, is_sparse=False)
deserializer = CTFDeserializer(filename, StreamDefs(features=features_stream, target=target_stream))
datasource = MinibatchSource(deserializer, randomize=True, max_sweeps=sweeps)
return datasource
train_datasource = create_datasource('Training data filename.ctf')#我们需要提供从数据集创建的训练文件的位置。
test_datasource = create_datasource('Test filename.ctf', sweeps=1) #我们需要提供从数据集创建的测试文件的位置。

现在,我们已经设置了数据源、模型和损失函数,我们可以开始训练过程了。这与我们在前面几节中使用基本神经网络时所做的非常相似。

progress_writer = ProgressPrinter(0)
test_config = TestConfig(test_datasource)
input_map = {
   features: train_datasource.streams.features,
   target: train_datasource.streams.target
}
history = loss.train(
   train_datasource,
   epoch_size=EPOCH_SIZE,
   parameter_learners=[learner],
   model_inputs_to_streams=input_map,
   callbacks=[progress_writer, test_config],
   minibatch_size=BATCH_SIZE,
   max_epochs=EPOCHS
)

我们将得到类似如下的输出 −

输出 −

average  since  average  since  examples
loss      last  metric  last
------------------------------------------------------
Learning rate per minibatch: 0.005
0.4      0.4    0.4      0.4      19
0.4      0.4    0.4      0.4      59
0.452    0.495  0.452    0.495   129
[…]

验证模型

实际上,使用 RNN 进行预测与使用任何其他 CNK 模型进行预测非常相似。唯一的区别是,我们需要提供序列而不是单个样本。

现在,由于我们的 RNN 终于完成了训练,我们可以通过使用一些样本序列对其进行测试来验证模型,如下所示 −

import pickle
with open('test_samples.pkl', 'rb') as test_file:
test_samples = pickle.load(test_file)
model(test_samples) * NORMALIZE

Output−

array([[ 8081.7905],
[16597.693 ],
[13335.17 ],
...,
[11275.804 ],
[15621.697 ],
[16875.555 ]], dtype=float32)