CNTK - 训练神经网络

在这里,我们将了解如何在 CNTK 中训练神经网络。

在 CNTK 中训练模型

在上一节中,我们定义了深度学习模型的所有组件。现在是时候训练它了。正如我们之前所讨论的,我们可以使用学习器训练器的组合在 CNTK 中训练 NN 模型。

选择学习器并设置训练

在本节中,我们将定义学习器。CNTK 提供了几个学习器可供选择。对于我们在前面章节中定义的模型,我们将使用随机梯度下降 (SGD) 学习器

为了训练神经网络,让我们按照以下步骤配置学习器训练器

步骤 1 − 首先,我们需要从 cntk.lerners 包导入 sgd 函数。

from cntk.learners import sgd

步骤 2 −接下来,我们需要从 cntk.train.trainer 包导入 Trainer 函数。

from cntk.train.trainer import Trainer

步骤 3 − 现在,我们需要创建一个 learner。可以通过调用 sgd 函数以及提供模型的参数和学习率的值来创建它。

learner = sgd(z.parametrs, 0.01)

步骤 4 − 最后,我们需要初始化 trainer。必须提供网络、lossmetric 的组合以及 learner

trainer = Trainer(z, (loss, error_rate), [learner])

控制优化速度的学习率应该是 0.1 到 0.001 之间的小数字。

选择学习者并设置训练 - 完整示例

from cntk.learners import sgd
from cntk.train.trainer import Trainer
learner = sgd(z.parametrs, 0.01)
trainer = Trainer(z, (loss, error_rate), [learner])

将数据输入训练器

选择并配置训练器后,就可以加载数据集了。我们已将 iris 数据集保存为 .CSV 文件,我们将使用名为 pandas 的数据整理包来加载数据集。

从 .CSV 文件加载数据集的步骤

步骤 1 − 首先,我们需要导入 pandas 包。

from import pandas as pd

步骤 2 − 现在,我们需要调用名为 read_csv 的函数从磁盘加载 .csv 文件。

df_source = pd.read_csv('iris.csv', names = ['sepal_length', 'sepal_width',
'petal_length', 'petal_width', index_col=False)

加载数据集后,我们需要将其拆分为一组特征和一个标签。

将数据集拆分为特征和标签的步骤

步骤 1 − 首先,我们需要从数据集中选择所有行和前四列。可以使用 iloc 函数来完成。

x = df_source.iloc[:, :4].values

步骤 2 − 接下来我们需要从 iris 数据集中选择物种列。我们将使用 values 属性来访问底层 numpy 数组。

x = df_source['species'].values

将物种列编码为数字向量表示的步骤

正如我们之前讨论的,我们的模型基于分类,它需要数字输入值。因此,这里我们需要将物种列编码为数字向量表示。让我们看看执行此操作的步骤 −

步骤 1 −首先,我们需要创建一个列表表达式来迭代数组中的所有元素。然后在 label_mapping 字典中查找每个值。

label_mapping = {'Iris-Setosa' : 0, 'Iris-Versicolor' : 1, 'Iris-Virginica' : 2}

步骤 2 − 接下来,将转换后的数值转换为独热编码向量。我们将使用 one_hot 函数,如下所示 −

def one_hot(index, length):
result = np.zeros(length)
result[index] = 1
return result

步骤 3 − 最后,我们需要将这个转换后的列表转换为 numpy 数组。

y = np.array([one_hot(label_mapping[v], 3) for v in y])

检测过度拟合的步骤

当您的模型记住样本但无法从训练样本中推断出规则时,这种情况就是过度拟合。借助以下步骤,我们可以检测模型上的过度拟合 −

步骤 1 −首先,从 sklearn 包中,从 model_selection 模块导入 train_test_split 函数。

from sklearn.model_selection import train_test_split

步骤 2 − 接下来,我们需要使用特征 x 和标签 y 调用 train_test_split 函数,如下所示 −

x_train, x_test, y_train, y_test = train_test_split(X, y, test_size=0-2,
stratify=y)

我们指定 test_size 为 0.2,以留出总数据的 20%。

label_mapping = {'Iris-Setosa' : 0, 'Iris-Versicolor' : 1, 'Iris-Virginica' : 2}

将训练集和验证集提供给我们的模型的步骤

步骤 1 − 为了训练我们的模型,首先,我们将调用 train_minibatch 方法。然后给它一个字典,将输入数据映射到我们用来定义 NN 及其相关损失函数的输入变量。

trainer.train_minibatch({ features: X_train, label: y_train})

步骤 2 − 接下来,使用以下 for 循环调用 train_minibatch

for _epoch in range(10):
trainer.train_minbatch ({ feature: X_train, label: y_train})
print('Loss: {}, Acc: {}'.format(
trainer.previous_minibatch_loss_average,
trainer.previous_minibatch_evaluation_average))

将数据输入训练器 - 完整示例

from import pandas as pd
df_source = pd.read_csv(‘iris.csv’, names = [‘sepal_length’, ‘sepal_width’, ‘petal_length’, ‘petal_width’, index_col=False)
x = df_source.iloc[:, :4].values
x = df_source[‘species’].values
label_mapping = {‘Iris-Setosa’ : 0, ‘Iris-Versicolor’ : 1, ‘Iris-Virginica’ : 2}
def one_hot(index, length):
result = np.zeros(length)
result[index] = 1
return result
y = np.array([one_hot(label_mapping[v], 3) for v in y])
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(X, y, test_size=0-2, stratify=y)
label_mapping = {‘Iris-Setosa’ : 0, ‘Iris-Versicolor’ : 1, ‘Iris-Virginica’ : 2}
trainer.train_minibatch({ features: X_train, label: y_train})
for _epoch in range(10):
trainer.train_minbatch ({ feature: X_train, label: y_train})
print(‘Loss: {}, Acc: {}’.format(
trainer.previous_minibatch_loss_average,
trainer.previous_minibatch_evaluation_average))

测量 NN 的性能

为了优化我们的 NN 模型,每当我们将数据传递给训练器时,它都会通过我们为训练器配置的指标来测量模型的性能。训练期间对 NN 模型性能的这种测量是基于训练数据的。但另一方面,为了全面分析模型性能,我们还需要使用测试数据。

因此,要使用测试数据测量模型的性能,我们可以在 trainer 上调用 test_minibatch 方法,如下所示 −

trainer.test_minibatch({ features: X_test, label: y_test})

使用 NN 进行预测

一旦您训练了深度学习模型,最重要的是使用该模型进行预测。为了从上面训练的 NN 进行预测,我们可以遵循给定的步骤−

步骤 1 − 首先,我们需要使用以下函数从测试集中选择一个随机项 −

np.random.choice

步骤 2 − 接下来,我们需要使用 sample_index 从测试集中选择样本数据。

步骤 3 − 现在,为了将 NN 的数字输出转换为实际标签,请创建一个反向映射。

步骤 4 − 现在,使用选定的 sample 数据。通过调用 NN z 作为函数进行预测。

步骤 5 −现在,一旦您获得了预测输出,就将具有最高值的神经元的索引作为预测值。可以使用 numpy 包中的 np.argmax 函数来完成。

第 6 步 − 最后,使用 inverted_mapping 将索引值转换为真实标签。

使用 NN 进行预测 - 完整示例

sample_index = np.random.choice(X_test.shape[0])
sample = X_test[sample_index]
inverted_mapping = {
   1:’Iris-setosa’,
   2:’Iris-versicolor’,
   3:’Iris-virginica’
}
prediction = z(sample)
predicted_label = inverted_mapping[np.argmax(prediction)]
print(predicted_label)

输出

训练上述深度学习模型并运行后,你将得到以下输出 −

Iris-versicolor