TensorFlow - 线性回归
在本章中,我们将重点介绍使用 TensorFlow 实现线性回归的基本示例。 逻辑回归或线性回归是一种用于对有序离散类别进行分类的监督机器学习方法。 本章的目标是建立一个模型,用户可以通过该模型预测预测变量与一个或多个自变量之间的关系。
这两个变量之间的关系被认为是线性的。 如果 y 为因变量,x 为自变量,则两个变量的线性回归关系如下式 −
Y = Ax+b
我们将设计一个线性回归算法。 这将使我们能够理解以下两个重要概念 −
- 成本函数
- 梯度下降算法
下面提到线性回归的示意图 −
下面提到线性回归方程的图形视图 −
设计线性回归算法的步骤
我们现在将了解有助于设计线性回归算法的步骤。
步骤 1
导入绘制线性回归模块所需的模块很重要。 我们开始导入 Python 库 NumPy 和 Matplotlib。
import numpy as np import matplotlib.pyplot as plt
步骤 2
定义逻辑回归所需的系数数量。
number_of_points = 500 x_point = [] y_point = [] a = 0.22 b = 0.78
步骤 3
迭代变量以在回归方程周围生成 300 个随机点 −
Y = 0.22x+0.78
for i in range(number_of_points): x = np.random.normal(0.0,0.5) y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) y_point.append([y])
步骤 4
使用 Matplotlib 查看生成的点。
fplt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() plt.show()
逻辑回归的完整代码如下 −
import numpy as np import matplotlib.pyplot as plt number_of_points = 500 x_point = [] y_point = [] a = 0.22 b = 0.78 for i in range(number_of_points): x = np.random.normal(0.0,0.5) y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) y_point.append([y]) plt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() plt.show()
作为输入的点数被认为是输入数据。