线性回归是一种用于连续型分布预测的机器学习算法。
其基本思想是通过拟合一个线性函数来最小化样本数据和预测函数之间的误差。
1. 概述
常见的线性回归模型就是:\(f(x) = w_0+w_1x_1+w_2x_2+...+w_nx_n\)这样的一个函数。
其中
- \((w_1,w_2,...w_n)\)是模型的系数向量
- \(w_0\)是截距
- \((x_1, x_2,...,x_n)\)是样本数据(
n
是样本数据的维度)
简单来说,线性回归模型的训练就是通过样本数据来确定系数向量\((w_1,w_2,...w_n)\)和截距\(w_0\)的具体数值。
然后可以使用模型\(f(x)\)来预测新的样本数据。
2. 创建样本数据
首先,用scikit-learn
中的自带的函数,就可以创建出适用于线性回归场景的样本数据。
from sklearn.datasets import make_regression
import matplotlib.pyplot as plt
fig, ax = plt.subplots(1, 1)
X, y = make_regression(n_samples=100, n_features=1, noise=10)
ax.scatter(X[:, 0], y, marker="o")
ax.set_title("样本数据")
plt.show()
通过 make_regression
函数可以帮助我们创建任意的回归样本数据。
具体使用可以参考之前的文章:TODO
3. 模型训练
训练线性回归模型,一般使用最小二乘法,而scikit-learn
的linear_model
模块中,
已经封装好了最小二乘法的训练算法。
首先,根据上面的样本数据,划分训练集和测试集。
from sklearn.model_selection import train_test_split
# 分割训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1)
上面的代码按照9:1
的比例划分了训练集和测试集。
然后,用基于最小二乘法的线性模型来训练数据。
from sklearn.linear_model import LinearRegression
# 初始化最小二乘法线性模型
reg = LinearRegression()
# 训练模型
reg.fit(X_train, y_train)
print("模型的系数向量:", reg.coef_)
print("模型的系数截距:", reg.intercept_)
# 运行结果:
模型的系数向量: [99.59241352]
模型的系数截距: 0.6889080586801999
reg.coef_
就相当于前面的\((w_1,w_2,...w_n)\)reg.intercept_
就相当于前面的 \(w_0\)
这里的样本数据为了方便绘图,只有一个维度。
最后,我们把线性模型,训练集和测试集都绘制出来看看效果。
fig, ax = plt.subplots(1, 1)
# 训练集
ax.scatter(X_train[:, 0], y_train, marker="o", c="g")
# 测试集
ax.scatter(X_test[:, 0], y_test, marker="*", c="r")
# 线性模型
reg_x = np.array([-3, 3])
reg_y = reg.coef_ * reg_x + reg.intercept_
ax.plot(reg_x, reg_y, color="b")
plt.show()
上图中,蓝色的直线是在训练集上训练出来的线性模型;
绿色的圆点是训练集;红色的五角星是测试集。
从图中可以看出,训练的效果还不错。
4. 总结
线性回归是一种常见的预测模型,可以用在
- 预测连续值:比如根据房屋面积和价格的关系预测房价,根据油耗和车辆重量之间的关系预测油耗等等。
- 判断因果关系:比如药物剂量和血压之间的关系,或者产品价格和销售量之间的关系
它的主要优势有简单易理解(模型简单直观,易于理解和解释),
易于实施(各种编程语言中都有现成的库和函数可以方便地实现和应用),
还有稳定性高(对于训练数据的小变化相对稳定,能够提供较为准确的结果)。
不过,线性回归模型需要基于一些假设,如误差项的独立性、同方差性等,如果这些假设不满足,模型可能无法得到准确的结果;
其次,对于一些非线性关系的数据表现可能不佳;
而且,对异常值敏感,如果数据中存在异常值,线性回归的结果可能会受到较大影响,模型训练前最好先清洗和处理异常值。