目录
⭐️引言
线性回归(Linear Regression)是一种基本的预测分析方法,它通过拟合数据点来建立因变量(目标变量)与一个或多个自变量之间的关系模型。线性回归假设这种关系是线性的,并试图找到一条直线(简单线性回归)或超平面(多元线性回归),使得这条直线或超平面与实际数据点之间的误差最小化。
⭐️理论
为了实现线性回归(Linear Regression)主要使用Scikit-learn提供了丰富的线性回归工具,其中包括基本的LinearRegression(使用普通最小二乘法)、Ridge回归(通过L2正则化解决多重共线性问题)、Lasso回归(通过L1正则化实现特征选择)、ElasticNet(结合L1和L2正则化)以及SGDRegressor(使用随机梯度下降法)等库解决线性回归的一系列问题
1、 简单线性回归
简单线性回归(Simple Linear Regression, SLR)是一种基本的统计方法,主要用来分析两个变量间的关系,其中一个变量是因变量(或响应变量),另一个是自变量(或预测变量)。
简单线性回归模型假定因变量 ( y ) 与自变量 ( x ) 之间存在线性关系,模型可表示为:
其中:
( ) 是因变量。
( ) 是自变量。
( ) 是模型的截距(当 ( ) 时 ( ) 的预期值)。
( ) 是斜率,表示自变量 ( ) 每增加一个单位时因变量 ( ) 的平均变化量。
( ) 是误差项,代表模型未能捕捉的影响 ( ) 的其他因素。
import numpy as np
import matplotlib.pyplot as plt
# 设置随机种子以确保结果可重复
np.random.seed(42)
# 生成模拟数据
n_samples = 100
X = np.random.rand(n_samples, 1) * 10 # 自变量
y = 2 * X + 3 + np.random.randn(n_samples, 1) # 因变量,添加一些噪声
# 可视化原始数据
plt.scatter(X, y, color='blue', label='Data Points')
plt.xlabel('X')
plt.ylabel('Y')
plt.legend()
plt.show()
通过求解最小二乘法,可以获得参数 ( ) 和 ( ) 的估计值。具体的参数估计公式如下:
截距 (
标签:plt,因变量,Linear,Python,回归,线性,Regression,自变量 From: https://blog.csdn.net/m0_57916248/article/details/142253655