首页 > 其他分享 >线性回归

线性回归

时间:2023-01-05 00:22:05浏览次数:31  
标签:因变量 预测 回归 均方 线性 自变量

Linear Regression 利用线性的方法,模拟因变量与一个或多个自变量之间的关系. 对于模型而言,自变量是输入值,因变量是模1型基于自变量的输出值,适用于x和y满足线性关系的数据类型的应用场景. 回归的目的是预测数组型的目标值. 线性回归: 根据已民知的数据集,通过梯度下降的方法来训练线性回归参数w, 从而用线性回归模型来预测数据的未知的类别 应用于数据分析的场景主要有两种:

  • 驱动力分析:某个因变量指标受多个因素所影响,分析不同因素对困变量驱动力的强弱.
  • 预测: 自变量与因变量呈线性关系的预测.
当自变量为1个时,是一元线性回归,又称作简单线性回归; 自变量为2个及以上时,称为多元线性回归. 线性回归模型: f(x) = wx+b 目的:找到w, 使和 f(x1)尽可能的接近于y1 均方误差: 损失函数, 均方误差最小化目标函数的方法称为最小二乘法.在线性回归中,就是找到一个直线,使得所有样本到直线的欧式距离最小. 在计算过程中, 通常使用梯度下降的方式实现, 也可以求解均方误差为0的公式,计算最优w的解. 局部加权线性回归: Locally Weighted Linear Regression) 在该算法中, 我们给待预测点附近的每个点赋予一个权重, 在这个子集上基于最小均方差来进行普通的回归.   线性回归优缺点:
  • 结果易于理解,计算不复杂
  • 对非线性的数据拟合不好,不能处理非线性模型
  • 对异常值非常敏感
使用场景:   根据已知的变量(即自变量)来预测某个数值变更(即因变量)   适用于低维, 而且每一维之间都没有共线性   sklearn.linear_model.Linearression()

标签:因变量,预测,回归,均方,线性,自变量
From: https://www.cnblogs.com/zyzl/p/17026406.html

相关文章