全文链接:http://tecdat.cn/?p=9706
原文出处:拓端数据部落公众号
在这文中,我将介绍非线性回归的基础知识。非线性回归是一种对因变量和一组自变量之间的非线性关系进行建模的方法。最后我们用R语言非线性模型预测个人工资数据(查看文末了解数据获取方式)是否每年收入超过25万。
相关视频:非线性模型原理与R语言多项式回归、局部平滑样条、 广义相加模型GAM分析
非线性模型原理与R语言多项式回归、局部平滑样条、 广义相加模型GAM分析
,时长05:41
这些数据点对应于一段时间内的中国国内生产总值或 GDP。
第一栏是年份,第二栏是中国当年相应的年国内总收入。这就是数据点的样子。现在,我们有几个有趣的问题。
首先,GDP可以根据时间来预测吗?
其次,我们可以使用简单的线性回归对其进行建模吗?
的确。如果数据显示曲线趋势,则与非线性回归相比,线性回归不会产生非常准确的结果。仅仅是因为,顾名思义,线性回归假定数据是线性的。
散点图显示 GDP 与时间之间似乎存在很强的关系,但这种关系不是线性的。如您所见,增长开始缓慢,然后从 2005 年开始,增长非常显着。最后,它在 2010 年代略有减速。它看起来像逻辑函数或指数函数。因此,它需要一种特殊的非线性回归过程估计方法。
存在许多不同的回归,可用于拟合数据集的外观。你可以在这里看到二次和三次回归线,它可以无限延伸。本质上,我们可以将所有这些称为多项式回归,其中自变量 X 和因变量 Y 之间的关系被建模为 X 中的 N 次多项式。有多种回归类型可供选择,很有可能其中一个将非常适合您的数据集。请记住,选择最适合数据的回归非常重要。
什么是多项式回归?
多项式回归将曲线拟合到您的数据。Thetas 是要估计的参数,使模型完全适合基础数据。虽然这里 X 和 Y 之间的关系是非线性的,多项式回归无法拟合它们,但多项式回归模型仍然可以表示为线性回归。
给定三次多项式方程,将模型转换为具有新变量的简单线性回归。这个模型在要估计的参数中是线性的,对吧?
因此,这种多项式回归被认为是传统多元线性回归的一个特例。因此,您可以使用与线性回归相同的机制来解决此类问题。因此,多项式回归模型可以使用最小二乘模型进行拟合。最小二乘法是一种通过最小化给定数据集中观察到的因变量与线性函数预测的因变量之间差异的平方和来估计线性回归模型中未知参数的方法。
什么是非线性回归?
首先,非线性回归是一种对因变量和一组自变量之间的非线性关系建模的方法。
其次,对于一个被认为是非线性的模型,Y必须是参数Theta的非线性函数,不一定是特征X。当涉及到非线性方程时,它可以是指数,对数,和逻辑函数,或许多其他类型。正如您在所有这些方程中看到的那样,Y 的变化取决于参数 Theta 的变化,不一定只取决于 X。也就是说,在非线性回归中,模型在参数上是非线性的。与线性回归相比,我们不能使用普通的最小二乘法来拟合非线性回归中的数据。一般来说,参数的估计并不容易。
让我在这里回答两个重要的问题。
首先,我怎样才能以简单的方式知道问题是线性的还是非线性的?
要回答这个问题,我们必须做两件事。首先是直观地确定关系是线性的还是非线性的。最好用每个输入变量绘制输出变量的双变量图。此外,您可以计算自变量和因变量之间的相关系数,如果所有变量的相关系数为 0.7 或更高,则存在线性趋势,因此不适合拟合非线性回归。我们要做的第二件事是当我们无法准确地建模与线性参数的关系时,使用非线性回归而不是线性回归。
第二个重要问题是,如果我的数据在散点图上显示为非线性,我应该如何建模?
要解决这个问题,您必须使用多项式回归、使用非线性回归模型或转换您的数据。
R语言里的非线性模型:多项式回归、局部样条、平滑样条、 广义相加模型GAM分析
在这里,我们放宽了流行的线性方法的假设。有时线性假设只是一个很差的近似值。有许多方法可以解决此问题,其中一些方法可以通过使用正则化方法降低模型复杂性来 解决 。但是,这些技术仍然使用线性模型,到目前为止只能进行改进。本文本专注于线性模型的扩展
-
_多项式回归_ 这是对数据提供非线性拟合的简单方法。
-
_阶跃函数_ 将变量的范围划分为 _K个_ 不同的区域,以生成定性变量。这具有拟合分段常数函数的效果。
-
_回归样条_ 比多项式和阶跃函数更灵活,并且实际上是两者的扩展。
-
_局部样条曲线_ 类似于回归样条曲线,但是允许区域重叠,并且可以平滑地重叠。
-
_平滑样条曲线_ 也类似于回归样条曲线,但是它们最小化平滑度惩罚的残差平方和准则 。
-
_广义加性模型_ 允许扩展上述方法以处理多个预测变量。
多项式回归
这是扩展线性模型的最传统方法。随着我们增加 多项式的项,多项式回归使我们能够生成非线性的曲线,同时仍使用最小二乘法估计系数。
逐步回归
它经常用于生物统计学和流行病学中。
回归样条
回归样条是 扩展多项式和逐步回归技术的许多_基本_函数之一 。事实上。多项式和逐步回归函数只是_基_ 函数的特定情况 。
这是分段三次拟合的示例(左上图)。
为了解决此问题,更好的解决方案是采用约束,使拟合曲线必须连续。
选择结的位置和数量
一种选择是在我们认为变化最快的地方放置更多的结,而在更稳定的地方放置更少的结。但是在实践中,通常以统一的方式放置结。
要清楚的是,在这种情况下,实际上有5个结,包括边界结。
那么我们应该使用多少个结?一个简单的选择是尝试许多个结,然后看哪个会产生最好的曲线。但是,更客观的方法是使用交叉验证。
与多项式回归相比,样条曲线可以显示出更稳定的效果。
平滑样条线
我们讨论了回归样条曲线,该样条曲线是通过指定一组结,生成一系列基函数,然后使用最小二乘法估计样条系数而创建的。平滑样条曲线是创建样条曲线的另一种方法。让我们回想一下,我们的目标是找到一些非常适合观察到的数据的函数,即最大限度地减少RSS。但是,如果对我们的函数没有任何限制,我们可以通过选择精确内插所有数据的函数来使RSS设为零。
选择平滑参数Lambda
同样,我们求助于交叉验证。事实证明,我们实际上可以非常有效地计算LOOCV,以平滑样条曲线,回归样条曲线和其他任意基函数。
平滑样条线通常比回归样条线更可取,因为它们通常会创建更简单的模型并具有可比的拟合度。
局部回归
局部回归涉及仅使用附近的训练观测值来计算目标点_x_ 0 处的拟合度 。
可以通过各种方式执行局部回归,尤其是在涉及拟合_p_ 线性回归模型的多变量方案中尤为明显 ,因此某些变量可以全局拟合,而某些局部拟合。
广义加性模型
GAM模型提供了一个通用框架,可通过允许每个变量的非线性函数扩展线性模型,同时保持可加性。
具有平滑样条的GAM并不是那么简单,因为不能使用最小二乘。取而代之的 是使用一种称为_反向拟合_的方法 。
GAM的优缺点
优点
-
GAM允许将非线性函数拟合到每个预测变量,以便我们可以自动对标准线性回归会遗漏的非线性关系进行建模。我们不需要对每个变量分别尝试许多不同的转换。
-
非线性拟合可以潜在地对因变量_Y_做出更准确的预测 。
-
因为模型是可加的,所以我们仍然可以检查每个预测变量对_Y_的影响, 同时保持其他变量不变。
缺点
-
主要局限性在于该模型仅限于累加模型,因此可能会错过重要的交互作用。
范例
多项式回归和分段函数
- 1. library(ISLR)
- 2. attach(Wage)
我们可以轻松地使用来拟合多项式函数,然后指定多项式的变量和次数。该函数返回正交多项式的矩阵,这意味着每列是变量的变量的线性组合 age
, age^2
, age^3
,和 age^4
。如果要直接获取变量,可以指定 raw=TRUE
,但这不会影响预测结果。它可用于检查所需的系数估计。
- 1. fit = lm(wage~poly(age, 4), data=Wage)
- 2. kable(coef(summary(fit)))
现在让我们创建一个ages
我们要预测的向量。最后,我们将要绘制数据和拟合的4次多项式。
- 1. ageLims <- range(age)
- 2. age.grid <- seq(from=ageLims[1], to=ageLims[2])
- 4. pred <- predict(fit, newdata = list(age = age.grid),
- 5. se=TRUE)
- 1. plot(age,wage,xlim=ageLims ,cex=.5,col="darkgrey")
- 2. lines(age.grid,pred$fit,lwd=2,col="blue")
- 3. matlines(age.grid,se.bands,lwd=2,col="blue",lty=3)
在这个简单的示例中,我们可以使用ANOVA检验 。
- 2. ## Analysis of Variance Table
- 3. ##
- 4. ## Model 1: wage ~ age
- 5. ## Model 2: wage ~ poly(age, 2)
- 6. ## Model 3: wage ~ poly(age, 3)
- 7. ## Model 4: wage ~ poly(age, 4)
- 8. ## Model 5: wage ~ poly(age, 5)
- 9. ## Res.Df RSS Df Sum of Sq F Pr(>F)
- 10. ## 1 2998 5022216
- 11. ## 2 2997 4793430 1 228786 143.59 <2e-16 ***
- 12. ## 3 2996 4777674 1 15756 9.89 0.0017 **
- 13. ## 4 2995 4771604 1 6070 3.81 0.0510 .
- 14. ## 5 2994 4770322 1 1283 0.80 0.3697
- 15. ## ---
- 16. ## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
我们看到,_M_1
与二次模型 相比,p值 _M_2
实质上为零,这表明线性拟合是不够的。因此,我们可以得出结论,二次方或三次模型可能更适合于此数据,并且偏向于简单模型。
我们也可以使用交叉验证来选择多项式次数。
在这里,我们实际上看到的最小交叉验证误差是针对4次多项式的,但是选择3次或2次模型并不会造成太大损失。接下来,我们考虑预测个人是否每年收入超过25万。
但是,概率的置信区间是不合理的,因为我们最终得到了一些负概率。为了生成置信区间,更有意义的是转换对 _数_ 预测。
绘制:
- 1. plot(age,I(wage>250),xlim=ageLims ,type="n",ylim=c(0,.2))
- 2. lines(age.grid,pfit,lwd=2, col="blue")
- 3. matlines(age.grid,se.bands,lwd=1,col="blue",lty=3)
逐步回归函数
在这里,我们需要拆分数据。
table(cut(age, 4))
- 1. ##
- 2. ## (17.9,33.5] (33.5,49] (49,64.5] (64.5,80.1]
- 3. ## 750 1399 779 72
- 1. fit <- lm(wage~cut(age, 4), data=Wage)
- 2. coef(summary(fit))
- 1. ## Estimate Std. Error t value Pr(>|t|)
- 2. ## (Intercept) 94.158 1.476 63.790 0.000e+00
- 3. ## cut(age, 4)(33.5,49] 24.053 1.829 13.148 1.982e-38
- 4. ## cut(age, 4)(49,64.5] 23.665 2.068 11.443 1.041e-29
- 5. ## cut(age, 4)(64.5,80.1] 7.641 4.987 1.532 1.256e-01
splines
样条函数
在这里,我们将使用三次样条。
由于我们使用的是三个结的三次样条,因此生成的样条具有六个基函数。
- 2. ## [1] 3000 6
- 3. dim(bs(age, df=6))
- 5. ## [1] 3000 6
- 6. ## 25% 50% 75%
- 7. ## 33.75 42.00 51.00
拟合样条曲线。
我们也可以拟合平滑样条。在这里,我们拟合具有16个自由度的样条曲线,然后通过交叉验证选择样条曲线,从而产生6.8个自由度。
- 2. fit2$df
- 4. ## [1] 6.795
- 5. lines(fit, col='red', lwd=2)
- 6. lines(fit2, col='blue', lwd=1)
- 7. legend('topright', legend=c('16 DF', '6.8 DF'),
- 8. col=c('red','blue'), lty=1, lwd=2, cex=0.8)
局部回归
执行局部回归。
GAMs
现在,我们使用GAM通过年份,年龄和受教育程度的样条来预测工资。由于这只是具有多个基本函数的线性回归模型,因此我们仅使用 lm()
函数。
为了拟合更复杂的样条曲线 ,我们需要使用平滑样条曲线。
绘制这两个模型
year
是线性的。我们可以创建一个新模型,然后使用ANOVA检验 。
- 2. ## Analysis of Variance Table
- 3. ##
- 4. ## Model 1: wage ~ ns(age, 5) + education
- 5. ## Model 2: wage ~ year + s(age, 5) + education
- 6. ## Model 3: wage ~ s(year, 4) + s(age, 5) + education
- 7. ## Res.Df RSS Df Sum of Sq F Pr(>F)
- 8. ## 1 2990 3712881
- 9. ## 2 2989 3693842 1 19040 15.4 8.9e-05 ***
- 10. ## 3 2986 3689770 3 4071 1.1 0.35
- 11. ## ---
- 12. ## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
似乎添加线性year
成分要比不添加线性 成分的GAM好得多。
- 2. ##
- 3. ## Deviance Residuals:
- 4. ## Min 1Q Median 3Q Max
- 5. ## -119.43 -19.70 -3.33 14.17 213.48
- 6. ##
- 7. ## (Dispersion Parameter for gaussian family taken to be 1236)
- 8. ##
- 9. ## Null Deviance: 5222086 on 2999 degrees of freedom
- 10. ## Residual Deviance: 3689770 on 2986 degrees of freedom
- 11. ## AIC: 29888
- 12. ##
- 13. ## Number of Local Scoring Iterations: 2
- 14. ##
- 15. ## Anova for Parametric Effects
- 16. ## Df Sum Sq Mean Sq F value Pr(>F)
- 17. ## s(year, 4) 1 27162 27162 22 2.9e-06 ***
- 18. ## s(age, 5) 1 195338 195338 158 < 2e-16 ***
- 19. ## education 4 1069726 267432 216 < 2e-16 ***
- 20. ## Residuals 2986 3689770 1236
- 21. ## ---
- 22. ## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
- 23. ##
- 24. ## Anova for Nonparametric Effects
- 25. ## Npar Df Npar F Pr(F)
- 26. ## (Intercept)
- 27. ## s(year, 4) 3 1.1 0.35
- 28. ## s(age, 5) 4 32.4 <2e-16 ***
- 29. ## education
- 30. ## ---
- 31. ## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
在具有非线性关系的模型中, 我们可以再次确认year
对模型没有贡献。
接下来,我们 将局部回归拟合GAM 。
在调用GAM之前,我们还可以使用局部回归来创建交互项。
我们可以 绘制结果曲面图 。
数据获取
在下面公众号后台回复“工资数据”,可获取完整数据。
点击文末“阅读原文”
获取全文完整资料。
本文选自《R语言里的非线性模型:多项式回归、局部样条、平滑样条、 广义相加模型GAM分析》。
点击标题查阅往期内容
MATLAB最小二乘法:线性最小二乘、加权线性最小二乘、稳健最小二乘、非线性最小二乘与剔除异常值效果比较
数据分享|R语言广义线性模型GLM:线性最小二乘、对数变换、泊松、二项式逻辑回归分析冰淇淋销售时间序列数据和模拟
生态学模拟对广义线性混合模型GLMM进行功率(功效、效能、效力)分析power analysis环境监测数据
广义线性模型glm泊松回归的lasso、弹性网络分类预测学生考试成绩数据和交叉验证
有限混合模型聚类FMM、广义线性回归模型GLM混合应用分析威士忌市场和研究专利申请数据
R语言贝叶斯广义线性混合(多层次/水平/嵌套)模型GLMM、逻辑回归分析教育留级影响因素数据
R语言贝叶斯MCMC:GLM逻辑回归、Rstan线性回归、Metropolis Hastings与Gibbs采样算法实例
R语言用lme4多层次(混合效应)广义线性模型(GLM),逻辑回归分析教育留级调查数据
R语言广义线性模型GLM、多项式回归和广义可加模型GAM预测泰坦尼克号幸存者
R语言用Rshiny探索lme4广义线性混合模型(GLMM)和线性混合模型(LMM)
R语言使用bootstrap和增量法计算广义线性模型(GLM)预测置信区间
R语言中的广义线性模型(GLM)和广义相加模型(GAM):多元(平滑)回归分析保险资金投资组合信用风险敞口
R和Python机器学习:广义线性回归glm,样条glm,梯度增强,随机森林和深度学习模型分析
在r语言中使用GAM(广义相加模型)进行电力负荷时间序列分析
R和Python机器学习:广义线性回归glm,样条glm,梯度增强,随机森林和深度学习模型分析
在r语言中使用GAM(广义相加模型)进行电力负荷时间序列分析
标签:样条,##,多项式,回归,age,GAM,线性,模型 From: https://www.cnblogs.com/tecdat/p/16609703.html