#岭回归 from sklearn import linear_model #参数alpha用于控制复杂度,alpha的值越接近于0,岭回归器表现越接近于普通最小二乘法的线性回归器 #因此,若想让异常值具有良好的健壮性,就要为alpha分配一个较大的值,这里我们用一个中等大小的值0.01 ridge_regressor = linear_model.Ridge(alpha=0.01,fit_intercept=True,max_iter=10000) import sklearn.metrics as sm #训练回归器 ridge_regressor.fit(x_train,y_train) y_test_pred_ridge = ridge_regressor.predict(x_test) print("Mean absolute error",round(sm.mean_absolute_error(y_test,y_test_pred_ridge), 2)) ''' 岭回归是对系数规模施加了惩罚的正则化方法,除了岭系数在计算时减去一个值外, 他和最小二乘法是相同的。在岭回归中,缩放转换会有重大影响。因此在估计模型前要对所有因子 进行标准化处理 标准化:减去均值再除以标准差 '''
在前面普通线性回归的基础上,加上上面的代码。即为岭回归(有了惩罚项)
标签:ridge,fit,回归,day2,regressor,test,alpha,承接 From: https://www.cnblogs.com/fighting-huihui/p/17437374.html