首页 > 其他分享 >XGB

XGB

时间:2023-12-09 14:48:25浏览次数:17  
标签:plt XGB value label ks tpr fpr

from xgboost import XGBClassifier
model = XGBClassifier(learning_rate=0.1,max_depth=5,alpha=0.2)
model.fit(x_train,y_train)
p=model.predict_proba(x_test)
m=pd.DataFrame(p)
n=m.iloc[:,1:]
from sklearn.metrics import roc_curve
label=y_test
score=n
fpr,tpr,thresholds= roc_curve(label,score)
ks_value = max(abs(fpr-tpr))

画图,画出曲线

plt.plot(fpr, label='bad')
plt.plot(tpr, label='good')
plt.plot(abs(fpr-tpr), label='diff')

标记ks

x = np.argwhere(abs(fpr-tpr) == ks_value)[0, 0]
plt.plot((x, x), (0, ks_value), label='ks - {:.2f}'.format(ks_value), color='r', marker='o', markerfacecolor='r', markersize=5)
plt.scatter((x, x), (0, ks_value), color='r')
plt.legend()
plt.show()
4.1调参
model = XGBClassifier(max_depth=5,alpha=0.2)
grid={'learning_rate':[0.01, 0.015, 0.025, 0.05, 0.1,0.2]}
gs=GridSearchCV(model,grid,cv=10)
gs.fit(x_train,y_train)

gs.best_score_

gs.best_params_

标签:plt,XGB,value,label,ks,tpr,fpr
From: https://www.cnblogs.com/chenqianguan/p/17890918.html

相关文章

  • XGB调参思路
    (1)选择较高的学习率,例如learning_rate=0.1,这样可以减少迭代用时。(2)然后对(max_depth,min_child_weight),(3)在第二步确定的基础上调整gamma,(4)subsample,colsample_bytree这些参数进行调整。(5)调整正则化参数lambda,alpha(6)降低学习率,这些参数的合适候选值为:max_depth......
  • LDAEXC: LncRNA-Disease Associations Prediction with Deep Autoencoder and XGBoost
    LDAEXC:LncRNA-DiseaseAssociationsPredictionwithDeepAutoencoderandXGBoostClassifier. 作者: LuCuihong; XieMinzhu作者背景: CollegeofInformationScienceandEngineering,HunanNormalUniversity,Changsha,China.; CollegeofInformation......
  • 数据分享|python分类预测职员离职:逻辑回归、梯度提升、随机森林、XGB、CatBoost、LGB
    全文链接:https://tecdat.cn/?p=34434原文出处:拓端数据部落公众号分析师:ShilinChen离职率是企业保留人才能力的体现。分析预测职员是否有离职趋向有利于企业的人才管理,提升组织职员的心理健康,从而更有利于企业未来的发展。解决方案任务/目标采用分类这一方法构建6种模型对职......
  • 使用xgboost的c接口推理模型
    title:使用xgboost的c接口推理模型banner_img:https://cdn.studyinglover.com/pic/2023/07/b5c4ecf9aa476ca1073f99b22fe9605e.jpgdate:2023-9-1021:10:00categories:-踩坑tags:-机器学习使用xgboost的c接口推理模型官方capitutorial和文档,非常恶心的一点是,tutor......
  • 解决xgboost\core.py", ValueError: feature_names may not contain [, ] or <
    解决"xgboost\core.py",ValueError:feature_namesmaynotcontain[,]or<在使用xgboost进行特征工程时,有时会遇到类似下面的错误提示:pythonCopycodeFile"xgboost\core.py",lineXXX,inset_inforaiseValueError('feature_namesmaynotcontain[,]o......
  • Python信贷风控模型:梯度提升Adaboost,XGBoost,SGD, GBOOST, SVC,随机森林, KNN预测金
    原文链接:http://tecdat.cn/?p=26184 原文出处:拓端数据部落公众号最近我们被客户要求撰写关于信贷风控模型的研究报告,包括一些图形和统计输出。在此数据集中,我们必须预测信贷的违约支付,并找出哪些变量是违约支付的最强预测因子?以及不同人口统计学变量的类别,拖欠还款的概率如何......
  • XGBoost 2.0:对基于树的方法进行了重大更新
    XGBoost是处理不同类型表格数据的最著名的算法,LightGBM和Catboost也是为了修改他的缺陷而发布的。9月12日XGBoost发布了新的2.0版,本文除了介绍让XGBoost的完整历史以外,还将介绍新机制和更新。这是一篇很长的文章,因为我们首先从梯度增强决策树开始。基于树的方法,如决策树、随机......
  • Python信贷风控模型:梯度提升Adaboost,XGBoost,SGD, GBOOST, SVC,随机森林, KNN预测金
    原文链接:http://tecdat.cn/?p=26184 原文出处:拓端数据部落公众号最近我们被客户要求撰写关于信贷风控模型的研究报告,包括一些图形和统计输出。在此数据集中,我们必须预测信贷的违约支付,并找出哪些变量是违约支付的最强预测因子?以及不同人口统计学变量的类别,拖欠还款的概率如何......
  • XGboost详解
    一概述XGBoost提供梯度提升树(也称为GBDT,GBM),可以快速准确地解决许多数据科学问题,相同的代码可以在主要分布式环境运行(ApacheHadoop,ApacheSpark,ApacheFlink)。系统优化:并行计算:支持并行计算。树剪枝:用贪心算法来选择最佳分裂点,然后开始剪枝。硬件优化:有效利用硬件资源。......
  • 利用 XGBoost 进行时间序列预测
    推荐:使用NSDT场景编辑器助你快速搭建3D应用场景XGBoost应用程序的常见情况是分类预测(如欺诈检测)或回归预测(如房价预测)。但是,也可以扩展XGBoost算法以预测时间序列数据。它是如何工作的?让我们进一步探讨这一点。时间序列预测数据科学和机器学习中的预测是一种技术,用于根据一......