首页 > 其他分享 >集成学习

集成学习

时间:2022-11-22 17:59:28浏览次数:52  
标签:集成 None min default 模型 学习 int optional

https://blog.csdn.net/weixin_43776305/article/details/116895875

 

多个模型集成后的模型叫做集成评估器,集成评估器中的每一个模型叫做基评估器,通常来说有三类集成算法:Bagging、Boosting、Stacking
随机森林是Bagging的代表模型, 他所有的基评估器都是决策树。Bagging法中每一个基评估器是平行的,最后的结果采用平均值或者少数服从多数的原则

集成算法的目标

集成算法会考虑多个评估器的建模结果,汇总之后得到一个综合结果,以此来获取比单个模型更好的回归或分类表现

 

随机森林在sklearn中ensemble模块下

from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import make_classification
X, y = make_classification(n_samples=1000, n_features=4, n_informative=2, n_redundant=0, random_state=0, shuffle=False)
clf = RandomForestClassifier(n_estimators=100, max_depth=2, random_state=0)
clf.fit(X, y)  
#生成的随机森林具体的参数
#RandomForestClassifier(bootstrap=True, class_weight=None, criterion='gini', max_depth=2, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, min_samples_leaf=1, in_samples_split=2,min_weight_fraction_leaf=0.0, n_estimators=100, n_jobs=None,oob_score=False, random_state=0, verbose=0, warm_start=False)
print(clf.feature_importances_)

out:[0.14205973 0.76664038 0.0282433  0.06305659]
print(clf.predict([[0, 0, 0, 0]]))
out:[1]

 

 

随机森林模型参数
n_estimators: 推荐0-200之间的数值
这是森林中树木的数量,即基评估器的数量。这个参数对随机森林模型的精确性影响是单调的,n_estimators越大,模型的效果往往越好。但是相应的,任何模型都有决策边界,n_estimators达到一定的程度之后,随机森林的精确性往往不在上升或开始波动,并且,n_estimators越大,需要的计算量和内存也越大,训练的时间也会越来越长。对于这个参数,我们是渴望在训练难度和模型效果之间取得平衡。
random_state: 控制生成随机森林的模式。并不能控制森林中的树的样式。随机性越大,模型效果越好,当然这样可能就不是很稳定,不便于调试。想要模型稳定,可以设置random_state参数
bootstrap: 控制抽样技术的参数,默认为True。采用有放回的随机抽样数据来形成训练数据。
对我们传入随机森林模型的数据集,对每一个基评估器采用有放回的随机抽样从原始数据集中抽取n个样本来组成自助集,并将自助集作为基评估器的训练数据。这样的作法大大增加了随机性,提高了模型的效果。
由于有放回,所以有一些样本可能在某些自助集中出现多次,而其他的一些样本可能被忽略。一般来说,自助集一般会包含63%的原始数据。那些被浪费掉的数据被称为袋外数据(out of bag data 简称oob)。除了我们最开始就划分好训练测试集外,这些被忽略的数据也可以用来作为测试集,也就是说在使用随机森林模型的时候可以不用划分数据集,只需要用袋外数据来测试我们的模型即可。当样本数量,和随机森林中树的数量不大的情况下,可能没有数据在袋外,也就不能用oob来测试模型了。
oob_score:默认为False,True表示用袋外数据来测试模型。可以通过oob_score_来查看模型的准取度。

随机森林函数的参数以及方法
class sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_split=1e-07, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, class_weight=None)

参数

  • n_estimators : integer, optional (default=10)
    随机森林中树的数量;
  • criterion : string, optional (default=”gini”)
    树分裂的规则:gini系数,entropy熵;
  • max_features : int, float, string or None, optional (default=”auto”)
    查找最佳分裂所需考虑的特征数,
    int:分裂的最大特征数,
    float:分裂的特征占比,
    auto、sqrt:sqrt(n_features),
    log2:log2(n_features),
    None:n_features,
  • max_depth : integer or None, optional (default=None)
    树的最大深度;
  • min_samples_split:int, float, optional (default=2)
    最小分裂样本数;
  • min_samples_leaf : int, float, optional (default=1)
    最小叶子节点样本数;
  • min_weight_fraction_leaf : float, optional (default=0.)
    最小叶子节点权重;
  • max_leaf_nodes : int or None, optional (default=None)
    最大叶子节点数;
  • min_impurity_split : float, optional (default=1e-7)
    分裂的最小不纯度;
  • bootstrap : boolean, optional (default=True)
    是否使用bootstrap;
  • oob_score : bool (default=False)
    是否使用袋外(out-of-bag)样本估计准确度;
  • n_jobs : integer, optional (default=1)
    并行job数,-1 代表全部;
  • random_state : int, RandomState instance or None, optional (default=None)
    随机数种子;
  • verbose : int, optional (default=0)
    Controls the verbosity of the tree building process.(控制树冗余?)
  • warm_start : bool, optional (default=False)
    如果设置为True,在之前的模型基础上预测并添加模型,否则,建立一个全新的森林;
  • class_weight : dict, list of dicts, “balanced”,
    “balanced” 模式自动调整权重,每类的权重为 n_samples / (n_classes * np.bincount(y)),即类别数的倒数除以每类样本数的占比。

属性

  • estimators_ : list of DecisionTreeClassifier
    森林中的树;
  • classes_ : array of shape = [n_classes] or a list of such arrays
    类标签;
  • n_classes_ : int or list
    类;
  • n_features_ : int
    特征数;
  • n_outputs_ : int
    输出数;
  • feature_importances_ : array of shape = [n_features]
    特征重要性;
  • oob_score_ : float
    使用袋外样本估计的准确率;
  • oob_decision_function_ : array of shape = [n_samples, n_classes]
    决策函数

标签:集成,None,min,default,模型,学习,int,optional
From: https://www.cnblogs.com/pass-ion/p/16915927.html

相关文章

  • MyBatis - 基础学习9 - 动态sql(sql片段,foreach)
    一.sql片段为什么要使用sql片段:我么在编写一些大规模的sql语句时,总会面临所写的sql语句在几个增删改语句中反复出现,它们都做着相同的事,我们却要反复的编写(虽然可以复制粘......
  • 网络流学习笔记
    前言:本人已做完网络流24题。0.基础:Dinic最大流/最小割:https://www.luogu.com.cn/blog/creationhy/dinicDinic费用流:https://www.luogu.com.cn/blog/creationhy/dinic-f......
  • 关于编程学习的七点思索
    关于编程学习的七点思索作者:ChadPerrin翻译:PurpleEndurer,2010-12-22第2版分类:*nix,CodeWriting,编写代码,Databases,数据库,Macros,宏,Programming,编程标签:管理......
  • bazel学习
    bazel学习afast,scalable,multi-languageandextensiblebuildsystembazel就是一个编译打包工具,类似于make、cmake等安装⚠️:Centos7系统安装bazel4参考:https:/......
  • 初学Java应如何学习
    学习技巧在以前大部分人学习都是先去找本书,先看看,再试,要是不懂了在去网上去查,再在继续啃着书本。但现在向书学习和在网上学习这掌握的效果是不同的,要学会用适合自己的学习方......
  • 一文带你学懂LAMP架构--从概念入门到实战精通,还等什么,快来学习!!
    (服务阶段)1.服务相关概念简析,学习不迷路1.1web服务概述WEB服务器也称为WWW(WORLDWIDEWEB,万维⽹)服务器,主要功能是提供⽹上信息浏览服务。常见的web服务器:httpd(apache),nginx+......
  • HX学习之常用代码块
    查看内建的代码块,点击菜单-工具-代码块设置,选择要查看的语言的代码块。通用js代码块iff:简单ifforr:for循环结构体fori:for循环结构体并包含ifunn:函数funa:匿名函数......
  • 泡妞最需要明白什么,最需要学习什么?
    最需要明白的是,女性思维。其实大多数中国男人泡妞的时候用的都是男性思维,这就相当于一个歪果仁和我们聊天,他用的英语,我们用的汉语,语言不通导致信息不对称。你以为你在对......
  • 可撤销并查集学习笔记
    前言与可持久化并查集一起食用,效果更佳。前置知识:并查集以及并查集的按秩合并优化。例题引入你需要维护一棵\(n\)个点的动态森林,初始时是\(n\)个散点,有\(q\)个......
  • 学习apply()方法的使用,记录一下
    网上大牛,说的很直接,劫持另外一个对象(a)的方法,继承a的属性.,我个人理解,就是把你的变成我的.1.对象的继承,一般的做法是复制:Object.extend下面是prototype.js的实现方式......