• 2024-08-26Python集成学习和随机森林算法使用详解
    概要集成学习是一种通过组合多个模型来提高预测性能的机器学习方法。它通过将多个弱学习器的结果结合起来,形成一个强学习器,从而提升模型的准确性和稳健性。随机森林(RandomForest)是集成学习中一种非常流行且有效的算法,特别适用于分类和回归任务。本文将详细介绍Python中如何
  • 2024-08-13boosting 和 bagging 区别
    boosting类算法和bagging类算法最本质的差别在于他对基础模型不是一致对待的,而是经过不停的考验和筛选来挑选出“精英”,然后给精英更多的投票权,表现不好的基础模型则给较少的投票权,然后综合所有人的投票得到最终结果。大部分情况下,经过boosting得到的结果偏差(bias)更小。具
  • 2024-07-19深度学习中的正则化技术 - Dropout篇
    序言在深度学习的浩瀚领域中,模型过拟合一直是研究者们面临的挑战之一。当模型在训练集上表现得近乎完美,却难以在未见过的数据(测试集)上保持同样优异的性能时,过拟合现象便悄然发生。为了有效缓解这一问题,Dropout
  • 2024-07-05Boosting、Bagging主要关注降低偏差还是方差?
    Boosting、Bagging主要关注降低偏差还是方差?最近在做项目的过程中遇到了集成学习中的stagging方法,让我想起了之前参加面试的时候碰到的一个问题:Boosting主要关注降低偏差还是方差?Bagging主要关注降低偏差还是方差?这个问题还是很有意思的,如果之前没有看过,即便了解Boosting、Baggin
  • 2024-05-30为什么LightGBM如此之快
    为什么LightGBM如此之快模型解释树木叶子的生长Bins独家功能捆绑分布式学习参数Python代码文章最前:我是Octopus,这个名字来源于我的中文名–章鱼;我热爱编程、热爱算法、热爱开源。所有源码在我的个人github;这博客是记录我学习的点点滴滴,如果您对Python、Java、AI
  • 2024-02-24集成学习算法汇总
    集成学习算法(EnsembleLearning)传统机器学习算法(例如:决策树,人工神经网络,支持向量机,朴素贝叶斯等)都是通过弱学习机(weaklearners)来对目标进行预测(分类)。但是,以决策树算法为例,决策树算法在递归过程中,可能会过度分割样本空间,最终导致过拟合。集成学习(EnsembleLearning)算法
  • 2023-11-15Bagging
    Bagging(BootstrapAggregating)是一种集成学习方法,通过构建多个弱学习器,每个学习器使用不同的采样数据集,然后将它们的预测结果进行平均或投票来改善整体模型的泛化性能。这种方法的主要思想是通过对训练数据集的有放回随机采样来生成多个不同的训练子集,然后在每个子集上训练弱学习
  • 2023-10-09R语言基于Bagging分类的逻辑回归(Logistic Regression)、决策树、森林分析心脏病患者
    原文链接:http://tecdat.cn/?p=22448原文出处:拓端数据部落公众号最近我们被客户要求撰写关于分析心脏病患者的研究报告,包括一些图形和统计输出。今天,我们将看下bagging技术里面的启发式算法。通常,bagging与树有关,用于生成森林。但实际上,任何类型的模型都有可能使用bagging。
  • 2023-08-14机器学习之集成学习Ensemble
     集成算法:将多个分类器集成起来而形成的新的分类算法。这类算法又称元算法(meta-algorithm)。最常见的集成思想有两种bagging和boosting。集成思想 :boosting:重赋权(re-weighting)--基于错误提升分类器性能,通过集中关注被已有分类器分类错误的样本,构建新分类器并集成。boosting的
  • 2023-06-14简单易学的机器学习算法——集成方法(Ensemble Method)
    一、集成学习方法的思想    前面介绍了一系列的算法,每个算法有不同的适用范围,例如有处理线性可分问题的,有处理线性不可分问题。在现实世界的生活中,常常会因为“集体智慧”使得问题被很容易解决,那么问题来了,在机器学习问题中,对于一个复杂的任务来说,能否将很多的机器学习算法
  • 2023-04-28ML-集成学习
    集成学习根据个体学习器的生成方式分为Bagging和Boosting两大类。Bagging的个体学习器之间不存在强依赖关系,Boosting存在强依赖关系。Bagging可以同时生成的并行化方法,Boosting必须串行化生成的序列化方法。BaggingBootstrapaggregating,即使用自主采样法来构造基学习器。Bag
  • 2023-04-28集成学习:Bagging & Boosting
    核心思想将多个弱分类器组装成一个强分类器。前置知识Bias&Variance定义:$bias=\bar{f}(x)-y$,为模型的期望预测与真实值之间的差异。$variance=\mathbb{E}_{\mathcal{D}}[(f(x;\mathcal{D})-\bar{f}(x))^2]$,模型在数据集\(\mathcal{D}\)上的鲁棒性。Bagging(bo
  • 2023-03-07集成学习之bagging、boosting及AdaBoost的实现
    本文所有代码都是基于python3.6的,数据及源码下载:传送门引言前面博客分享,我们已经讲解了不少分类算法,有knn、决策树、朴素贝叶斯、逻辑回归、svm。我们知道,当做重要决
  • 2023-02-21瞎聊机器学习——集成学习
    什么是集成学习?对于一个机器学习问题,通常我们有两种策略,一种是研发人员尝试各种模型,选择其中表现最好的模型进行调参优化;另一种策略就是将多个分类器的结果统一成一个最终的
  • 2023-01-17【机器学习】集成学习(Bagging)——随机森林(RandomForest)(理论+图解+公式推导)
    如果需要完整代码可以关注下方公众号,后台回复“代码”即可获取,阿光期待着您的光临~文章目录​​一、引言​​​​二、随机森林​​​​1.数据抽样​​​​2.集成模型结果​
  • 2023-01-12【课程作业】西瓜书 机器学习课后习题 : 第八章
    目录​​简介​​​​说明​​​​8.1​​​​8.4​​​​8.8​​​​结语​​简介Hello!非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~ ଘ(੭ˊᵕˋ)੭昵称:
  • 2022-12-28《李沐实用机器学习之5.2 Bagging》
    slides:https://c.d2l.ai/stanford-cs329p/_static/pdfs/cs329p_slides_7_2.pdf视频:https://www.bilibili.com/video/BV13g411N7xy/?spm_id_from=333.999.0.0&vd_source=
  • 2022-12-18Bagging集成学习
    一、概述1.1基本原理   通过上图我们知道,bagging是每个弱学习器之间的并行计算最后综合预测,各个弱学习器之间没有依赖关系,在训练集到子训练器的过程叫做“子抽
  • 2022-12-08Baggging 和Boosting
    Baggging和Boosting都是模型融合的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。 Bagging:先介绍Bagging方法:Bagging即套袋法,
  • 2022-12-03Bagging策略和随机森林的应用以及线性回归与局部加权回归三种实例(线性回归、AdaBoost、GradientBoostingRegressor)【机器学习】
    一.Bagging策略bootstrapaggregation有放回抽样集合从样本集中重采样(有重复的)选出n个样本在所有属性上,对这n个样本建立分类器(ID3、C4.5、CART、SVM、Logistic回
  • 2022-11-02Bagging与随机森林
    1.集成学习三大领域集成学习(Ensemblelearning)方法会训练多个弱评估器(baseestimators),并将他们的输出结果以某种方式结合起来解决一个问题。模型融合投票法Voting、
  • 2022-10-11Ensemble Learning Intr
      通过聚集多个分类器的预测来提高分类准确率的技术称为组合学习/集成学习(EnsembleLearning)。本文主要介绍相关概念,叙述几种常见集成学习模型的构造。集成学习的种类
  • 2022-09-19什么是合奏技术?让我们用柠檬语言学习吧。✔
    什么是合奏技术?让我们用柠檬语言学习吧。✔什么是合奏技巧?每当我们有大量数据时,或者我们可以说,每当我们在数据集中有大量行和列时,我们使用技术集。例如:-假设我们有