• 2024-12-24一维信号的稀疏度度量方法(MATLAB)
    一般会说一个向量是稀疏的,一般是指在这个向量中,只有少部分元素的绝对值比较大,其余大部分元素接近于0。Hurley以城镇居民的财富分布为例(也就是说,将所有人的财富值排在一起,组成一个向量),认为稀疏性—般具有下面六种非常有趣的性质:(1)罗宾汉效应:罗宾汉劫富济贫,而这种行为降低了财
  • 2024-12-01【人工智能基础05】决策树模型
    文章目录一.基础内容1.决策树基本原理1.1.定义1.2.表示成条件概率2.决策树的训练算法2.1.划分选择的算法信息增益(ID3算法)信息增益比(C4.5算法)基尼指数(CART算法)举例说明:计算各个类别的信息增益2.2.叶子节点的选择2.3.剪枝预剪枝后剪枝2.4.决策树训练算法分
  • 2024-11-28LeetCode - #146 LRU 缓存(Top 100)
    文章目录前言1.描述2.示例3.答案关于我们前言本题为LeetCode前100高频题我们社区陆续会将顾毅(Netflix增长黑客,《iOS面试之道》作者,ACE职业健身教练。)的Swift算法题题解整理为文字版以方便大家学习与阅读。LeetCode算法到目前我们已经更新到145期
  • 2024-08-15基尼指数详细解释
    基尼指数(GiniIndex),又称基尼不纯度(GiniImpurity),是决策树算法中常用的一种指标,用于衡量节点的不纯度。在分类树中,它帮助决定如何划分数据集,以便在树的每个节点上尽可能地提高分类的纯度。基尼指数的定义基尼指数量化了一个节点中样本的不纯度。具体来说,它计算了从该节点中随
  • 2024-07-25【基于基尼指数的信号模式重分组】该方法能解决宽带脉冲信号分解算法中存在的过度分解问题研究(Matlab代码实现)
      
  • 2024-07-10【机器学习】使用决策树分类器预测汽车安全性的研究与分析
    文章目录一、决策树算法简介决策树的结构分类和回归树(CART)决策树算法术语决策树算法直觉二、属性选择度量信息增益熵基尼指数计算分割基尼指数的步骤三、决策树算法中的过度拟合避免过度拟合的方法四、导入库和数据可视化探索性数据分析重命名列名查看数据集的总
  • 2024-06-10【机器学习】决策树模型(个人笔记)
    目录多样性指标基尼杂质指数(GiniImpurityIndex)熵(Entropy)决策树的应用源代码文件请点击此处!多样性指标基尼杂质指数(GiniImpurityIndex)若集合中包含\(m\)个元素和\(n\)个类别,其中\(a_i\)个元素属于第\(i\)个类别,则:\[基尼杂质指数=1-p_1^2-p_2^2-...-p_
  • 2024-01-20人工智能学习总结_2
    人工智能四、线性回归4.1线性回归(1)线性回归特点:解释性强,简单,泛化能力稳定。(2)特征:输入的不同维度叫做特征。如果特征本身很重要,线性回归就很有效,但是挑选特征是非常困难的。(神经网络本质就是自动挑选、学习特征的机器)(3)最小化损失函数的方法:梯度下降法梯度下降法的计算4
  • 2023-12-04机器学习--决策树(信息熵,信息增益,信息增益率,基尼值,基尼指数)
    决策树是根据条件分支语句if-else产生的,决策树是一种树形结构,每一个内部节点表示是一个属性上的判断,每一个分支表示判断结果的输出,每一个叶子节点表示分类结果,本质上就是多个判断节点的树。在使用决策树的时候会提到熵的概念熵:熵表示混乱程度,越混乱熵值越大,越有序熵值越小,在信息
  • 2023-11-23回归任务和分类任务,重要性度量的计算方式
    在随机森林中,对于回归任务和分类任务,重要性度量的计算方式是不同的。回归任务:使用的是 %IncMSE 和 IncNodePurity。%IncMSE:这是一个基于均方误差(MeanSquaredError,MSE)的度量。当我们对某个变量进行排列时,预测误差的增加程度被用作该变量的重要性度量。如果对预测结果影响