首页 > 其他分享 >决策树-ID3

决策树-ID3

时间:2024-07-22 16:29:34浏览次数:19  
标签:index tree feature ID3 增益 data best 决策树

代码

import numpy as np
data = np.array([
    ['老年', '短发', '平底', '深色', '男性'],
    ['老年', '短发', '平底', '浅色', '男性'],
    ['老年', '中发', '平底', '花色', '女性'],
    ['老年', '长发', '高跟', '浅色', '女性'],
    ['老年', '短发', '平底', '深色', '男性'],
    ['中年', '短发', '平底', '浅色', '男性'],
    ['中年', '短发', '平底', '浅色', '男性'],
    ['中年', '长发', '高跟', '花色', '女性'],
    ['中年', '中发', '高跟', '深色', '女性'],
    ['中年', '中发', '平底', '深色', '男性'],
    ['青年', '长发', '高跟', '浅色', '女性'],
    ['青年', '短发', '平底', '浅色', '女性'],
    ['青年', '长发', '平底', '深色', '男性'],
    ['青年', '短发', '平底', '花色', '男性'],
    ['青年', '中发', '高跟', '深色', '女性']
])
columns = ['年龄', '发长', '鞋跟', '服装', '性别']

# 计算信息熵
def entropy(labels):
    unique_labels, label_counts = np.unique(labels, return_counts=True)
    probabilities = label_counts / len(labels)
    return -np.sum(probabilities * np.log2(probabilities))

# 多数表决函数
def majority_vote(labels):
    unique_values, counts = np.unique(labels, return_counts=True)
    return unique_values[np.argmax(counts)]

# 选择最佳特征
def choose_best_feature(data):
    base_entropy = entropy(data[:, -1])  # 计算整个数据集的原始熵
    best_info_gain = 0.0
    best_column = -1

    # 遍历每个特征,计算信息增益
    for index in range(data.shape[1] - 1):
        unique_values = np.unique(data[:, index])
        new_entropy = 0.0

        # 计算每个特征值导致的信息熵
        for value in unique_values:
            subset = data[data[:, index] == value]
            prob = len(subset) / len(data)
            new_entropy += prob * entropy(subset[:, -1])

        info_gain = base_entropy - new_entropy
        if info_gain > best_info_gain:
            best_info_gain = info_gain
            best_column = index

    return best_column

# 切割数据集
def split_data(data, index, value):
    """根据特征和特征值切割数据集."""
    subset = data[data[:, index] == value]
    return np.delete(subset, index, axis=1)

# 递归构建决策树
def create_decision_tree(data, feature_names):
    """递归构建决策树,选择最佳分割特征."""
    # 如果数据集中所有元素属于同一类别,则返回该类别
    if len(np.unique(data[:, -1])) == 1:
        return data[0, -1]

    # 如果没有更多的特征可用来进一步划分数据,应用多数表决
    if len(data[0]) == 1:
        return majority_vote(data[:, -1])

    # 选择最佳特征并继续分割
    best_feature_index = choose_best_feature(data)
    best_feature = feature_names[best_feature_index]
    tree = {best_feature: {}}

    # 对每个特征值递归构建子树
    feature_values = np.unique(data[:, best_feature_index])
    for value in feature_values:
        sub_data = split_data(data, best_feature_index, value)
        sub_features = feature_names[:best_feature_index] + feature_names[best_feature_index + 1:]
        tree[best_feature][value] = create_decision_tree(sub_data, sub_features)

    return tree

# 打印决策树
def print_decision_tree(tree, indent=''):
    for key, val in tree.items():
        if isinstance(val, dict):
            print(indent + str(key) + ':')
            print_decision_tree(val, indent + '  ')
        else:
            print(indent + '  ' + str(key) + ': ' + str(val))

# 构建并打印决策树
decision_tree = create_decision_tree(data, columns)
print_decision_tree(decision_tree)

结果

改进

1.可以使用如graphviz来生成决策树的图形可视化表示

2..查阅资料得知,当数据集够大时需要采用

剪枝(Pruning)

剪枝可以帮助减少决策树的复杂性,避免过拟合。通常有两种主要的剪枝技术:

  • 预剪枝(Pre-pruning):在构建决策树的过程中提前停止树的生长。可以通过设置一个最大深度、要求节点中的最小样本数量或信息增益的最小值来实现。

  • 后剪枝(Post-pruning):先构建决策树,然后删除那些提供较小增益的分支。可以使用交叉验证来测试每次剪枝的效果,保留表现最佳的配置。

    但是这个里面,没想懂剪枝在本题的作用,因为本题就15个样本,没必要限制树的深度,剪枝效果不大

3.预测功能

 # 预测函数
 def predict(tree, sample):
     if not isinstance(tree, dict):
         return tree
     root_node = next(iter(tree))
     feature_value = sample.get(root_node)
     if feature_value in tree[root_node]:
         return predict(tree[root_node][feature_value], sample)
     return None

4.用其他算法来分类,如C4.5算法

C4.5算法是用于生成决策树的一种经典算法,是ID3算法的一种延伸和优化。

C4.5算法对ID3算法进行了改进 ,改进点主要有:

  1. 用信息增益率来选择划分特征,克服了用信息增益选择的不足,但信息增益率对可取值数目较少的属性有所偏好

  2. 能够处理离散型和连续型的属性类型,即将连续型的属性进行离散化处理;

  3. 能够处理具有缺失属性值的训练数据;

  4. 在构造树的过程中进行剪枝;

计算步骤

  1. 计算信息增益:首先,和ID3一样,计算每个属性的信息增益。

  2. 计算分割信息:对于每个属性,计算其分割信息,这是对属性可能取值的总体信息量的度量。

  3. 计算信息增益率:信息增益率是信息增益和分割信息的比值。选择信息增益率最高的属性作为分割节点。

数据集中的特征如“服装”和“发长”在不同分类下的分布相对均匀,使用ID3可能会优先选择这些特征,因为它们可能带来更高的信息增益。而C4.5在计算信息增益率时,会考虑到分割信息,可能不会选择这些特征,尤其是当这些特征的分割信息较高时。

本题中用C4.5算法可能时先年龄后服装,而不是先服装后年龄。

手动计算方法

标签:index,tree,feature,ID3,增益,data,best,决策树
From: https://blog.csdn.net/rozaji2008/article/details/140613016

相关文章

  • 63文章解读与程序——电力系统保护与控制EI\CSCD\北大核心《基于混沌集成决策树的电
    ......
  • 决策树模型构建+调参Python代码——用决策树模型实现机器学习
    一、决策树模型简介1.1适用范围决策树模型(DecisionTree)可以用于分类和回归任务,广泛应用于以下领域:客户细分信用风险评估医疗诊断营销策略优化1.2原理决策树是一种树形结构的预测模型,通过一系列的特征测试(即节点的分裂)将数据集逐步划分,从而形成一个树状的决策路径。每个节......
  • AI Earth——基于决策树模型淮河流域冬小麦提取应用app
    应用介绍:本应用依据利用Landsat-8数据,基于潘力、夏浩铭、王瑞萌等研究论文(基于GoogleEarthEngine的淮河流域越冬作物种植面积制图)中提出的利用作物在不同物候期内卫星影像的光谱存在差异的特征,通过计算作物时间序列的皈依化植被指数(NDVI),选取越冬作物生长旺盛期NDVI最大......
  • 数据分享|R语言逻辑回归、线性判别分析LDA、GAM、MARS、KNN、QDA、决策树、随机森林、
    全文链接:http://tecdat.cn/?p=27384最近我们被客户要求撰写关于葡萄酒的研究报告,包括一些图形和统计输出。在本文中,数据包含有关葡萄牙“VinhoVerde”葡萄酒的信息介绍该数据集(查看文末了解数据获取方式)有1599个观测值和12个变量,分别是固定酸度、挥发性酸度、柠檬酸、残糖、......
  • 数据分享|R语言决策树和随机森林分类电信公司用户流失churn数据和参数调优、ROC曲线可
    原文链接:http://tecdat.cn/?p=26868最近我们被客户要求撰写关于电信公司用户流失的研究报告,包括一些图形和统计输出。在本教程中,我们将学习覆盖决策树和随机森林。这些是可用于分类或回归的监督学习算法下面的代码将加载本教程所需的包和数据集。  library(tidyverse)......
  • 机器学习算法-决策树
    一、决策树简介    决策树是一种分类与回归的方法,它以树形结构的形式进行呈现,可以认为是if-then规则的集合,也可以认为是特征空间与类空间上的条件概率分布。二、如何理解决策树?    我们大部分人都有过租房子的经历,那你是怎么决定要租一个房子的呢?我们一般判......
  • 【机器学习】使用决策树分类器预测汽车安全性的研究与分析
    文章目录一、决策树算法简介决策树的结构分类和回归树(CART)决策树算法术语决策树算法直觉二、属性选择度量信息增益熵基尼指数计算分割基尼指数的步骤三、决策树算法中的过度拟合避免过度拟合的方法四、导入库和数据可视化探索性数据分析重命名列名查看数据集的总......
  • R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测|附代码数据
    原文链接:http://tecdat.cn/?p=17950 最近我们被客户要求撰写关于的研究报告,包括一些图形和统计输出。 在本文中,我们使用了逻辑回归、决策树和随机森林模型来对信用数据集进行分类预测并比较了它们的性能 数据集是  credit=read.csv("gecredit.csv", header = ......
  • 机器学习-决策树算法详解
    决策树算法决策树算法是一种流行且功能强大的工具,用于机器学习、数据挖掘和统计学等各个领域。它们通过对不同变量之间的关系进行建模,提供了一种基于数据的决策的清晰直观的方法。本文将介绍什么是决策树、决策树的工作原理、决策树的优缺点以及决策树的应用。什么是决策树......
  • 深度学习3 基于规则的决策树模型
    1.决策树是一种归纳学习算法,从一些没有规则、没有顺序、杂乱无章的数据中,推理出决 策模型。不管是什么算法的决策树,都是一种对实例进行分类的树形结构。决策树有三个要素:节点(Node)、分支(Branches)和结果(Leaf)。训练决策树,其实就是对训练样本的分析,把样本通过某个边界划分......