首页 > 其他分享 >决策树剪枝

决策树剪枝

时间:2022-11-20 22:58:58浏览次数:32  
标签:剪枝 结点 myTree plotTree secondDict 决策树

一、为什么要进行剪枝?
当我们的数据集样本量很大、每个特征的取值很多时,生成决策树的代价就会很大。不仅如此,虽然一个完整的决策树对训练数据的预测非常准,但这会造成对训练数据的过拟合,造成模型的泛化性能(预测除训练集意外数据的能力)降低。因此,本节我们将引入剪枝的概念。
剪枝的目的:处理决策树的过拟合问题

二、剪枝的分类:预剪枝和后剪枝
预剪枝:生成过程中,对每个结点划分前进行估计,若当前结点的划分不能提升 [泛化能力] ,则停止划分,记当前结点为叶结点。
后剪枝:生成一棵完整的决策树后,从底部向上对内部结点进行考察,如果将 [内部结点变成叶结点] ,可以提升泛化能力,那么就进行交换。

三、剪枝的方法
1.预剪枝的方法:
限定决策树的深度
设定一个阈值
设置某个指标,比较节点划分前后的泛化能力
2.后剪枝的方法:
后剪枝就是先构造一颗完整的决策树,然后自底向上的对非叶结点进行考察,若将该结点对应的子树换为叶结点能够带来泛华性能的提升,则把该子树替换为叶结点。前面已经说过了,使用前面给出的训练集会生成一颗(未剪枝)决策树:

四、用后剪枝绘制决策树
观察图片上决策树,最下面一个属性是天气,我们去除天气这个属性后,判断在天气属性前面的因素对是否寒冷的影响,再通过验证集判定是否剪枝正确。接下来的步骤依次是去掉非叶节点的属性,最后得到剪枝树

五、代码

-- coding: UTF-8 --

import matplotlib.pyplot as plt
from matplotlib.font_manager import FontProperties

def getNumLeafs(myTree):
"""
获取决策树叶子结点的数目

:param myTree: 决策树
:return: 决策树的叶子结点的数目
"""
numLeafs = 0  # 初始化叶子
firstStr = list(myTree.keys())[0]
secondDict = myTree[firstStr]  # 获取下一组字典
for key in secondDict.keys():
    if type(secondDict[key]).__name__ == 'dict':  # 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
        numLeafs += getNumLeafs(secondDict[key])
    else:
        numLeafs += 1
return numLeafs

def getTreeDepth(myTree):
"""
获取决策树的层数

:param myTree: 决策树
:return: 决策树的层数
"""
maxDepth = 0  # 初始化决策树深度
firstStr = next(iter(
    myTree))  # python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法获取结点属性,可以使用list(myTree.keys())[0]
secondDict = myTree[firstStr]  # 获取下一个字典
for key in secondDict.keys():
    if type(secondDict[key]).__name__ == 'dict':  # 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
        thisDepth = 1 + getTreeDepth(secondDict[key])
    else:
        thisDepth = 1
    if thisDepth > maxDepth: maxDepth = thisDepth  # 更新层数
return maxDepth

def plotNode(nodeTxt, centerPt, parentPt, nodeType):

arrow_args = dict(arrowstyle="<-")  # 定义箭头格式
font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14)  # 设置中文字体
createPlot.ax1.annotate(nodeTxt, xy=parentPt, xycoords='axes fraction',  # 绘制结点
                        xytext=centerPt, textcoords='axes fraction',
                        va="center", ha="center", bbox=nodeType, arrowprops=arrow_args, FontProperties=font)

def plotMidText(cntrPt, parentPt, txtString):

xMid = (parentPt[0] - cntrPt[0]) / 2.0 + cntrPt[0]  # 计算标注位置
yMid = (parentPt[1] - cntrPt[1]) / 2.0 + cntrPt[1]
createPlot.ax1.text(xMid, yMid, txtString, va="center", ha="center", rotation=30)

def plotTree(myTree, parentPt, nodeTxt):

decisionNode = dict(boxstyle="sawtooth", fc="0.8")  # 设置结点格式
leafNode = dict(boxstyle="round4", fc="0.8")  # 设置叶结点格式
numLeafs = getNumLeafs(myTree)  # 获取决策树叶结点数目,决定了树的宽度
firstStr = next(iter(myTree))  # 下个字典
cntrPt = (plotTree.xOff + (1.0 + float(numLeafs)) / 2.0 / plotTree.totalW, plotTree.yOff)  # 中心位置
plotMidText(cntrPt, parentPt, nodeTxt)  # 标注有向边属性值
plotNode(firstStr, cntrPt, parentPt, decisionNode)  # 绘制结点
secondDict = myTree[firstStr]  # 下一个字典,也就是继续绘制子结点
plotTree.yOff = plotTree.yOff - 1.0 / plotTree.totalD  # y偏移
for key in secondDict.keys():
    if type(secondDict[key]).__name__ == 'dict':  # 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
        plotTree(secondDict[key], cntrPt, str(key))  # 不是叶结点,递归调用继续绘制
    else:  # 如果是叶结点,绘制叶结点,并标注有向边属性值
        plotTree.xOff = plotTree.xOff + 1.0 / plotTree.totalW
        plotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)
        plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))
plotTree.yOff = plotTree.yOff + 1.0 / plotTree.totalD

def createPlot(inTree):

fig = plt.figure(1, facecolor='white')  # 创建 fig
fig.clf()  # 清空 fig
axprops = dict(xticks=[], yticks=[])
createPlot.ax1 = plt.subplot(111, frameon=False, **axprops)  # 去掉 x、y 轴
plotTree.totalW = float(getNumLeafs(inTree))  # 获取决策树叶结点数目
plotTree.totalD = float(getTreeDepth(inTree))  # 获取决策树层数
plotTree.xOff = -0.5 / plotTree.totalW
plotTree.yOff = 1.0  # x偏移
plotTree(inTree, (0.5, 1.0), '')  # 绘制决策树
plt.show()  # 显示绘制结果

if name == 'main':

myTree = {'寒冷':
                        {
                         'true':
                             {'气温':
                                  {'high':
                                       {'气候':
                                            {
                                             'hot':
                                                 {'天气':
                                                      {'sunny': 'no'
                                            }
                                                  }
                                             }                                            
                                        },
                                   'normal':
                                       {'气候':
                                            {
                                             'cool':
                                                 {'天气':
                                                      {
                                                       'overcast': 'yes'
                                                       }
                                                  }
                                             }
                                        }
                                   }
                              }
                         }
                    }
               
          
print(myTree)
createPlot(myTree)
# }}}

标签:剪枝,结点,myTree,plotTree,secondDict,决策树
From: https://www.cnblogs.com/lh123456789/p/16909932.html

相关文章

  • 决策树剪枝
    一、决策树剪枝1.目的  剪枝(pruning)是决策树学习算法解决过拟合问题的主要手段。  在决策树学习中,为了尽可能正确分类训练样本,节点划分过程将不断重复,有时会造成决......
  • 决策树(二):后剪枝,连续值处理,数据加载器:DataLoader和模型评估
    在上一篇文章中,我们实现了树的构造,在下面的内容中,我们将中心放在以下几个方面1.剪枝2.连续值处理3.数据加载器:DataLoader4.模型评估 一,后剪枝•为什么剪枝  –......
  • 337. 打家劫舍 III ----- 动态规划、递归、剪枝、分类讨论
    小偷又发现了一个新的可行窃的地区。这个地区只有一个入口,我们称之为 root 。除了 root 之外,每栋房子有且只有一个“父“房子与之相连。一番侦察之后,聪明的小偷意识到......
  • 决策树
    一.什么是决策树决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。......
  • R语言Apriori关联规则、kmeans聚类、决策树挖掘研究京东商城网络购物用户行为数据可视
    全文链接:http://tecdat.cn/?p=30360原文出处:拓端数据部落公众号随着网络的迅速发展,依托于网络的购物作为一种新型的消费方式,在全国乃至全球范围内飞速发展。电子商务成为......
  • 决策树
    什么是决策树?分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶节点。内部结点表示一个特征或属性,叶节点表示......
  • 数据分享|R语言逻辑回归、Naive Bayes贝叶斯、决策树、随机森林算法预测心脏病|附代码
    全文链接:http://tecdat.cn/?p=23061这个数据集可以追溯到1988年,由四个数据库组成。克利夫兰、匈牙利、瑞士和长滩。"目标"字段是指病人是否有心脏病。它的数值为整数,0=无......
  • 决策树
    一,信息熵当谈到决策树的构建时,一定会想到信息熵,那么究竟什么是信息熵呢?根据百度百科描述:熵(shāng),热力学中表征物质状态的参量之一,用符号S表示,其物理意义是体系混乱程......
  • 决策树的生成
    一、基本流程首先,什么是决策树。分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶节点。内部结点表示一个特......
  • 搜索与剪枝
    dfs搜索算法,将要搜索的目标分为若干层,每层基于前几层的状态进行决策直到达到目标状态。全排列问题。在回溯时清空标记。voiddfs(intx){if(x==n+1){for(a......