决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。
在构造决策树时,我们先要清楚当前数据集上的哪些特征在划分数据分类上其决定作用。
对于数据:
dataSet = [[1,1,1,'yes'],
[1,1,0,'yes'],
[1,0,0,'no'],
[1,0,1,'yes'],
[0,1,1,'yes'],
[0,1,0,'no'],
[0,0,0,'no'],
[0,0,1,'no']]
labels = ['money','eating','felling']
第一列表示零花钱,1:有零花钱,0:零花钱花完了
第二列表示吃饭,1:已经吃过,0:还没吃饭
第三列表示心情,1: