决策树的结构/优缺点/生成

人工智能

621人已加入

描述

  决策树(DecisionTree)是机器学习中一种常见的算法,它的思想非常朴素,就像我们平时利用选择做决策的过程。决策树是一种基本的分类与回归方法,当被用于分类时叫做分类树,被用于回归时叫做回归树。

  一、决策树结构:

  顾名思义,决策树在逻辑上表现为树的形式,包含有节点和向边。

  一般情况下,一棵决策树包含一个根节点、若干个内部节点和若干个叶结点。

  根节点:包含样本全集,从根节点到每个叶结点的路径对应了一个判定测试序列。

  内部节点:表示一个特征和属性。每个内部节点都是一个判断条件,并且包含数据集中,满足从根节点到该节点所有条件的数据的集合。根据内部节点的属性测试结果,内部节点对应的数据的集合别分到两个或多个子节点中。

  叶节点:表示一个类,对应于决策结果。叶节点为最终的类别,如果该数据被包含在该叶节点,则属于该类别。

  如下图中,其中圆和方框分别表示内部节点和叶结点。

  

  简而言之,决策树是一个利用树的模型进行决策的预测模型,表现出的是对象属性与对象值之间的一种映射关系,简单明了,非常容易理解。

  我们决策树学习的目的是为了产生一棵泛化能力强,也就是能够高效、有效处理未见示例的决策树。

  二、决策树的优缺点:

  1.决策树的最大优点是,对背景知识要求不高,计算复杂度也不是很高,可以自学习。

  2.属于有监督学习

  3.对中间缺失值不敏感

  4.解释性强,甚至超过线性回归

  5.相比传统的回归和分类方法,决策树是更接近人的决策模式

  6.能够用图形来表示,即使不是专业人士也可以轻松理解

  7.可以在不创建哑变量的情况下,直接处理定性的预测变量,

  8.决策树的预测准确性相比一般比回归和分类方法比较弱,但能够通过用集成学习方法组合大量决策树,这样可以显著提升树的预测效果

  三、决策树的生成

  决策树的生成是一个自顶向下的递归过程,其基本思想是以信息熵为度量构造一棵熵值下降最快的树,到叶子结点处的熵值为零。

  在决策树算法中有三种情形导致递归返回:

  1)当前节点包含的样本属于同一类,不需要划分;

  2)当前属性集为空,无法进行划分。这种情况下,需要将当前节点标记成叶节点,并将其类别设定为所含样本最多的类别;利用当前节点的后验分布;(就是:有样本无属性进行划分)

  3)当前结点包含的样本集合为空,不能进项划分。此时,要将当前节点标记为叶节点,将其类别设定为其父结点所含样本最多的类别;利用父结点的先验分布(就是:无样本有属性)
 责任编辑人:CC

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分