决策树仍然是监督学习方法,其基本思路跟我们人做一些决策的思路类似:可能要下雨,那就带伞;可能要停水,那就提前备水…… 这个决策的数学模型是熵。 决策树的模型中,无论是ID3,还是C4.5,亦或者是CART,它们在每个节点做判据的目标都是为了让熵最小化! 核心的内容已经说完了,具体的内容参见如下的推导,一些数学公式的细节可以自行网查。 决策树的算法推导流程如下: ? 如下示例的题材,最后一列是结果,其他列是输入。 ? ID3的手推示例如下所示: ? ? ? CART的手推示例如下所示: ? ? ? ?
决策树 决策树自上而下,对样本数据进行树形分类的过程。决策树由结点和有向边组成。结点又分内部结点和叶结点。每个内部结点表示一个特征或属性,叶子结点表示类别。 决策树是最基础且常见的监督学习模型,可以用于处理分类问题和回归问题。 决策树的生成包括:特征选择,树的构造,树的剪枝三个过程。 决策树常用的启发函数 常用的决策树算法有:ID3,C4.5和CART,那么它们的启发式函数是什么? ID3-最大信息增益 对于样本集合D,类别数为K,数据集D的经验熵表示: ? 其中, ? 提高决策树的泛化能力。 ID3应用于离散变量,C4.5和CART都可以用于连续变量。
介绍 作用:分类 原理:构建一个二叉树,逐级条件判断筛选 基本思想 假如有小明,小红和小张三个人,我们知道他们的身高体重,要通过身高体重来判断是哪个人,决策树算法会构建一个二叉树,逐级判断,如下 DecisionTreeClassifier tree_clf = DecisionTreeClassifier(max_depth=2) tree_clf.fit(X, y) max_depth参数设置的是决策树的深度 ,上图的深度是2,它代表决策的次数 深度探索 优点 我们来看决策树的过程:每到一个节点进行一次询问,然后将数据集分向其他的节点,这样的特性决定了数据不需要经过特征缩放的处理 估计概率 决策树模型可以输出每个类的概率 这将输出每个类的概率 model = DecisionTreeClassifier(max_depth=2) model.fit(x, y) model.predict_proba(x) 训练算法 决策树的训练算法被称为 它的公式为 为第k类的实例数 为总实例数 正则化 为了防止过拟合,我们当然要进行正则化,决策树的正则化通过控制参数max_depth来决定,越大则越可能过拟合 在鸢尾花数据集上训练决策树 from sklearn.datasets
0x01 决策树的思想 1.1 什么是决策树 决策树是一种常见的机器学习算法,它的思想十分朴素,类似于我们平时利用选择做决策的过程。 3 决策树的构建 决策树通常有三个步骤: 特征选择 决策树的生成 决策树的修剪 决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得对各个子数据集有一个最好的分类的过程。 决策树生成和决策树剪枝是个相对的过程,决策树生成旨在得到对于当前子数据集最好的分类效果(局部最优),而决策树剪枝则是考虑全局最优,增强泛化能力。 y_predict.reshape(x0.shape) from matplotlib.colors import ListedColormap custom_cmap = ListedColormap(['#EF9A9A ','#FFF59D','#90CAF9']) plt.contourf(x0, x1, zz, linewidth=5, cmap=custom_cmap) # 数据可视化 plot_decision_boundary
决策树归纳的基本算法是贪心算法,它以自顶向下递归各个击破的方式构造决策树。 贪心算法:在每一步选择中都采取在当前状态下最好的选择。 在其生成过程中,分割方法即属性选择度量是关键。 根据分割方法的不同,决策树可以分为两类:基于信息论的方法(较有代表性的是ID3、C4.5算法等)和最小GINI指标方法(常用的有CART,SLIQ及SPRINT算法等)。
https://blog.csdn.net/jxq0816/article/details/82829502 决策树通过生成决策规则来解决分类和回归问题。 但是由于决策树在理论上能无限制地划分节点 前剪枝:在划分节点之前限制决策树的复杂度,通过一些阈值来限制决策树的生长,比如max_depth、min_sample_split等参数。 后剪枝:在决策树构建完成之后,通过剪枝集修改树的结构,降低它的复杂度。 这两种方法相比,前剪枝的实现更加容易,也更加可控,因为在实际应用中应用得更加广泛。 决策树最大的缺点在于模型的最后一步算法过于简单:对于分类问题,只考虑叶子节点里哪个类别占比最大;而对于回归问题,则计算叶子节点内数据的平均值。这导致它在单独使用时,预测效果不理想。 因此在实际中,决策树常常被用来做特征提取,与其他模型联结起来使用。
决策树学习 决策树是一种用来进行分类和回归的无参有监督学习方法,其目的是创建一种模型,从模型特征中学习简单的决策远着呢,从而预测一个目标变量的值。 ,默认为None,表示所有叶子节点为纯节点 对数据集构造决策树,首先生成DecisionTreeClassifier类的一个实例(如clf),然后使用该实例调用fit()方法进行训练。 对训练好的决策树模型,可以使用predict()方法对新的样本进行预测。 sklearn.tree模块提供了训练的决策树模型的文本描述输出方法export_graphviz(),如果要查看训练的决策树模型参数,可以使用该方法,其格式为: sklearn.tree.export_graphviz #例8-3 构造打篮球的决策树 import numpy as np import pandas as pd #读数据文件 PlayBasketball = pd.read_csv('D:/my_python
一、 决策树简介 决策树是一种特殊的树形结构,一般由节点和有向边组成。其中,节点表示特征、属性或者一个类。而有向边包含有判断条件。 这就构成了一颗简单的分类决策树。 ? 1.jpg ? 2.jpg 二、 相关知识 请参考周志华《机器学习》第4章:决策树 注意,第75页有一行内容:信息熵的值越小,则样本集合的纯度越高。 此时的决策树为 ? 第一条数据,第5个属性值是2,需要再判断第3个属性,第3个属性的值为4,根据决策树得出的预测分类为1,与实际结果吻合 第二条数据,第5个属性值是1,根据决策树得出的预测分类为0,与实际结果吻合 第三条数据 1,根据决策树得出的预测分类为0,与实际结果吻合 六、 完整代码 (1)DecisionTree.py # 具有两种剪枝功能的简单决策树 # 使用信息熵进行划分,剪枝时采用激进策略(即使剪枝后正确率相同
决策树的原理:根据树结构进行决策,可以用于分类和回归。一颗决策树包括一个根结点、若干个内部节点和若干个叶节点。 从根节点出发,对每个特征划分数据集并计算信息增益(或者增益率,基尼系数),选择信息增益最大的特征作为划分特征,依次递归,直至特征划分时信息增益很小或无特征可划分,形成决策树。 决策树 优点 1. 样本发生一点点变化会导致树的结构剧烈变动 决策树的算法:ID3算法、C4.5算法、CART算法 算法 优缺点 ID3算法 不足: 无法处理连续特征;信息增益使得算法偏向于取值较多的特征;没有考虑缺失值和过拟合的问题
因此,我们可用信息增益来进行决策树的划分属性选择,即在上述“决策树学习的基本算法”章节中第6行选择属性a_* = argmax_{a\in A}Gain(D,a).著名的ID3决策树学习算法就是以信息增益为准则来选择划分属性 而后剪枝策略针对欠拟合问题明显要优于预剪枝策略,泛化性能往往也要优于预剪枝策略;但是后剪枝策略的问题在于,其是在决策树生成之后进行的,并且要自底向上地对树中所有非叶节点进行逐一考察,因此其训练时间要远远大于未剪枝决策树和预剪枝决策树 决策树的剪枝往往是通过极小化决策树整体的损失函数(loss function)或代价函数(cost function)来实现。 决策树的生成只考虑通过信息增益(或信息增益比)对训练集的拟合程度。而决策树剪枝则通过优化损失函数还考虑了减小模型复杂度,进而提高其泛化性能。 换言之,决策树生成算法只学习局部的模型,而决策树剪枝算法则关注整体的泛化性能。
决策树(decision tree)是一类常见的机器学习方法。顾名思义,决策树是基于树结构来进行决策的,这恰是人类在面临决策问题时一种很自然的处理机制。 一颗决策树包含一个根节点、若干个内部节点和若干个叶节点。叶节点对应于决策结果,其他每个节点则对应于一个属性测试。 ? 决策树学习的目的是从样本数据产生一颗泛化能力强的决策树,其基本流程遵循简单且直观的“分而治之”策略: Function createBranch 检测数据集中的每个子项是否属于同一分类: If
一颗决策树应运而生: ? 决策树是一个分类模型,是运用已有资料训练模型,然后运用到未知类别的事物身上,从而确定该事物的类别。 就像上面故事中未曾谋面的男主人公,虽然见或不见,他就在那里,不悲不喜,但他到底属于的哪一类,就需要用上图所示的决策树来决定。 决策树的精神是要将目标属性的混乱程度降到最低。。。 先验概率:P(u1)=9/14 —|— P(u2)=5/14 先验熵:H(u)=-9/14*log(9/14)-5/14*log(5/14)=0.94 对天气A1,晴v1、多云v2、雨v3 p
由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。 决策树学习通常包括 3 个步骤: 特征选择 决策树的生成 决策树的修剪 1.1 决策树场景 场景一:二十个问题 有一个叫 “二十个问题” 的游戏,游戏规则很简单:参与游戏的一方在脑海中想某个事物,其他参与者向他提问 print result result.append([4,5,6]) print result result.extend([7,8,9] 结果: [1, 2, 3] [1, 2, 3, [4, 5, 6]] [1, 2, 3, [4, 5, 6], 7, 8, 9] 构造决策树是很耗时的任务,即使很小的数据集也要花费几秒。如果用创建好的决策树解决分类问题就可以很快完成。
决策树(decision tree)是一类常见的机器学习方法。以二分类任务为例,我们希望从给定训练数据集学得一个模型用以对新示例进行分类,这个把样本分类的任务,可看作对“当前样本属于正类吗?” 顾名思义,决策树是基于树结构来进行决策的,这恰是人类在面临决策问题时的一种很自然的处理机制。例如,我们要对“这是好瓜吗?” 一般的,一个决策树包含一个根节点、若干个内部节点和若干个叶节点;叶节点对应于决策结果,其他每个节点则对应于一个属性测试;每个节点包含的样本集合根据属性测试的结果被划分到子节点中;根节点包含样本全集。 决策树学习的目的是为了产生一颗泛化能力强,即处理未见示例能力强的决策树,其基本流程遵循简单直观的“分而治之”策略,算法如下所示, 输入:训练集 属性集 过程:函数 生成节点node. if 显然,决策树的生成是一个递归过程,在决策树基本算法中,有三种情形会导致递归返回:当节点包含的样本全属于同一类别,无需划分当前属性集为空,或是所有样本在所有属性上取值相同,无法划分当前划分节点包含的样本集合为空
决策树(Decision Tree) 机器学习里面的算法与编程语言里面的算法不大一样,主要是指数学上面的算法,而不是数据结构相关的算法。 不过机器学习里的与种算法叫做决策树,本质上就是编程语言中数据结构里面的树结构。 决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。 分类树(决策树)是一种十分常用的分类方法。
下面就来看看决策树适用范围是什么吧。 image.png 决策树适用范围 现在决策树已经比较成熟,也运用到了各个不同的领域中,其中有人工智能、医疗诊断、规划理论、认知科学以及工程、数据挖掘等等。 执行每一个方案都会有不同的结果,对决策者来说有胜算也有风险,所以采用决策树来解决这些问题,应该是比较明智的选择。 决策树的优势 建立决策树模型过程中比较简单,而且算法、决策规则很容易理解。 采用决策树模型可以给用户提供可视化和直观化,全面掌握具体情况。决策树的应用范围比较广,无论是分类还是回归,都是可以使用决策树,同时还能根据类别进行不同的分类。 决策树即可以处理数值型的样本,还能处理连续的样本。 决策树适用范围和决策树的优势,大家已经有了了解。 虽然决策树有很多的优势,当然也有它的一些缺点,决策树总是会在训练数据时,出现比较复杂的结构,就需要进行大量的过拟合。
学习目标 了解信息增益率的计算公式 知道ID3 和 C4.5决策树的优缺点 了解基尼指数的计算公式 了解基尼指数对于不同特征的计算方式 了解回归决策树的构建原理 1. Cart树简介 Cart模型是一种决策树模型,它即可以用于分类,也可以用于回归,其学习算法分为下面两步: (1)决策树生成:用训练数据生成决策树,生成树尽可能大 (2)决策树剪枝:基于损失函数最小化的剪枝 分类树使用叶子节点里出现更多次数的类别作为预测类别,回归树则采用叶子节点里均值作为预测输出 CART 回归树构建: 例子: 假设:数据集只有 1 个特征 x, 目标值值为 y,如下图所示: x 1 2 3 4 5 6 7 8 9 10 y 5.56 5.7 5.91 6.4 6.8 7.05 8.9 8.7 9 9.05 由于只有 1 个特征,所以只需要选择该特征的最优划分点,并不需要计算其他特征。 计算每一个划分点的平方损失,例如:1.5 的平方损失计算过程为: R1 为 小于 1.5 的样本个数,样本数量为:1,其输出值为:5.56 R2 为 大于 1.5 的样本个数,样本数量为:9
决策树Python代码实现 1.DecisionTree.py #! python2.8 # -*- coding: utf-8 -*- # __author__ = "errrolyan" # __Date__: 18-12-10 # __Describe__ = "决策树
举个简单的例子,当我们预测一个孩子的身高的时候,决策树的第一层可能是这个孩子的性别。男生走左边的树进行进一步预测,女生则走右边的树。这就说明性别对身高有很强的影响。 适用情景:因为它能够生成清晰的基于特征(feature)选择不同预测结果的树状结构,数据分析师希望更好的理解手上的数据的时候往往可以使用决策树。同时它也是相对容易被攻击的分类器。 因为决策树最终在底层判断是基于单个条件的,攻击者往往只需要改变很少的特征就可以逃过监测。受限于它的简单性,决策树更大的用处是作为一些更有用的算法的基石。 决策树算法 ID3是由Ross Quinlan在1985年建立的。这个方法建立多路决策树,并找到最大的信息增益。当树长到最大的尺寸,经常应用剪枝来提高决策树对未知数据的一般化。 CART使用特征和阈值在每个节点获得最大的信息增益来构建决策树。
模型 决策树学习本质上是从训练数据集中归纳出一组分类规则或者条件概率模型(在节点处取条件概率最大的进行分类)。决策树问题一般可以分成特征选择、决策树生成、剪枝三部分。 特征选择:通过建立一个函数来衡量特征划分的效果 生成:递归构造决策树的过程 剪枝:递归产生的决策树往往会递归到不能分类为止,这会导致出现过拟合现象,因此需要已经生成的决策树进行剪枝(pruning),一般是通过极小化决策树整体的损失函数 ,下分别介绍不同算法的决策树生成方法。 CART假设决策树是二叉树,左分支为节点特征值取“是”的分支,右分支为取值为否的分支。 最后,在通过独立的验证数据集,借助平方误差或者基尼指数来评估泛化误差,找到最优的决策树。