首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Michael阿明学习之路

    6. 决策

    中文翻译参考 《统计学习方法》决策树笔记 决策树可以分类,也可以回归,还有多输出任务 是随机森林的基础组成部分 1. filled=True ) 安装好Graphviz,在cmd下输入 dot -Tpng iris_tree.dot -o iris_tree.png # cmd,生成决策树可视化图片 分类预测 决策树特性:不需要太多的数据预处理,尤其是不需特征缩放或归一化 tree_clf.predict_proba([[5,1.5]]) # array([[0. 模型参数 决策树不需要事先设置参数,不添加约束的决策树模型,能很好的拟合数据,容易过拟合 min_samples_split(节点在被分裂之前必须具有的最小样本数) min_samples_leaf(叶节点必须具有的最小样本数 不稳定性 决策树 对旋转很敏感,可以使用 PCA 主成分分析,缓解 ? 决策树 对训练数据的微小变化非常敏感,随机森林可以通过多棵树的平均预测值限制这种不稳定性

    43310发布于 2021-02-19
  • 来自专栏机器学习原理

    机器学习(6)——决策树前言:

    4 重复上述操作,直到产生的剪枝决策树T只有1个节点 5 得到决策树T0T1T2…Tk 6 使用验证样本集选择最优子树Ta 问题来了,如何计算非叶子节点的剪枝系数呢? (tre,"model/tre.m") mm = joblib.load("model/mm.m") tre = joblib.load("model/tre.m") x=np.array([[6,3,1,0.1 3深度,训练集上正确率0.75556 4深度,测试集上正确率0.81905 4深度,训练集上正确率0.75556 5深度,测试集上正确率0.81905 5深度,训练集上正确率0.71111 6深度 ,测试集上正确率0.85714 6深度,训练集上正确率0.66667 7深度,测试集上正确率0.85714 7深度,训练集上正确率0.66667 8深度,测试集上正确率0.85714 8深度, 决策树深度对模型的影响 分析:从图中可以看书,随着树的深度的加深,正确率会提高,达到临界值之后(树的深度为6),训练集正确率达到最高,而测试集正确率开始下降,多以决策树的深度越深就会出现过拟合。

    1.5K100发布于 2018-04-27
  • 来自专栏惊羽-布壳儿

    实验室(6) - kong&konga&kubesphere

    kubectl apply -f all-in-one-postgres.yaml 然后进入kubesphere界面,将kong-proxy外网访问改为nodeport image-d46587e6f05a48588ad053088fdfd675 konga konga可以使用镜像直接再kubesphere上进行安装 集群管理 > 应用负载 > 工作负载 > 新增 image-03f8d1df10104dbdabd8ce391f8e92e6. png 如果使用外部数据库,请设置 环境变量 image-94ada2adc5814767a3642f6a5735ab6b.png 安装完后 image-086ddee692af45638147f0b1f2d21f68

    87710编辑于 2022-06-15
  • 来自专栏PPV课数据科学社区

    数据挖掘系列(6决策树分类算法

    这篇先介绍分类问题的一些基本知识,然后主要讲述决策树算法的原理、实现,最后利用决策树算法做一个泰坦尼克号船员生存预测应用。 二、决策树分类   决策树算法借助于树的分支结构实现分类。下图是一个决策树的示例,树的内部结点表示对某个属性的判断,该结点的分支是对应的判断结果;叶子结点代表一个类标。 ?    输出:一棵决策树. 在第6步中,对应构建多叉决策树时,离散的属性在结点N及其子树中只用一次,用过之后就从可用属性列表中删掉。 比如我们将一个立方体A抛向空中,记落地时着地的面为f1,f1的取值为{1,2,3,4,5,6},f1的熵entropy(f1)=-(1/6*log(1/6)+...+1/6*log(1/6))=-1*log

    1.9K40发布于 2018-04-23
  • 来自专栏FPGA技术江湖

    改变世界的6大计算机实验室

    这儿我们将列出6大孕育数字时代的计算机实验室,正是它们不断地为计算机的发展事业添砖加瓦、保驾护航,才使得我们如今能够如此舒适得享受到这便捷的数字世界。 01 布莱切利公园 能被冠以“首所计算机实验室”头衔的实验室一共有三家,我们先从布莱切利公园(Bletchley Park)说起。 02 沃尔特实验室 当布莱切利公园在捣鼓着密码时,沃尔特实验室则在忙于电信事业。 03 贝尔实验室 如果说布莱切利公园是电脑软硬件的理念先驱、沃尔特实验室为通信网络奠定了基础,那么贝尔电话实验室则是将二者融会贯通并创造出了现代计算机。 凭借着晶体管、Unix系统等历史性发明,你觉得贝尔实验室可以抱得“最佳实验室奖”而归吗?为了找到真正的现代计算机之父,我们还得看看下面的几个实验室

    97220发布于 2021-09-09
  • 来自专栏一个会写诗的程序员的博客

    战略决策 , 战术决策 与 业务决策

    决策的范围和决策的重要性划分,可以分为战略决策、战术决策、业务决策。 战略决策是解决全局性、长远性、战略性的重大决策问题的决策。 战术决策又称管理决策,是为了实现战略决策、解决某一问题所做出的决策,以战略决策规定的目标为决策标准。如医院住院流程设计、医院人员的招聘与工资水平等决策决策的分类 1、按决策范围分为 战略决策、战术决策和业务决策; 2、按决策性质分为程序化决策和非程序化决策; 3、按决策主体分为个人决策和群体决策; 4、按决策问题的可控程度分为确定型决策、不确定型决策和风险型决策 5.选择方案 6.付诸实践 研究表明,问题措辞的方式,或对选项的特定描述将会对决策有很大的影响。 战术决策:为了实现战略决策、解决某一问题做出的决策,以战略决策规定的目标为决策标准。 战略决策是关系企业全局和长远发展的重大问题的决策。是非程序化的、带有风险性的决策

    4.2K20发布于 2020-04-01
  • 来自专栏用户1880875的专栏

    计算机实验室之树莓派:课程 6 屏幕01

    欢迎来到屏幕系列课程。在本系列中,你将学习在树莓派中如何使用汇编代码控制屏幕,从显示随机数据开始,接着学习显示一个固定的图像和显示文本,然后格式化数字为文本。假设你已经完成了 OK 系列课程的学习,所以在本系列中出现的有些知识将不再重复。

    70120发布于 2021-10-18
  • 来自专栏决策智能与机器学习

    入门决策树 | 概述篇 | 山人聊算法 | 6th

    我们这次来聊聊决策树,决策树是一种可解释性好、对各种非线性情况适应性强的方法。 概念 看图说话,利于理解,决策树是下图这样式儿的。 ? 一般来说决策树的应用用往往都是和某一应用分析目标和场景相关的,比如:金融行业可以用决策树做贷款风险评估,保险行业可以用决策树做险种推广预测,医疗行业可以用决策树生成辅助诊断处置模型等等,当一个决策树的应用分析目标和场景确定 缺点 1)如果你的边界很光滑动,决策树不会很好用。也就是说当你有不连续的实例时,决策树才表现最好。 2)如果有很多不相关的变量,决策树表现的不好。决策树的工作是通过找到变量间的相互作用。 决策树模型定义 分类决策树模型是一种描述对实例进行分类的树形结构,决策树由结点(node)和有向边(directed edge)组成。 决策树的建立主要有三个阶段:特征选择、生成决策树、修剪决策树。本次先简要介绍三个阶段,后续逐渐展开细聊。 ? 特征选择 特征选择的主要准则有信息增益或信息增益比。

    58620发布于 2020-08-04
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 12-6 决策树解决回归问题

    前言 前几个小节一直在使用决策树解决分类问题,其实决策树这种思想也可以非常容易的解决回归问题。使用 CART 这种方式构建决策树之后,训练好的决策树中的每一个叶子节点中都会有很多样本点。 ,实例化决策树回归器全部使用默认的参数。 DecisionTreeRegressor 使用决策树解决回归问题,而 DecisionTreeClassifier 使用决策树解决分类问题。 训练好了决策树,接下来可以调用 score 函数来计算回归模型的准确度。 In[6]: dt_reg.score(X_train, y_train) Out[6]: 1.0 此时训练好的决策树在训练集上的 R Squared 值为 1.0,而在测试集上的 R Squared

    3.1K20发布于 2021-01-29
  • 来自专栏新智元

    【Hinton实验室探访】Capsule后最新研究,用软决策树更好理解DNN分类

    来源:NYT,arXiv 编译:闻菲、刘小芹 【新智元导读】《纽约时报》今日发文,记者走访Hinton在多伦多的实验室,为我们带来Hinton新作“Capsule Network”的更多信息。 今天《纽约时报》发表了一篇文章,NYT记者走访了Hinton在多伦多的实验室,采访了Hinton和《Dynamic Routing Between Capsules》论文的一作Sara Sabour,阐释了 相比之下,决策树如何做分类就很好理解,因为每个决策序列相对较短,而且每个决策都直接基于输入数据。但是,决策树往往无法像神经网络那样泛化。 现在他们已经得到一个模型,这个模型做出的决策是可解释的。 ? 软决策树如何进行分类:MNIST上训练的深度为4的软决策树的可视化图。 通过依赖分层决策而不是分层特征,我们避开了这些问题,因为每个决策都是在读者可以直接参与的抽象层次上进行的。”

    98750发布于 2018-03-21
  • 来自专栏机器之心

    达摩院决策智能实验室杨超:Safe RL介绍及在电网调度中的应用

    机器之心报道 机器之心编辑部 5 月 24 日,在机器之心举办的「决策智能产业应用」在线圆桌论坛上,阿里巴巴达摩院决策智能实验室的杨超发表了主题演讲《Safe RL 介绍及在电网调度中的应用》。 大家好,我是来自阿里巴巴达摩院决策智能实验室的杨超,今天主要分享一下 Safe RL,也就是安全强化学习的内容,及其在电网调度中的应用。 如果每一个问题都用原始的 solver 去求解,提速可以达到 6 倍,甚至说提升了一个量级。 我们实验室致力于机器学习、数学优化、时序分析与预测等多种决策技术的研究与创新,构建智能决策系统、 提升业务运营效率、降低运营成本 。 目前我们已取得的成果包括优化求解器 MindOpt,多次获得国际权威榜单第一名;实验室拥有多篇顶会论文,并获多项国内外比赛冠军。

    1.7K20编辑于 2022-06-07
  • 来自专栏机器学习AI算法工程

    【趣味】数据挖掘(6)——借水浒传故事,释决策树思路

    决策树程序能自动训练并输出一颗决策树,小问题在几秒钟到几分钟内可完成。 测试模块给定一组测试数据和一颗决策树,决策树程序能自动测试,计算出测试精度。 决策树的优劣 训练集是老师,决策树是学生,测试集是考官。分类精度的评价与学生的百分制成绩类似:90后为优,80后为良,70后为中,60后及格,很难有百分。 要求过分,则导致训练时间太长,决策树高度h(层次数)太多,决策树导出的规则变复杂,且规则数以2h 的趋势增长。 与其他真理一样,决策树有其适合的时空区间,所以要与时俱进,这就引出了动态决策树,是目前受关注的研究课题。 分类技术多种多样。

    85550发布于 2018-03-09
  • 来自专栏数通

    6类防火墙 3维度选型决策 1文了解

    四、‌选型决策框架‌ 维度权重 推荐方案 ‌典型场景举例 性能优先 硬件防火墙(如华为USG系列) 金融交易系统、视频流媒体平台‌ 弹性扩展 云防火墙(如AWS Network Firewall) 跨境电商

    78510编辑于 2025-03-31
  • 决策引擎中的敏捷决策平台

    现在是时候缩小差距,为供应链领导者提供敏捷的决策能力了。高管敏捷决策平台的关键属性,以最大限度地提高供应链绩效。高管们面临巨大压力,需要快速做出数据驱动的决策,这些决策会影响整个组织,包括供应链。 所以,现在是时候重新思考如何支持高管决策,以提高供应链绩效。这意味着要接受为高管提供专用供应链决策平台的概念。可能和需要的是一个敏捷决策平台,它让企业领导者能快速执行决策以优化供应链绩效。 下面,我们会介绍专用于执行层决策的敏捷决策平台的理想属性。这些软件属性包括有针对性的数据收集、敏捷决策智能、用于决策周期的高管级UI、基于决策的快速通信以及决策可追溯性。 此外,敏捷决策平台需要促进信息收集过程,收集有针对性的相关信息,以支持及时、明智的决策。以下是快速收集决策所需信息的五步流程。 d.快速决策沟通。面向高管的敏捷决策平台也需要促进协作决策

    25810编辑于 2025-09-18
  • 敏捷决策

    1.新兴技术使企业高管能够快速做出更好的决策 当今的信息技术使决策者能够即时接收数据,从而更快、更高效地做出决策。 详细介绍一下,以下是不同类型的企业软件以及它们不能满足企业决策者的信息和敏捷性需求的原因。企业软件无法满足高管敏捷性需求的6个原因执行系统:首先,这些系统不是为跨职能的执行决策而设计的。 这意味着要接受为高管提供专用供应链决策平台的概念。可能和需要的是一个敏捷决策平台,它使企业领导者能够快速执行决策以优化供应链绩效。下面,我们将介绍专用于执行层决策的敏捷决策平台的理想属性。 这些软件属性包括有针对性的数据收集、敏捷决策智能、用于决策周期的高管级UI、基于决策的快速通信以及决策可追溯性。a.有针对性的数据收集:专注于及时性和特定决策要求的决策。 d.快速决策沟通。 面向高管的敏捷决策平台也需要促进协作决策。此外,它需要支持在整个供应链和组织内部有效地传递决策

    22100编辑于 2025-07-23
  • 来自专栏小脑斧科技博客

    决策树的构建、展示与决策

    概述 上一篇文章中,我们介绍了两个决策树构建算法 — ID3、C4.5: 决策树的构建 -- ID3 与 C4.5 算法 本文我们来看看如何使用这两个算法以及其他工具构建和展示我们的决策树。 2. 使用 C4.5 构建决策树 有了上一篇日志中,我们介绍的 ID3 与 C4.5 算法,递归进行计算,选出每一层当前的最佳特征以及最佳特征对应的最佳划分特征值,我们就可以构建出完整的决策树了: 流程图非常清晰 决策树的可视化 上面的 json 结果看上去非常不清楚,我们可不可以画出决策树的树结构呢? :param myTree: 决策树 :return: 决策树的叶子结点的数目 """ numLeafs = 0 # 初始化叶子 firstStr = list :param myTree: 决策树 :return: 决策树的层数 """ maxDepth = 0 # 初始化决策树深度 firstStr = next

    68820编辑于 2022-06-27
  • 来自专栏《三桥君 | AI产品方法论》

    掌握这6个要点,让AI从实验室应用到实际场景

    然而,尽管AI技术在实验室中表现出色,三桥君认为如何将其应用到实际场景中,解决真实问题,仍然是AI产品经理面临的核心挑战。二、找准痛点描述详情关键要点在AI产品的开发过程中,找准用户的痛点是关键。 行业共性问题数据决策滞后、客户服务低效、经营分析繁琐,这些都是许多行业面临的共同问题。具体行业示例比如,在酒店行业,如何快速响应客户需求、提升服务质量、优化经营决策,是AI产品经理需要解决的核心问题。 行业成果在某个行业中,AI技术显著提升了决策效率、服务质量和培训速度。证明方式通过可量化的指标,该行业成功证明了AI产品的价值。

    27200编辑于 2025-07-22
  • 决策智能

    此外,我将阐明决策智能与决策科学、人工智能、数据科学和商业智能(BI)等同类产品的不同之处。决策智能(DI)定义及其在供应链中的应用 决策智能(DI)是一个相当新的术语。 这是因为决策智能利用了各种分析工具,例如商业智能、数据科学、决策科学和专家AI系统。此外,决策智能功能最好部署为专门专注于决策的软件平台。 因此,企业可以部署决策智能平台进行决策支持、决策增强,甚至自主决策。同时,它与BPA的不同之处在于DI支持决策而不是基于任务的业务自动化。 此外,这些DI系统能够衡量和学习以前的决策,以提高决策有效性。决策智能与其他分析学科 什么是决策智能,以及它与其他分析学科(如决策科学、专家AI、数据科学和商业智能)的比较。 1.决策科学与决策智能。 事实上,决策者一直使用决策科学来指导他们的选择。虽然早期的决策科学以数学和统计学为基础,但计算机的出现增强了它在决策智能和决策支持分析等领域的应用。

    36100编辑于 2025-07-22
  • 来自专栏木东居士的专栏

    决策树1:初识决策

    决策树是一个非常有意思的模型,它的建模思路是尽可能模拟人做决策的过程。因此决策树几乎没有任何抽象,完全通过生成决策规则来解决分类和回归问题。 0x01 决策树的思想 1.1 什么是决策决策树是一种常见的机器学习算法,它的思想十分朴素,类似于我们平时利用选择做决策的过程。 3 决策树的构建 决策树通常有三个步骤: 特征选择 决策树的生成 决策树的修剪 决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得对各个子数据集有一个最好的分类的过程。 决策树生成和决策树剪枝是个相对的过程,决策树生成旨在得到对于当前子数据集最好的分类效果(局部最优),而决策树剪枝则是考虑全局最优,增强泛化能力。 决策树是一个非参数的决策算法,决策树可以解决分类问题,且天然支持多分类问题。

    1.6K20发布于 2019-12-23
  • 来自专栏数据分析与机器学习

    决策

    因此,我们可用信息增益来进行决策树的划分属性选择,即在上述“决策树学习的基本算法”章节中第6行选择属性a_* = argmax_{a\in A}Gain(D,a).著名的ID3决策树学习算法就是以信息增益为准则来选择划分属性 而后剪枝策略针对欠拟合问题明显要优于预剪枝策略,泛化性能往往也要优于预剪枝策略;但是后剪枝策略的问题在于,其是在决策树生成之后进行的,并且要自底向上地对树中所有非叶节点进行逐一考察,因此其训练时间要远远大于未剪枝决策树和预剪枝决策决策树的剪枝往往是通过极小化决策树整体的损失函数(loss function)或代价函数(cost function)来实现。 决策树的生成只考虑通过信息增益(或信息增益比)对训练集的拟合程度。而决策树剪枝则通过优化损失函数还考虑了减小模型复杂度,进而提高其泛化性能。 换言之,决策树生成算法只学习局部的模型,而决策树剪枝算法则关注整体的泛化性能。

    1.1K41发布于 2019-11-28
领券