首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 5-10 线性回归的可解释性

    线性回归的可解释性 下面先使用sklearn封装好的线性模型在整个数据集上进行拟合: ? ? 为了进行可解释性,下面通过DESCR获取特征名称相对应的具体含义。查看对应的“RM”就是房间数量,换句话说,通过线性回归拟合数据得到的结果可以知道,房间数量越高的相应的房屋价格也就越高。 前面介绍的就是线性回归对于我们的数据有可解释性,更重要的是获得这种可解释性之后,我们可以有针对性的采集更多的特征,来更好的描述这个房价。 相应的“NOX”一氧化碳浓度和相应的房价呈负相关,我们可以采集房屋周边是否有产生这些有毒气体的化工程,采集这些特征来更好的预测波士顿房价,这就是线性回归对数据的可解释性。 线性回归最大的优点就是对数据具有可解释性,这样的算法被称为白盒算法,也就是说我们通过这个模型真正的能够学到所谓的知识,在波士顿房价的预测中,我们知道房间的数量和波士顿房价之间是有正比关系的,和周边地区一氧化碳浓度呈现负相关

    1.4K00发布于 2019-11-13
  • 来自专栏学习

    机器学习——解释性AI与可解释性机器学习

    解释性AI与可解释性机器学习: 理解机器学习模型背后的逻辑 随着人工智能技术的广泛应用,机器学习模型越来越多地被用于决策过程。 本文将深入探讨解释性AI与可解释性机器学习的概念、方法和代码实现,帮助读者全面理解这一重要主题。 1. 为什么需要解释性AI? 解释性AI的分类 可解释性可以从多个维度来考虑: 可解释性 vs 可理解性:可解释性通常指通过后处理方法使复杂模型变得可解释,而可理解性更侧重于构建本身就易于解释的模型。 可解释性机器学习的方法 3.1 模型本身具有可解释性 一些简单的模型具有天然的可解释性,例如: 线性回归:通过模型系数可以直接理解特征对预测的影响。 构建具有可解释性的模型 并不是所有机器学习任务都需要深度模型,对于一些需要高可解释性的任务,我们可以选择一些本身就具有良好可解释性的模型。

    1.1K10编辑于 2024-10-19
  • 来自专栏磐创AI技术团队的专栏

    交互的 Attention 可视化工具!我的Transformer可解释性有救了?

    乔治亚理工最近提出了DODRIO,一种交互的Attention可视化工具,从句法和寓意层面总结了不同注意力头的信息。Transformer的可解释性终于有救啦? 一些结论 本文的可视化方法再一次验证了一些之前BERT可解释性文章的结论。例如:BERT的中间层更关注句法信息,以及BERT最后1-2层是分类的关键等。

    8.1K40发布于 2021-05-11
  • 来自专栏CSDNToQQCode

    解释性AI(XAI)

    解释性AI(XAI)是什么 解释性AI,也称为XAI(Extended AI),是一种综合了多种AI技术的智能系统或工具,旨在帮助人们理解和解释数据、信息和知识,以辅助决策制定。 可解释性模型:XAI系统可以使用可解释性模型来解释机器学习模型的工作原理和决策过程,帮助用户理解模型的预测结果。 在安全领域,可解释性AI可以帮助识别和解释潜在的安全威胁,从而提高安全性。 四、可解释性AI的评估与度量 评估和度量AI的可解释性是一个重要的问题。 五、可解释性AI的未来发展 可解释性AI有很大的发展潜力,未来的发展趋势包括算法改进、数据标准化和自动化解释方法等。随着技术的发展,我们可能会看到更多的自动化工具和平台用于评估和改进AI的可解释性。 六、可解释性AI的实践经验与案例分析 在实际应用可解释性AI的过程中,一些实践经验包括使用可视化技术来展示AI决策过程、使用人类判断法来评估AI的可解释性以及使用决策树分析法来理解模型决策等。

    1.1K10编辑于 2024-02-01
  • 来自专栏AI

    模型可解释性

    模型可解释性:LIME与SHAP等可解释工具随着深度学习和复杂机器学习模型的普及,模型的可解释性(Model Interpretability)成为了一个日益重要的议题。 模型可解释性的背景模型可解释性主要是指能够清晰地理解和解释机器学习模型的预测依据。传统的机器学习模型,如线性回归、决策树等,相对易于理解,用户可以直观地看到模型是如何做出预测的。 因此,模型可解释性成为了研究人员和实践者必须解决的核心问题。2. 模型可解释性的实际意义模型可解释性不仅仅是一个学术问题,它在实际应用中具有重要意义:增加模型的信任度:特别是在高风险行业,如医疗、金融等,理解模型的预测依据对于增强用户和监管机构的信任至关重要。 ,详细介绍了如何通过不同的方法提高机器学习模型的可解释性

    1.1K10编辑于 2025-02-02
  • 来自专栏樯橹代码

    10条提高网站访问性的建议

    我们收集了10条提高网站访问性的建议以保证网站你的网站对任何人都是友好的,包括残疾人。 W3C和万维网的负责人Tim Berners-Lee发表了一篇报道,他说:“网络的力量在于它的普遍性”。 Web访问性听起来很高端,但它实际上比听起来容易得多。 我们的十个网络访问性建议旨在确保对所有网站都是通用的。 这不仅有助于正常的用户体验,而且还可以提高网速比较差的时候的浏览体验。 我们强烈推荐用于Sketch的Stark插件,以帮助您设计访问性! 2、不要禁止缩放 在响应式的时代,我们可能会犯下一些不负责任的错误。 Language Icon</title> <desc>Longer description</desc> <path d="M0 2C6.47 2 2 6.48 2 12s4.47 <em>10</em> <em>10</em>、审计和审查 一旦应用了所有这些知识,现在是测试它的时候了。

    1.6K10发布于 2019-09-02
  • 来自专栏机器之心

    探索LLM时代利用可解释性10种策略

    10 种在大模型时代提高 XAI 实际应用价值的策略。 论文题目:Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era 论文链接:https://arxiv.org 进一步,研究者具体讨论了 10 种策略来实现 Usable XAI 技术(见图 1),其中包括 7 种使用解释来提升 LLM 的策略,以及 3 种使用 LLM 来提升解释性技术的策略。 表 4 报告了对应的原始文档在前 5 或 10 个文档中的召回率,理想情况下,原始训练文档应该排在尽可能前面。 策略 10:利用 LLM 扮演人类在 XAI 中的角色 类在开发可解释性 AI 模型的过程中扮演着关键角色,包括采集有人类标注的数据集进行模型训练,以及评估模型生成的解释。

    52210编辑于 2024-04-12
  • 来自专栏iOSer

    10元最多喝多少瓶啤酒?(不可借酒+借酒,swift语言实现)

    背景 《爱情公寓5》中有个剧情:每瓶啤酒2元,2个空酒瓶或4个瓶盖换1瓶啤酒。10元最多喝多少瓶啤酒? 脑海模拟起来的确有点费劲。心算结果是15瓶,而剧情实践居然是20瓶! All rights reserved. // /* 酒吧啤酒2元一瓶,两个空瓶或四个瓶盖可以换一瓶啤酒(酒吧概不借酒),你有10元钱,请问最多可以喝几瓶? 3) 能借酒:(16, 0, 0) ----------------------- 9元:不能借酒:(11, 1, 3) 能借酒:(16, 0, 0) ----------------------- 10

    95040发布于 2020-09-04
  • 来自专栏Dotnet9

    创建维护和测试的 Windows 窗体应用程序的 10 种方法(译)

    下面是创建维护和测试的 Windows 窗体应用程序的十个技巧。 1. 用用户控件隔离你的用户界面 首先,避免在一个表单上放置太多控件。 这使你的演示者单元保持测试性,并且还提供了更改将来向用户呈现错误的方式的灵活性。 6. 使用命令模式 如果你的应用程序包含一个带有大量按钮供用户单击的工具栏,则命令模式可能非常适合。 10.不要太晚 可以将我上面描述的所有模式和技术改造为现有的 Windows 窗体应用程序,但我可以从痛苦的经验告诉你,这可能需要大量工作,尤其是当窗体背后的代码达到数千行时。

    2.1K10编辑于 2021-12-15
  • 来自专栏计算机视觉工坊

    人脸识别的可解释性

    作者丨孙裕道 编辑丨极市平台 导读 人脸识别的可解释性是深度学习领域中的一个很大挑战,当前的方法通常缺乏网络比较和量化可解释结果的真相。 自然深度学习中的很重要领域人脸识别的可解释性也是一个很大的挑战,当前在这方面探索的方法有网络注意力、网络解剖或综合语言解释,然而,缺乏网络比较和量化可解释结果的真相,尤其是在人脸识别中近亲或近亲之间的差异很微妙 论文贡献 该论文的贡献可以归结为如下三点,分别如下所示 XFR baseline:作者基于五种网络注意力算法为XFR(人脸识别的可解释性)提供了baseline,并在三个用于人脸识别的公开深度卷积网络上进行了评估 模型介绍 人脸识别的可解释性(XFR) 该论文的创新点可能是从Facenet中得到一定的灵感。XFR的目的是解释人脸图像之间的匹配的内在关系。

    2.9K20发布于 2020-11-11
  • 来自专栏编程随想曲

    代码重构之引入解释性变量

    意图 临时变量可以帮助你将表达式分解为比较容易管理的形式 在较长的算法中,可以运用临时变量来解释每一步运算的意义 示例 /** * 引入解释性变量之前 * Created by luo on 2017 something } } private boolean wasInitialized() { return false; } } /** * 引入解释性变量之后

    38220编辑于 2022-04-21
  • 来自专栏CSDN小华

    机器学习模型的可解释性

    机器学习模型的可解释性 机器学习模型的可解释性是指人类能够理解并理解决策原因的程度,这在业务应用中尤为重要。高可解释性的模型不仅有助于开发人员在建模阶段理解模型,还能在必要时进行优化调整。 可解释性的重要性体现在多个方面: 辅助决策:可解释性使人们更容易理解为什么模型做出了某些决定或预测,从而提高对模型的信任度和接受度。 最新的机器学习模型可解释性技术和方法有哪些?         最新的机器学习模型可解释性技术和方法主要包括以下几种: 局部可解释性工具:这类工具旨在解释模型在特定输入上的行为。 解释性工具的应用:利用各种解释性工具和技术,如局部可解释模型不可解释性(LIME)、集成梯度(IG)等,帮助理解模型的预测过程和结果。 近年来,学术界已经开发出许多可解释性工具和方法,如局部可解释性、规则可解释性和概念可解释性等。未来,这些工具和方法将不断完善,并在实际应用中得到更广泛的应用。         

    80310编辑于 2024-10-16
  • 来自专栏曲奇的博客

    机器学习模型的可解释性

    解释性的范围 全局可解释 这个层级的可解释性指的是,模型如何基于整个特征空间和模型结构、参数等作出决策的。什么特征是重要的,特征交互会发生什么。 如上图,选择10:00左右的异常区间中一个点,计算各个特征的Shapley value。并且这个样本最终的预测值由各个特征的shapley value贡献,加上预测目标平均值得到的。 在这里涨幅是-0.1012,说明这里时间序列值掉了超过10%。对增加预测概率起作用排在第二位的是变异系数(coefficient_of_variation),表示当前值与历史依赖的变异系数。 然后使用新的解析的特征和prediction作为label来训练新的简单模型(例如LR),然后使用简单模型的权重作为这些特征的重要性作为输出。 就是选择一个样本以及样本附近的点,然后训练一个简单模型来拟合,虽然简单模型不能在完整数据集上有效,但至少在这个点附近都是有效的,这个简单模型的特征是人类解析的,而训练出的权重也可以表示特征重要性。

    2.4K20编辑于 2021-12-14
  • 来自专栏腾讯云TI平台

    【技术分享】机器学习模型可解释性

    对于模型按预期工作的关键利益相关者而言,这应该是证明且易于理解的。这确保了模型的透明度。 pdp.pdp_interact_plot(inter1, features_to_plot, plot_type='grid', x_quantile=True, ncols = 2, plot_pdp=True) plt.show() 10 在他的论文中,他还讨论了PD图的局限性,并提供了有关如何为大数据生成缩放图的建议。 然后使用新的解析的特征和prediction作为label来训练新的简单模型(例如LR),然后使用简单模型的权重作为这些特征的重要性作为输出。 最重要的特征有不同的决定方法,在指定加入模型解释中的特征数量(通常在5到10附近)的前提下,可以 选择在使用复杂模型进行预测时回归拟合上具有最高权重的特征 运用正向选择,选择可以提高复杂模型的预测的回归拟合的变量

    4.2K54编辑于 2021-12-22
  • 来自专栏大数据文摘

    6个机器学习可解释性框架!

    解释性旨在帮助人们理解: 如何学习的? 学到了什么? 针对一个特定输入为什么会做出如此决策? 决策是否可靠? with condaconda install -c conda-forge shapbr 使用Shap库构建瀑布图 使用Shap库构建Beeswarm图 使用Shap库构建部分依赖图 LIME 在可解释性领域 与外形/石灰解释性有关。它可以使用SHAP/Lime作为后端,也就是说它只提供了更好看的图表。 InterpretML展示了两种类型的可解释性:glassbox模型——为可解释性设计的机器学习模型(如:线性模型、规则列表、广义可加模型)和黑箱可解释性技术——用于解释现有系统(如:部分依赖,LIME 使用统一的API并封装多种方法,拥有内置的、扩展的可视化平台,该包使研究人员能够轻松地比较可解释性算法。

    2.6K40编辑于 2022-10-10
  • 来自专栏Web开发之路

    C# 学习笔记(10)—— 空类型、匿名方法、迭代器

    泛型是 C# 2 众多特性的其中之一,C# 2 还提出了空类型、匿名方法和迭代器三个重要特性 空类型 当你把数据库表映射为 C# 中的对象时会发现,DateTime类型在 C# 语言中是不能为 null 为了完成映射,开发人员便有了这样的需求——值类型能不能是空类型呢? 简介 空类型也是值类型,但是它包含 Null 值的值类型 int?o nullable = null; 在以上代码中,int? 这个操作符可以用于空类型,也可以用于引用类型,但是不能用于值类型。因为??运算符会将其左边的数与 null 进行比较,但除了空类型外,其他的值类型都是不能与 null 类型进行比较的,所以?? 当把一个空类型赋给引用变量时,CRL会对空类型(Nullable<T>)对象进行装箱处理。 CLR会首先检测空类型是否为null。

    53530编辑于 2023-10-20
  • 来自专栏让技术和时代并行

    软件系统扩展性的10个关键因素

    在这篇文章中,我们将探讨设计高度扩展架构的 10 个关键领域。通过掌握这些概念,您可以开发能够大规模部署的软件,而无需进行昂贵的返工。 您的用户将会感谢您构建的应用程序,让他们今天和明天(当您的用户群增长 10 倍时)都感到高兴。 水平与垂直缩放 水平缩放与垂直缩放 扩展性的首要关键概念之一是理解水平扩展和垂直扩展之间的区别。 return err } key := fmt.Sprintf("product:%d", product.ID) return redisClient.Set(key, productJSON, 10 代码扩展性 扩展性最佳实践主要关注基础设施和架构。但编写良好且优化的代码也是扩展的关键。即使在强大的基础设施上,次优代码也会阻碍性能和资源利用率。 凭借强大的自适应设计,即使使用量激增 10 倍或 100 倍,您的软件也可以继续让客户满意。规模规划将使您的应用程序与因增长而崩溃的众多应用程序区分开来。

    2.4K30编辑于 2023-09-07
  • 来自专栏六点半就起来干博客!

    机器学习——解释性AI(Explainable AI)

    机器学习——解释性AI(Explainable AI) 解释性AI(Explainable AI)——让机器学习模型更加透明与可信 随着人工智能(AI)和机器学习(ML)在多个领域的广泛应用,理解模型的决策过程变得尤为重要 什么是解释性AI? 解释性AI指的是一系列方法和技术,旨在帮助人们理解AI模型的输出如何生成。通过引入解释性层,AI系统不仅能提供预测结果,还能解释这些预测背后的逻辑。 解释性AI的优势 透明度:XAI通过提供详细的解释,确保用户能理解模型的决策过程。 公平性:解释性AI有助于识别和纠正模型中的潜在偏差,确保AI决策的公平性【44†source】。 解释性AI(Explainable AI)——揭开机器学习模型的“黑盒” 在当今人工智能和机器学习技术广泛应用的背景下,解释性AI(Explainable AI, XAI) 变得尤为重要。 法律合规性:在某些行业中,法律规定要求AI系统具备可解释性,XAI有助于满足这一需求【76】。 结论 解释性AI为AI系统的透明性和公平性提供了强有力的支持。

    82510编辑于 2024-10-16
  • 来自专栏CreateAMind

    解释性与deep learning的发展

    每个子pattern有很强的迁移性(transferability),比如在multi-shot part localization的上可以降低1/3—2/3的误差。

    36540发布于 2018-07-24
  • 来自专栏Datawhale专栏

    图神经网络的解释性综述!

    Abstract 近年来,深度学习模型的可解释性研究在图像和文本领域取得了显著进展。然而,在图数据领域,既没有针对GNN可解释性的统一处理方法,也不存在标准的 benchmark 数据集和评估准则。 论文 [10],[11],[18]通过研究梯度或权重,分析预测结果相对于输入特征的敏感程度。论文 [12],[13],[19] 通过将隐藏特征映射到输入空间,从而突出重要的输入特征。 然而,这些研究只关注图像和文本领域的解释方法,忽略了深度图模型的可解释性。 GNN 的可解释性 与图像和文本领域相比,对图模型解释性的研究较少,然而这是理解深度图神经网络的关键。 软掩码被随机初始化,并被视为训练变量。然后通过元素点乘将掩码与原始图结合。最大化原始图的预测和新获得的图的预测之间的互信息来优化掩码。 作者将介绍最近提出的几种针对解释性问题的评估度量方法。

    1.6K40发布于 2021-05-07
领券