首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大数据文摘

    6个机器学习可解释性框架!

    解释性旨在帮助人们理解: 如何学习的? 学到了什么? 针对一个特定输入为什么会做出如此决策? 决策是否可靠? 与外形/石灰解释性有关。它可以使用SHAP/Lime作为后端,也就是说它只提供了更好看的图表。 InterpretML展示了两种类型的可解释性:glassbox模型——为可解释性设计的机器学习模型(如:线性模型、规则列表、广义可加模型)和黑箱可解释性技术——用于解释现有系统(如:部分依赖,LIME 使用统一的API并封装多种方法,拥有内置的、扩展的可视化平台,该包使研究人员能够轻松地比较可解释性算法。 以下是OmniXAI提供的与其他类似库的对比: 最后,下面是这6个框架的官方地址: https://shap.readthedocs.io/en/latest/index.html https://github.com

    2.6K40编辑于 2022-10-10
  • 来自专栏数据派THU

    6个机器学习可解释性框架!

    来源:DeepHub IMBA本文约1700字,建议阅读5分钟在本文中,将介绍6个用于机器学习可解释性的Python框架。 与外形/石灰解释性有关。它可以使用SHAP/Lime作为后端,也就是说它只提供了更好看的图表。 InterpretML展示了两种类型的可解释性:glassbox模型——为可解释性设计的机器学习模型(如:线性模型、规则列表、广义可加模型)和黑箱可解释性技术——用于解释现有系统(如:部分依赖,LIME 使用统一的API并封装多种方法,拥有内置的、扩展的可视化平台,该包使研究人员能够轻松地比较可解释性算法。 以下是OmniXAI提供的与其他类似库的对比: 最后,下面是这6个框架的官方地址: https://shap.readthedocs.io/en/latest/index.html https://github.com

    90220编辑于 2022-10-09
  • 来自专栏人生代码

    重用性的6个级别

    一些组件只需要基本的重用性。 其他人则需要更复杂的技术才能充分利用它们。 我已经确定了6个不同级别的重用性,但是可能还有更多我错过的地方。 这是有关级别的基本概述。 我即将举行的课程“ 重用组件 ”探讨了每个组件以及如何充分利用它们。 1.模板化 通过这种技术,我们将其包装在其自己的组件中,而不是到处复制+粘贴代码。 5.扩展 通过适应性和反转性,我们拥有必要的技术,可以最大限度地提高组件的重用性。 下一步是将这些技术应用于整个组件,以便我们更轻松地扩展其行为。 我们使用命名槽在组件中添加一个或多个扩展点。 6.嵌套 通过将这些扩展点通过一层或多层组件,我们将得出扩展的结论。 乍一看听起来很疯狂,但是它非常有用,尤其是在大中型应用程序中。 您从一个基本组件开始,该组件的功能相当普遍。 这是我遇到的最先进的重用性应用程序。我用这个技术有很多在我自己的工作。 结论 这是我遇到的6重用性级别。 我可能会错过一些,我当然不会说这是一份详尽的清单,但是它足够完整,可以使用。

    1.6K20发布于 2020-08-11
  • 来自专栏方丈的寺院

    落地的DDD(6)-工程结构

    背景 几年前我在落地的DDD的(2)-为什么说MVC工程架构已经过时总结了基于DDD的微服务工程结构是怎么样的。那篇文章重点阐述了与MVC架构的区别。

    70640编辑于 2022-11-08
  • 来自专栏学习

    机器学习——解释性AI与可解释性机器学习

    本文将深入探讨解释性AI与可解释性机器学习的概念、方法和代码实现,帮助读者全面理解这一重要主题。 1. 为什么需要解释性AI? 解释性AI的分类 可解释性可以从多个维度来考虑: 可解释性 vs 可理解性:可解释性通常指通过后处理方法使复杂模型变得可解释,而可理解性更侧重于构建本身就易于解释的模型。 可解释性机器学习的方法 3.1 模型本身具有可解释性 一些简单的模型具有天然的可解释性,例如: 线性回归:通过模型系数可以直接理解特征对预测的影响。 构建具有可解释性的模型 并不是所有机器学习任务都需要深度模型,对于一些需要高可解释性的任务,我们可以选择一些本身就具有良好可解释性的模型。 6. 解释性AI的挑战和未来 6.1 挑战 复杂度:随着模型复杂度的增加,可解释性方法也会变得越来越复杂,这可能导致解释本身也难以理解。

    1.1K10编辑于 2024-10-19
  • 来自专栏磐创AI技术团队的专栏

    交互的 Attention 可视化工具!我的Transformer可解释性有救了?

    乔治亚理工最近提出了DODRIO,一种交互的Attention可视化工具,从句法和寓意层面总结了不同注意力头的信息。Transformer的可解释性终于有救啦? 一些结论 本文的可视化方法再一次验证了一些之前BERT可解释性文章的结论。例如:BERT的中间层更关注句法信息,以及BERT最后1-2层是分类的关键等。

    8.1K40发布于 2021-05-11
  • 来自专栏博客园

    .Net6种成员的访问性

    CLR术语 C#术语 描述 Private private 成员只能由定义类型或任何嵌套类型访问 Family protected 成员只能由定义类型,任何嵌套类型或者不管在任何程序集中声明的派生类型访问 Family  and  Assembly 不支持 成员只能由定义类型,任何嵌套类型或者同一程序集中定义的派生类型访问 Assembly internal 成员只能由定义程序集访问 Family or Assembly protected  internal 成员可由定义类型,任何嵌套类型,任何派生类或者

    77120发布于 2018-08-31
  • 来自专栏数据和云

    这样做,RMAN备份速度提高6倍!

    墨墨导读:本文来自读者投稿,详述一则给客户备份优化的实际案例,通过这次优化,数据库性能提高了6倍。 cccc4.dbf ASYNC_OFF /test-nvme/oradata/orcl/cccc5.dbf ASYNC_OFF /test-nvme/oradata/orcl/cccc6. cmcc4.dbf ASYNC_ON /test-nvme/oradata/orcl/cmcc5.dbf ASYNC_ON /test-nvme/oradata/orcl/cmcc6. /test-nvme/oradata/orcl/cmcc5.dbf input datafile file number=00010 name=/test-nvme/oradata/orcl/cmcc6. /test-nvme/oradata/orcl/cmcc5.dbf input datafile file number=00010 name=/test-nvme/oradata/orcl/cmcc6.

    2K20发布于 2020-06-01
  • 来自专栏数据STUDIO

    Python复用函数的 6 种最佳实践

    id=1jI1cmxqnwsmC-vbl8dNY6b4aNBtBbKy3", zip_path="Twitter.zip", raw_train_path="Data/train 衡量一个Python函数质量的一个很好的指标是它的测试性。如果一个函数可以很容易地被测试,这表明该函数是模块化的,执行单一的任务,并且没有重复的代码。

    45330编辑于 2023-09-04
  • 来自专栏京程一灯

    ES6 的循环和迭代对象

    本文将研究 ES6 的 for ... of 循环。 旧方法 在过去,有两种方法可以遍历 javascript。 for ... of 循环是 ES6 试图不用第三方库去解决其中一些问题的方式。 . */ } 它将遍历一个迭代(iterable) 对象。 apples oranges pears 还有数组的 entries 方法,它返回一个迭代对象。这个迭代对象在每次循环中返回键和值。 $ node sample-program.js 2 4 6 8 10 ---- ?

    2.5K20发布于 2020-09-01
  • 来自专栏量子位

    清华大学用6个无线传感器搞定全身动作捕捉,打滚

    △惯性动捕 最轻便的也得有5、6斤,价格便宜的就更重了能达到10几斤。穿在身上影响动作的灵活性,而且很快就会累了,基本无法日常使用。 视频中的装备,后面标记出来才看到,两人身上各自只戴了6个小型惯性传感器,还是无线的。 ? 现在市面上的VR设备主要用的是光学动作捕捉。 要知道VR刚出来那会不管有线无线,最大的障碍是要在房间周围摆上3到6个柱子。 ? 后来简化成了头戴设备上的摄像头向外扫描周围的环境实现定位,加上两个手柄上的惯性传感器,如PSVR。

    1.3K50发布于 2021-06-17
  • 来自专栏CSDNToQQCode

    解释性AI(XAI)

    解释性AI(XAI)是什么 解释性AI,也称为XAI(Extended AI),是一种综合了多种AI技术的智能系统或工具,旨在帮助人们理解和解释数据、信息和知识,以辅助决策制定。 可解释性模型:XAI系统可以使用可解释性模型来解释机器学习模型的工作原理和决策过程,帮助用户理解模型的预测结果。 在安全领域,可解释性AI可以帮助识别和解释潜在的安全威胁,从而提高安全性。 四、可解释性AI的评估与度量 评估和度量AI的可解释性是一个重要的问题。 五、可解释性AI的未来发展 可解释性AI有很大的发展潜力,未来的发展趋势包括算法改进、数据标准化和自动化解释方法等。随着技术的发展,我们可能会看到更多的自动化工具和平台用于评估和改进AI的可解释性。 六、可解释性AI的实践经验与案例分析 在实际应用可解释性AI的过程中,一些实践经验包括使用可视化技术来展示AI决策过程、使用人类判断法来评估AI的可解释性以及使用决策树分析法来理解模型决策等。

    1.1K10编辑于 2024-02-01
  • 来自专栏AI

    模型可解释性

    模型可解释性:LIME与SHAP等可解释工具随着深度学习和复杂机器学习模型的普及,模型的可解释性(Model Interpretability)成为了一个日益重要的议题。 模型可解释性的背景模型可解释性主要是指能够清晰地理解和解释机器学习模型的预测依据。传统的机器学习模型,如线性回归、决策树等,相对易于理解,用户可以直观地看到模型是如何做出预测的。 因此,模型可解释性成为了研究人员和实践者必须解决的核心问题。2. 法律与合规:在某些行业,尤其是金融和医疗,法律要求决策过程的透明性和可解释性。LIME和SHAP为满足这些需求提供了有效的解决方案。6. ,详细介绍了如何通过不同的方法提高机器学习模型的可解释性

    1.1K10编辑于 2025-02-02
  • 来自专栏我和未来有约会

    建立扩展的silverlight 应用框架 step-6

    整理导航模块“LeftNav” 首先说一下我想要实现的效果。 我希望在左侧的导航点击了以后右侧的主体部分发声变化。 之前我在LeftNav模块用的控件是ToggleButton并为其制作了样式。本来想的是自己根据ToggleButton作为基础自己在做一个复合控件出来。不过这里做导航的话,ListBox会更加的适合些。ListBox的样式制作和之前的ToggleButton样式制作大同小异,都是一个原则:各个VisualStateGroup中的视图状态是可以共存的,VisualStateGroup内部的视图

    858100发布于 2018-01-16
  • 来自专栏产品运营分享

    6款无版权商用的图片网站

    今天给大家分享几个无版权商用的图片网站,无论是网页设计、还是数字营销、商业海报制作等等都可以非常简单方便的查询到自己想要的图片。 免费商用图标库 unDraw https://undraw.co/illustrations unDraw是作者Katerina Limpitsouni一手创作的扁平化图标库,除了数量繁多之外,每个图标都显得质感十足 Domain Images | Free Stock Photos https://publicdomainarchive.com/index.html 一个国外设计师制作的无版权图片网站,每周会有一张无版权商用的图片免费提供 图片 Free high-quality stock photos https://magdeleine.co/ 非常好用的国外博主图片合集,有遵循CC0协议无版权商用的图片入口,可以选择。

    4.3K20编辑于 2023-04-07
  • 构建高度扩展的纯IPv6云主机

    本文介绍了如何使用商用服务器之间的纯 IPv6 通信构建新的高度扩展的云托管解决方案,以及我们所面临IPv6协议会有哪些问题,同时,该如何处理这些问题以支持超过1000万的活跃用户。 为什么我们决定运行一个纯IPv6的网络? 在 Hostinger 中,我们关注很多创新性技术,所以我们决定运行一个基于 IPv6 名为 Awex 的新项目。 与 IPv6 协议不兼容的库:例如,Sensu 监控框架不支持 IPv6 协议,所以我们要选择 Prometheus 监控框架。 经验教训 对于更大的基础架构,IPv6协议更可接受,更具扩展性。 有很多工具、服务和库,它们部分支持或完全不支持IPv6。 相较于IPv4,IPv6允许我们更精细地去定义和控制地址空间。 IPv6具有更好的性能,即使其包头高于IPv4。但它没有碎片,没有校验和,没有NAT(网络地址转换)。 没有IPv6是一种缺陷,而不仅仅只是一个功能的缺失。 我们已经爱上了IPv6

    2.8K100发布于 2018-01-08
  • 来自专栏计算机视觉工坊

    人脸识别的可解释性

    作者丨孙裕道 编辑丨极市平台 导读 人脸识别的可解释性是深度学习领域中的一个很大挑战,当前的方法通常缺乏网络比较和量化可解释结果的真相。 自然深度学习中的很重要领域人脸识别的可解释性也是一个很大的挑战,当前在这方面探索的方法有网络注意力、网络解剖或综合语言解释,然而,缺乏网络比较和量化可解释结果的真相,尤其是在人脸识别中近亲或近亲之间的差异很微妙 论文贡献 该论文的贡献可以归结为如下三点,分别如下所示 XFR baseline:作者基于五种网络注意力算法为XFR(人脸识别的可解释性)提供了baseline,并在三个用于人脸识别的公开深度卷积网络上进行了评估 模型介绍 人脸识别的可解释性(XFR) 该论文的创新点可能是从Facenet中得到一定的灵感。XFR的目的是解释人脸图像之间的匹配的内在关系。

    2.9K20发布于 2020-11-11
  • 构建高扩展的纯IPv6云主机

    本文介绍了如何在商用服务器之间使用纯IPv6通信构建新的高度扩展的云托管解决方案,我们面临的IPv6协议有哪些问题,以及我们如何解决这些问题以处理超过1000万活跃用户。 作为BGP守护进程,我们正在运行ExaBGP程序并使用单个IPv6会话来宣告两种协议(IPv4 / IPv6)。BGP会话在服务器引导步骤中自动配置。 与IPv6协议不兼容的库:例如,Sensu监控框架不支持IPv6,所以我们搬到了Prometheus。 得到的教训 对于更大的基础设施,IPv6协议更可接受,更具扩展性。 有很多不支持IPv6的工具,服务和库 - 部分或完全不支持。 IPv6使我们能够比IPv4更精细地定义和控制地址空间。 IPv6具有更好的性能,即使它的数据包的头部高于IPv4。没有碎片,没有校验和,没有NAT(网络地址转换)。 IPv6的较少使用是一个缺陷,而不仅仅是一个缺失的功能。 我们爱上了IPv6

    4K80发布于 2018-01-08
  • 来自专栏编程随想曲

    代码重构之引入解释性变量

    意图 临时变量可以帮助你将表达式分解为比较容易管理的形式 在较长的算法中,可以运用临时变量来解释每一步运算的意义 示例 /** * 引入解释性变量之前 * Created by luo on 2017 something } } private boolean wasInitialized() { return false; } } /** * 引入解释性变量之后

    38220编辑于 2022-04-21
  • 来自专栏CSDN小华

    机器学习模型的可解释性

    机器学习模型的可解释性 机器学习模型的可解释性是指人类能够理解并理解决策原因的程度,这在业务应用中尤为重要。高可解释性的模型不仅有助于开发人员在建模阶段理解模型,还能在必要时进行优化调整。 可解释性的重要性体现在多个方面: 辅助决策:可解释性使人们更容易理解为什么模型做出了某些决定或预测,从而提高对模型的信任度和接受度。 最新的机器学习模型可解释性技术和方法有哪些?         最新的机器学习模型可解释性技术和方法主要包括以下几种: 局部可解释性工具:这类工具旨在解释模型在特定输入上的行为。 解释性工具的应用:利用各种解释性工具和技术,如局部可解释模型不可解释性(LIME)、集成梯度(IG)等,帮助理解模型的预测过程和结果。 近年来,学术界已经开发出许多可解释性工具和方法,如局部可解释性、规则可解释性和概念可解释性等。未来,这些工具和方法将不断完善,并在实际应用中得到更广泛的应用。         

    80310编辑于 2024-10-16
领券