首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏学习

    机器学习——解释性AI与可解释性机器学习

    本文将深入探讨解释性AI与可解释性机器学习的概念、方法和代码实现,帮助读者全面理解这一重要主题。 1. 为什么需要解释性AI? 解释性AI的分类 可解释性可以从多个维度来考虑: 可解释性 vs 可理解性:可解释性通常指通过后处理方法使复杂模型变得可解释,而可理解性更侧重于构建本身就易于解释的模型。 3. 可解释性机器学习的方法 3.1 模型本身具有可解释性 一些简单的模型具有天然的可解释性,例如: 线性回归:通过模型系数可以直接理解特征对预测的影响。 discretize_continuous=True) explanation = explainer.explain_instance(X.values[5], model.predict_proba, num_features=3) 加载数据并训练决策树模型 X, y = sklearn.datasets.load_iris(return_X_y=True) model = DecisionTreeClassifier(max_depth=3)

    1.1K10编辑于 2024-10-19
  • 来自专栏磐创AI技术团队的专栏

    交互的 Attention 可视化工具!我的Transformer可解释性有救了?

    乔治亚理工最近提出了DODRIO,一种交互的Attention可视化工具,从句法和寓意层面总结了不同注意力头的信息。Transformer的可解释性终于有救啦? 一些结论 本文的可视化方法再一次验证了一些之前BERT可解释性文章的结论。例如:BERT的中间层更关注句法信息,以及BERT最后1-2层是分类的关键等。

    8.1K40发布于 2021-05-11
  • 来自专栏CSDNToQQCode

    解释性AI(XAI)

    解释性AI(XAI)是什么 解释性AI,也称为XAI(Extended AI),是一种综合了多种AI技术的智能系统或工具,旨在帮助人们理解和解释数据、信息和知识,以辅助决策制定。 可解释性模型:XAI系统可以使用可解释性模型来解释机器学习模型的工作原理和决策过程,帮助用户理解模型的预测结果。 在安全领域,可解释性AI可以帮助识别和解释潜在的安全威胁,从而提高安全性。 四、可解释性AI的评估与度量 评估和度量AI的可解释性是一个重要的问题。 五、可解释性AI的未来发展 可解释性AI有很大的发展潜力,未来的发展趋势包括算法改进、数据标准化和自动化解释方法等。随着技术的发展,我们可能会看到更多的自动化工具和平台用于评估和改进AI的可解释性。 六、可解释性AI的实践经验与案例分析 在实际应用可解释性AI的过程中,一些实践经验包括使用可视化技术来展示AI决策过程、使用人类判断法来评估AI的可解释性以及使用决策树分析法来理解模型决策等。

    1.1K10编辑于 2024-02-01
  • 来自专栏AI

    模型可解释性

    模型可解释性:LIME与SHAP等可解释工具随着深度学习和复杂机器学习模型的普及,模型的可解释性(Model Interpretability)成为了一个日益重要的议题。 模型可解释性的背景模型可解释性主要是指能够清晰地理解和解释机器学习模型的预测依据。传统的机器学习模型,如线性回归、决策树等,相对易于理解,用户可以直观地看到模型是如何做出预测的。 因此,模型可解释性成为了研究人员和实践者必须解决的核心问题。2. 3. ,详细介绍了如何通过不同的方法提高机器学习模型的可解释性

    1.1K10编辑于 2025-02-02
  • 来自专栏一个会写诗的程序员的博客

    3章 Kotlin 空类型与类型系统第3章 Kotlin 空类型与类型系统

    3章 Kotlin 空类型与类型系统 跟Java、C和C ++ 一样, Kotlin也是“静态类型编程语言”。 字符数组 jshell> char[] s = {'a','b','c'} s ==> char[3] { 'a', 'b', 'c' } jshell> s[0] $3 ==> 'a' jshell Kotlin系统类型分为空类型和不可空类型。Kotlin中引入了空类型,把有可能为null的值单独用空类型来表示。这样就在空引用与不可空引用之间划分出来一条明确的显式的“界线”。 length 3 只有在 nullableStr != null 时才会去调用其length属性。 3.3.3 非空断言 !! = unitReturn3() println(ur3) // kotlin.Unit } fun unitReturn1() { } fun unitReturn2

    2.5K20发布于 2018-08-17
  • 来自专栏计算机视觉工坊

    人脸识别的可解释性

    作者丨孙裕道 编辑丨极市平台 导读 人脸识别的可解释性是深度学习领域中的一个很大挑战,当前的方法通常缺乏网络比较和量化可解释结果的真相。 自然深度学习中的很重要领域人脸识别的可解释性也是一个很大的挑战,当前在这方面探索的方法有网络注意力、网络解剖或综合语言解释,然而,缺乏网络比较和量化可解释结果的真相,尤其是在人脸识别中近亲或近亲之间的差异很微妙 论文贡献 该论文的贡献可以归结为如下三点,分别如下所示 XFR baseline:作者基于五种网络注意力算法为XFR(人脸识别的可解释性)提供了baseline,并在三个用于人脸识别的公开深度卷积网络上进行了评估 模型介绍 人脸识别的可解释性(XFR) 该论文的创新点可能是从Facenet中得到一定的灵感。XFR的目的是解释人脸图像之间的匹配的内在关系。

    2.9K20发布于 2020-11-11
  • 3种方式提升云扩展性

    在实现高可用性的同时,你也可以通过将大部分的SELECT操作流量发送到另一个服务器来获得扩展性。 3.使用 Striped EBS root volume EBS是一项非常棒的技术,因为它为每个EC2实例带来了存储区域网络的灵活性。

    3.9K70发布于 2018-01-15
  • 来自专栏崛起社区

    都说Web3要来了 究竟什么是Web3

    什么是Web 3.0(也称Web3)? 自2021年以来Web3成为人们热议的话题,但它目前仍处于发展的初级阶段。 添加描述 “Web 3.0”通常指的是“去中心化的互联网”。 3D界面:沉浸感,模糊物理和数字空间的界限。 虽然Web 3.0目前还处于起步阶段,但它提供的一系列功能可以完全改变我们对互联网的看法和使用方式,随着技术的不断进化,未来会有更多新的行业诞生。

    1.1K10编辑于 2022-01-17
  • 来自专栏JavaEdge

    系统架构设计(3)-扩展性

    扩展性,描述系统应对负载增加的能力。它不是衡量一个系统的一维指标, 谈论“系统X是扩展 ”或“不扩展”无太大意义。 批处理系统如Hadoop ,通常关心吞吐量(throughput),即每秒处理的记录数或在某指定数据集上运行作业所需总时间。 因此,最好不要将响应时间视一个固定的数字,而是度量的一种数值分布。 大多数请求的确快,但偶有异常,需要更长时间。这些异常请求有的确实代价高,如数据大很多。 例如,即使两系统数据吞吐量折算后一样,但为每秒处理100,000 次请求(每个大小为1KB )而设计的系统,和为3个请求/min(每个大小2GB )设计的系统大不相同。 扩展架构一般从通用模块逐步构建而来,背后往往有规律可循,所以我们会多讨论这些通用模块和常见模式。

    1.3K20编辑于 2022-06-06
  • 来自专栏写代码和思考

    Android开发(3) 滚动的录入表单演示

    3.分别设定上面三个控件的布局属性(或者说设置布局,对齐样式)。 <TableLayout android:padding="<em>3</em>dip" android:id="@+id/tableLayout1" android: fill_parent" android:gravity="right" android:textStyle="bold" android:padding="<em>3</em>dip "User"> </TextView> <EditText android:id="@+id/editText1" android:padding="<em>3</em>dip

    1.8K00发布于 2020-03-16
  • 来自专栏编程随想曲

    代码重构之引入解释性变量

    意图 临时变量可以帮助你将表达式分解为比较容易管理的形式 在较长的算法中,可以运用临时变量来解释每一步运算的意义 示例 /** * 引入解释性变量之前 * Created by luo on 2017 something } } private boolean wasInitialized() { return false; } } /** * 引入解释性变量之后

    38220编辑于 2022-04-21
  • 来自专栏CSDN小华

    机器学习模型的可解释性

    机器学习模型的可解释性 机器学习模型的可解释性是指人类能够理解并理解决策原因的程度,这在业务应用中尤为重要。高可解释性的模型不仅有助于开发人员在建模阶段理解模型,还能在必要时进行优化调整。 可解释性的重要性体现在多个方面: 辅助决策:可解释性使人们更容易理解为什么模型做出了某些决定或预测,从而提高对模型的信任度和接受度。 最新的机器学习模型可解释性技术和方法有哪些?         最新的机器学习模型可解释性技术和方法主要包括以下几种: 局部可解释性工具:这类工具旨在解释模型在特定输入上的行为。 解释性工具的应用:利用各种解释性工具和技术,如局部可解释模型不可解释性(LIME)、集成梯度(IG)等,帮助理解模型的预测过程和结果。 近年来,学术界已经开发出许多可解释性工具和方法,如局部可解释性、规则可解释性和概念可解释性等。未来,这些工具和方法将不断完善,并在实际应用中得到更广泛的应用。         

    80310编辑于 2024-10-16
  • 来自专栏曲奇的博客

    机器学习模型的可解释性

    解释性的范围 全局可解释 这个层级的可解释性指的是,模型如何基于整个特征空间和模型结构、参数等作出决策的。什么特征是重要的,特征交互会发生什么。 3 虚拟性 一个不改变预测值的特征j,无论它添加到哪个特征值序列中,Shapley值都应该为0。 20200420_prediction_shap 1.5.3 实践3 20200501_prediction 如上图,选择0点左右被模型预测出来的异常点,计算各个特征的Shapley value。 然后使用新的解析的特征和prediction作为label来训练新的简单模型(例如LR),然后使用简单模型的权重作为这些特征的重要性作为输出。 就是选择一个样本以及样本附近的点,然后训练一个简单模型来拟合,虽然简单模型不能在完整数据集上有效,但至少在这个点附近都是有效的,这个简单模型的特征是人类解析的,而训练出的权重也可以表示特征重要性。

    2.4K20编辑于 2021-12-14
  • 来自专栏腾讯云TI平台

    【技术分享】机器学习模型可解释性

    对于模型按预期工作的关键利益相关者而言,这应该是证明且易于理解的。这确保了模型的透明度。 在他的论文中,他还讨论了PD图的局限性,并提供了有关如何为大数据生成缩放图的建议。 然后使用新的解析的特征和prediction作为label来训练新的简单模型(例如LR),然后使用简单模型的权重作为这些特征的重要性作为输出。 Step3:产生variable-levelattention,其中输入RNN中的数据采用时间逆序输入。 amazonaws.com/283647_c3ab1ccee95a403ebe3d276599a85ab8.html 《通向人类可理解、可解释的人工智能》 https://github.com/lopusz

    4.2K54编辑于 2021-12-22
  • 来自专栏大数据文摘

    6个机器学习可解释性框架!

    解释性旨在帮助人们理解: 如何学习的? 学到了什么? 针对一个特定输入为什么会做出如此决策? 决策是否可靠? with condaconda install -c conda-forge shapbr 使用Shap库构建瀑布图 使用Shap库构建Beeswarm图 使用Shap库构建部分依赖图 LIME 在可解释性领域 与外形/石灰解释性有关。它可以使用SHAP/Lime作为后端,也就是说它只提供了更好看的图表。 InterpretML展示了两种类型的可解释性:glassbox模型——为可解释性设计的机器学习模型(如:线性模型、规则列表、广义可加模型)和黑箱可解释性技术——用于解释现有系统(如:部分依赖,LIME 使用统一的API并封装多种方法,拥有内置的、扩展的可视化平台,该包使研究人员能够轻松地比较可解释性算法。

    2.6K40编辑于 2022-10-10
  • 来自专栏机器之心

    微软发布Phi-3,性能超Llama-3手机端运行

    Llama-3 刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。 本周二,微软发布了自研小尺寸模型 Phi-3。 尽管 Phi-3 mini 被优化至部署在手机上,但它的性能可以与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美。微软表示,创新主要在于用于训练的数据集。 实验测试表明,phi-3-mini 的整体性能与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美,例如 phi -3-mini 在 MMLU 上达到了 69%,在 MT-bench 上达到了 此外,研究团队还提供了针对 4.8T token 训练的 7B 和 14B 模型的初始参数扩展结果,称为 phi-3-small 和 phi-3-medium,两者都比 phi-3-mini 能力更强。 这一过程导致有害响应率显著降低,如图 3 所示。

    34210编辑于 2024-04-26
  • 来自专栏csdn文章同步

    到底什么是 Web3 —— 可读-可写-拥有?

    目录 早期的网络 Web 1.0: 只读 [Read-Only](1990-2004) Web 2.0: 可读-可写 [Read-Write](2004-至今) Web 3.0: 可读-可写-拥有 [ Web3 的局限性 访问性 用户体验 教育 中心化的基础设施 去中心化的未来 延伸阅读 ---- 本文译自:Introduction to Web3 中心化已经帮助数十亿人登上万维网的航船,并创建了万维网所依托的稳定的 Web 3.0: 可读-可写-拥有 [Read-Write-Own]  “Web 3.0” 的前提是以太坊联合创始人 Gavin Wood 在2014年以太坊推出后不久提出的。 2020年推特上的一篇帖子一语中的:Web1 是只读的,Web2 是可读-可写的,Web3 将会是 可读-可写-拥有 的。 访问性 任何人都可以零成本使用重要的 Web3 功能,例如使用以太坊登录。但是,交易的相对成本仍然让许多人望而却步。由于高昂的交易费用,Web3 不太可能在不太富裕的发展中国家使用。

    1.5K20编辑于 2022-10-31
  • 3种提升云扩展性的方法

    但是要怎样利用Amazon的相关技术才能获得最好的拓展性呢? 1.使用自动缩放(Auto-scaling) Amazon EC2提供自动缩放这一云计算独有的特性。 在实现高可用性的同时,通过将大部分SELECT流量发送到另一个服务器,也可以兼顾扩展性。 随着负载的进一步增长,我们只需要再加入一个额外的只读slave服务器。 3.使用分区的EBS卷 EBS可是个了不起的的技术,它使每个EC2实例的存储区域网络变得更加灵活。虽然这个技术本身也有难题需要解决。

    2.3K90发布于 2018-01-08
  • 来自专栏六点半就起来干博客!

    机器学习——解释性AI(Explainable AI)

    机器学习——解释性AI(Explainable AI) 解释性AI(Explainable AI)——让机器学习模型更加透明与可信 随着人工智能(AI)和机器学习(ML)在多个领域的广泛应用,理解模型的决策过程变得尤为重要 什么是解释性AI? 解释性AI指的是一系列方法和技术,旨在帮助人们理解AI模型的输出如何生成。通过引入解释性层,AI系统不仅能提供预测结果,还能解释这些预测背后的逻辑。 解释性AI的优势 透明度:XAI通过提供详细的解释,确保用户能理解模型的决策过程。 公平性:解释性AI有助于识别和纠正模型中的潜在偏差,确保AI决策的公平性【44†source】。 解释性AI(Explainable AI)——揭开机器学习模型的“黑盒” 在当今人工智能和机器学习技术广泛应用的背景下,解释性AI(Explainable AI, XAI) 变得尤为重要。 法律合规性:在某些行业中,法律规定要求AI系统具备可解释性,XAI有助于满足这一需求【76】。 结论 解释性AI为AI系统的透明性和公平性提供了强有力的支持。

    82510编辑于 2024-10-16
  • 3种提升云扩展性的方法

    部署在亚马逊的云服务器中被认为是实现高扩展性的好方法,同时只需要为您所使用的计算能力支付费用。不过您要如何从技术中获得最佳的扩展性呢? 1. 在实现高可用性的同时,通过将大部分选择(SELECT)操作发送到另一个服务器,您也可以获得扩展性。 随着负载的进一步增长,你可以启用更多的只读的从数据库。 3. 使用冗余的 EBS 卷 EBS(Elastic Block Store,弹性区块存储)是一项非常棒的技术,因为它为每个 EC2 实例提供了一个灵活的存储网络。

    3.9K100发布于 2018-01-15
领券