首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏斜述视角

    隐私技术

    目前,google的chrome以及apple的ios中均使用了隐私技术,最近一段时间,我也一直在看隐私的相关文献。 隐私(differential privacy)是一种隐私保护的技术。 但是由于公民的个人隐私问题,数据中心不能直接公布原始数据,需要对这些数据进行隐私保护处理,隐私保护处理的方法使用的是隐私技术。 经过隐私处理后,若再对该数据集进行查询,则可以有效保护个人隐私。 上面写的只是隐私的大概描述,下面我将对隐私的细节进行描述,并且给出严格的数学定义。 隐私 有两个数据集分别为D和D',D和D'之间只有一条记录是不同的,其他记录都是相同的。 如果不进行隐私保护的,那么攻击者只要对两次查询做减法,就知道第100个人的具体年龄,这就是攻击。 则该算法满足ε-隐私,其中P为概率。

    3.2K30发布于 2019-01-23
  • 来自专栏CS学习笔记

    隐私(Differential Privacy)

    隐私学习笔记。 隐私定义 隐私技术是最近研究比较多的一种保护方法,其思想是在数据的采集或发布前,对数据进行扰动(Perturbation)添加噪声,从而可以隐藏真实数据,避免具有背景知识的攻击者通过猜测 隐私保护技术给出了数据隐私保护程度及数据可用性之间的严格数学定义模型: 算法A是满足_ε_的隐私算法(ε-DP),其中ε ≧0,当且仅当对于任意两个只相差一个元素的相邻数据集D,D’,都满足如下公式 隐私实际上也正是隐私保护程度和数据可用性之间的权衡。 注意,这个定义只对随机算法有意义。给出确定性输出的算法都不适合隐私隐私应用场景 下图分别是本地化和中心化隐私的处理框架。 [q04qi13qb1.png?

    9.2K32发布于 2020-08-11
  • 来自专栏计算机工具

    隐私的作用和应用举例

    一、隐私的概念 隐私是为了解决攻击而引入的解决方案,它可以有效防止研究人员从查询接口中找出自然人的个人隐私数据。 隐私主要适用于统计聚合数据(连续的数值,或离散的数值),如交互式统计查询接口、API接口、用户侧数据统计等。 攻击:是通过比较分析有特定区别的明文在通过加密后的变化传播情况来攻击密码算法的。 攻击是针对对称分组加密算法提出的攻击方法,看起来是最有效的攻击DES的方法 二、隐私应用举例 为了防止攻击者利用减法思维获取到个人隐私隐私提出了一个重要的思路:在一次统计查询的数据集中增加或减少一条记录 隐私从数学上证明了,即使攻击者已掌握除某一条指定记录之外的所有记录信息(即最大背景知识假设),它也无法确定这条记录所包含的隐私数据。 三、隐私噪声添加机制 通常使用如下机制来实现隐私保护: ● 拉普拉斯(Laplace)机制,在查询结果里加入符合拉普拉斯分布的噪声(也可以在输入或中间值加噪声),用于保护数值型敏感结果;

    1.3K10编辑于 2024-12-13
  • 来自专栏AI SPPECH

    8:L应用隐私:蓝队的隐私保护技术

    背景动机与当前热点 本节核心价值:理解为什么隐私成为蓝队的重要隐私保护工具,以及当前隐私在信息安全领域的应用现状。 隐私预算管理是隐私应用的关键。 通过应用隐私技术,我们能够在保护用户隐私的同时,实现有效的安全分析。然而,隐私也存在一些局限性: 首先,隐私会引入噪声,可能会影响分析结果的准确性。 未来,我们将看到: 自适应隐私:根据数据特征和查询需求自动调整隐私参数 联邦隐私:将隐私与联邦学习结合,在分布式环境中保护隐私 可解释隐私:提供隐私决策的解释,增强系统的透明度 量子隐私 :利用量子计算技术,实现更高效的隐私保护 这些技术的发展将使隐私更加智能、高效和可靠。

    21510编辑于 2026-03-26
  • 安全多方计算与隐私技术解析

    隐私隐私是一套统计学和算法技术,用于在不揭示数据贡献者与数据项之间映射关系的情况下,发布数据集的聚合函数。与MPC类似,我们有n个参与方,每方拥有一个数据项。 两个分布之间的最大“距离”由一个称为隐私参数的参数ε来表征,M被称为ε-隐私算法。请注意,隐私算法的输出是一个从函数f值域上的分布中抽取的随机变量。 特别是,独立使用一个ε1-隐私算法和一个ε2-隐私算法,当合在一起时,是(ε1 + ε2)-隐私的。DP适用性的一个限制是需要添加噪声——这在某些应用场景中可能是不可接受的。 结论总之,安全多方计算和隐私都可用于在保护数据隐私的同时对敏感数据进行计算。 如果目标是计算f,而g是f的一个在同时实现良好隐私和准确性方面的隐私近似,那么一个自然的方法是使用MPC来计算g。

    28710编辑于 2026-01-14
  • 来自专栏日常活动篇

    隐私:平衡隐私保护与数据价值的核心技术

    最近参加了公司组织的培训,其中提到了隐私,今天就在这里和大家简单聊聊隐私。 二、隐私的核心定义与数学原理1. 核心定义隐私的本质是:对包含或不包含某个体数据的两个 “相邻数据集”,通过同一算法处理后,输出结果的概率分布差异极小,使得攻击者无法判断该个体是否在数据集中。 当 \( \delta=0 \) 时为 “纯隐私”,安全性最高但可用性受限;\( \delta>0 \) 时为 “松弛隐私”,更适用于大规模数据场景。 三、隐私的核心实现机制(附示例)隐私的核心是 “添加可控噪声”,通过特定概率分布生成噪声,掩盖个体数据的真实值,同时保留群体统计特征。以下是两种最常用的实现机制及具体示例:1. 随着隐私法规的日趋严格和数据价值挖掘需求的增长,隐私将从技术研究走向规模化落地。

    56530编辑于 2026-01-14
  • 来自专栏机器之心

    隐私保护新突破:高斯隐私框架与深度学习结合

    这个框架现已成功和深度学习结合,并在多个需要保障隐私的深度学习任务中达到最高准确率。 什么是隐私 在这个大数据时代,如何妥善获取和使用与真人相关的数据,渐渐成为迫切需要解决的问题。 Cynthia Dwork, Frank McSherry, Kobbi Nissim 和 Adam Smith 四位科学家定义了「隐私」(以下缩写为 DP),来严谨地分析隐私这个概念。 在有限的隐私预算下,很多时候隐私算法的性能表现会不如人意。 深度学习经常需要敏感的个人信息来训练。现存的隐私定义以及隐私模型都试图在性能和隐私中找到一个平衡。 这导致了隐私算法的性能通常远逊于非隐私算法。 高斯隐私 Gaussian differential privacy (GDP) 是最近被提出的一种隐私表示方法。 作为 f-DP 的一个重要案例,作者随后介绍了高斯隐私(GDP)来区分两个高斯分布。根据中心极限定理(CLT),任何基于假设检验的隐私定义在极限情况下都会收敛于 GDP。

    1.7K12发布于 2020-05-04
  • 来自专栏FreeBuf

    隐私保护:从入门到脱坑

    0x03 总结 上面只是隐私保护的简单应用,要想应用在生产环境中,还需要针对具体场景对算法进一步改造,但隐私保护的思想是不变的。 [6] 在这个意义上,隐私的出现可以说是具有重大意义的,它将隐私保护这一工程问题进行抽象,变为数学问题, 本文介绍了中心化的隐私方法,引出了主流的拉普拉斯机制和指数机制,关于机制实现ε-隐私保护的数学证明 ,可以在文章隐私若干基本知识点介绍(一)和隐私若干基本知识点介绍(二)中获得,其中的数学知识基本在高中范围。 而背景介绍中Google、苹果等公司采用的本地化隐私方法,是隐私保护的另一支,在本地化隐私中,由于没有全局敏感度的概念,因此本文介绍的拉普拉斯机制和指数机制不再适用,大多数方案采用随机响应机制 “隐私保护及其应用.”

    11.4K41发布于 2018-09-21
  • 隐私优化端到端语音识别技术

    更好的端到端语音识别隐私技术教师模型集成私有聚合技术相对于标准隐私方法,可将词错误率相对降低超过26%。现代人工智能模型,如图像和语音识别模型,高度依赖数据。 这就引出了如何保护用于训练的用户数据隐私的问题。隐私旨在通过向训练过程中添加随机变化来掩盖训练输入的具体细节,从而防止对模型训练数据构成的推断。 隐私如何防止恶意行为者通过观察或探测AI模型,或者在最坏的情况下通过拆卸模型以提取系统内部参数,来推断有关促成该模型创建的训练数据的细节? 对于语音识别系统,这类隐私攻击可能试图推断用于训练的用户身份或输入内容本身。隐私的答案是将噪声注入训练过程,以模糊输入-输出关系与特定训练示例之间的推理路径。 隐私保证由一个参数ε量化,该参数描述了我们对于两个仅在单个训练数据项上不同的模型无法被区分的确定程度。ε = 0 表示最大的隐私保护,ε值越正表示隐私保护越少。实现更小的ε值需要注入更多噪声。

    22110编辑于 2025-12-26
  • 隐私文本保护技术获最佳论文奖

    技术突破:隐私文本保护新方法在佛罗里达人工智能研究学会年会上,某机构的研究团队展示了一种创新性的文本数据噪声校准方法,用于保护自然语言处理模型的训练数据隐私。 核心技术原理隐私保护机制通过向训练数据添加噪声来实现隐私保护,但传统方法往往以全局平均距离作为噪声添加基准,导致在词汇密集区域添加过多噪声,而在稀疏区域保护不足。 使用泊松采样确定数量)对每个近邻独立添加冈贝尔分布噪声选择噪声添加后距离最近的词汇作为替代词性能优势实验结果表明,新算法在文本分类任务中相比传统多元拉普拉斯机制:准确率提升最高达9.9%更好保持语义含义提供形式化的隐私保证证明技术意义这项研究为自然语言处理领域的隐私保护提供了新的技术路径 ,通过在保持数据效用性的同时增强隐私保护水平,为智能语音助手等应用场景的数据安全提供了重要技术支撑。

    22200编辑于 2025-09-27
  • 大规模深度学习中的隐私技术突破

    隐私在大规模深度学习中的应用深度学习模型依赖数据驱动,而训练数据可能包含需要隐私保护的敏感信息。 隐私(DP)是一种正式框架,可确保数据集中个体的隐私,使攻击者无法判断特定数据样本是否用于训练机器学习模型。 在2022年国际机器学习大会(ICML)和神经信息处理系统大会(NeurIPS)的研讨会上,我们发表了两篇推动深度学习隐私发展的论文。 自动剪裁技术在论文《自动剪裁:使隐私深度学习更简单、更强大》中,我们提出了一种自动方法,将梯度剪裁过程的调优效率提升了一个数量级(约5-10倍)。 特别是在GPT-2模型上,DP-BiTFiT使隐私微调达到了与标准GPT-2参数高效微调相当的效率水平。技术影响这两项技术已公开提供,鼓励研究人员体验并受益于更快速的隐私深度学习。

    33500编辑于 2025-09-23
  • 来自专栏wym

     定义一个分数组dif和原数组a 特别地       dif[1] = a[1] 接下来每个数定义为 dif[i] = a[i] - a[i-1] 性质            分数组前 i 项和等于第 +dif[i]             sum的分数组为第i项的值    a[i] = sum[i] - sum[i-1] 修改区间时转换为点修改 (l,r) +n   -->  dif[l]+=n

    74500发布于 2019-04-18
  • 来自专栏乐行僧的博客

    题目描述:输入一个长度为n的整数序列。 接下来输入m个操作,每个操作包含三个整数l, r, c,表示将序列中[l, r]之间的每个数加上c。 请你输出进行完所有操作后的序列。

    58720编辑于 2022-05-06
  • 来自专栏相约机器人

    既保护隐私又快速训练,Facebook开源Opacus库,利用隐私训练PyTorch模型

    机器之心报道 编辑:小舟、陈萍 隐私保护是机器学习领域的重要伦理问题之一,而隐私(DP)是行之有效的隐私保护手段。那么,如何方便地使用隐私来训练机器学习模型呢? 近日,Facebook 开源了一个新型库 Opacus,它支持使用隐私来训练 PyTorch 模型,扩展性优于目前的 SOTA 方法。 ,该库支持以最少代码更改来训练模型; 隐私科学家:Opacus 库易于实验和修复,这允许他们专注于更重要的事。 隐私是一个具备数学严谨性的框架,可用于量化敏感数据的匿名化。 具体来说,Opacus 的重点是隐私随机梯度下降(DP-SGD)。该算法的核心思想是:通过干预模型用来更新权重的参数梯度来保护训练集的隐私,而不是直接获取数据。

    1.2K21发布于 2020-09-04
  • 来自专栏速入大数据

    数据一边跑,隐私不能裸奔:聊聊流处理里的隐私怎么玩

    一、先别怕,隐私真没你想得那么玄很多同学一听“隐私”,脑子里自动浮现:数学公式ε(epsilon)拉普拉斯分布学术论文50页起步但换个说法你就懂了:隐私的核心思想只有一句话:“有没有你这条数据 二、为什么“流处理+隐私”是天作之合? 我一直觉得,隐私天然适合流式场景,原因有三点:1️⃣流处理本来就偏统计,而不是查个人大多数流作业关心的是:PV/UV订单数成功率平均值、位数统计结果=隐私的主战场2️⃣流是“持续输出”,正好可以摊噪声离线一次性加噪声 七、说点掏心窝子的感受老实讲,隐私这玩意:不会让你系统立刻变安全但会让你睡得更踏实在这个“数据就是石油”的年代:流处理负责“快”隐私负责“稳”如果你只追求实时,不管隐私——迟早翻车如果你一味隐私 八、最后一句话流处理不是隐私的例外区,而是隐私风险的放大器。如果你正在做:实时指标实时画像实时推荐实时风控那隐私,真的该提上日程了。

    16000编辑于 2026-01-17
  • 来自专栏以终为始

    7-8 Left-pad (20 )

    7-8 Left-pad (20 ) 根据新浪微博上的消息,有一位开发者不满NPM(Node Package Manager)的做法,收回了自己的开源代码,其中包括一个叫left-pad的模块,就是这个模块把

    52110编辑于 2023-03-09
  • 来自专栏计算机工具

    Shapley Value,shapley的局限性,异质性,隐私

    )隐私 而融合了上述两种或以上的隐私方法则被称为混合( Hybrid )隐私 (1)本地化隐私 本地化隐私意味着对数据的训练以及对隐私的保护过程全部在客户端就可以实现。 (2)中心化隐私 隐私方法最初被提出时大多采用中心化的形式,通过-一个可信的第三方数据收集者汇总数据,并对数据集进行扰动从而实现隐私。 因此,可以采用分布式隐私来作为本地化与中心化的折中,或采用混合隐私回避这两者的部分缺陷。 类似的分布式隐私解决方案同样都兼具了本地化与中心化隐私的优势,既不需要信任等级极高的服务器,也不需要在本地添加过多噪声。但相对的,分布式隐私普遍需要极高的通信成本。 本地化、中心化与分布式隐私的区别与联系如表所示: (4)混合隐私 混合隐私方案由Avent等提出,它通过用户对服务器信任关系的不同对用户进行分类。

    84510编辑于 2024-12-13
  • 来自专栏AI SPPECH

    164_隐私计算与联邦学习安全:从同态加密到隐私的实战指南

    隐私计算技术,尤其是同态加密和隐私,为解决这一难题提供了理论基础;而联邦学习作为一种分布式机器学习范式,则为隐私保护的实际应用提供了可行路径。 定期更新加密密钥 第3章 隐私机制设计与参数优化 3.1 隐私基础概念 隐私通过数学定义保证个体隐私: ε-隐私:对于两个仅相差一条记录的数据集D和D’,以及任意输出集合S,算法A满足 ε-隐私当且仅当: Pr[A(D) ∈ S] ≤ e^ε × Pr[A(D’) ∈ S] 其中ε称为隐私预算,ε越小,隐私保护越强,但数据可用性越低。 技术方案 采用联邦学习结合隐私和安全聚合的综合方案: 联邦学习框架:使用TensorFlow Federated构建分布式训练环境 隐私保护:在模型更新阶段添加高斯噪声,隐私预算ε=1.0 安全聚合协议 标签:#隐私计算 #联邦学习 #同态加密 #隐私 #数据安全

    79210编辑于 2025-11-18
  • 来自专栏刷题笔记

    7-8 阅览室 (20 )

    本文链接:https://blog.csdn.net/shiliang97/article/details/99688636 7-8 阅览室 (20 ) 天梯图书阅览室请你编写一个简单的图书借阅统计程序

    67710发布于 2019-11-08
  • 来自专栏腾讯大数据的专栏

    腾讯Angel PowerFL联合项目团队斩获iDASH-2021国际隐私计算大赛隐私赛道冠军

    1月28日,iDASH-2021国际隐私计算大赛结果正式公布,腾讯云Angel PowerFL和腾讯安全联合项目团队提交的方案,凭借领先的模型准确率和最快的推理速度获得隐私赛道冠军。 “模型准确率” 其中,在隐私赛道,大赛组委会要求参赛团队实现基于隐私的两方横向联邦学习模型训练,用于通过已知表型样本预测野生型转甲状腺素蛋白淀粉样心肌病。 这里的主要挑战是要满足隐私要求,训练数据具有很稀疏的特征,并且两方拥有的数据是非独立同分布的。 值得一提的是,iDASH-2021隐私赛道吸引了来自世界各地的30个顶级团队报名参与竞逐,其中有9个参赛团队提交了技术方案和实现代码,并获得了有效的比赛成绩。 腾讯云Angel PowerFL和腾讯安全联合团队提交的技术方案在合理的时间内完成了满足隐私要求的两方联邦学习模型训练,获得了领先的模型准确率,且具有最快的模型推理速度。

    66820编辑于 2022-02-08
领券