我使用PyTorch-DP将差异隐私(DP)添加到机器学习模型中。PyTorch为我提供了值:\epsilon和\delta 。我知道\epsilon告诉我们数据集中( dataset,DP)中的个人隐私被破坏的概率\rho。因此,\rho为0.5可能对应于\epsilon为2(取决于发布的统计信息)。
现在,我的问题是:随着PyTorch-DP使用的实现(使用矩量会计方法计算的Renyi DP ),\rho对应于什么\epsilon?如果我不知道这一点,我如何才能就\epsilon所满足的隐私级别说些“有意义的”东西?
发布于 2021-05-28 09:20:22
我不认为你对DP中\varepsilon的解释是正确的。您可以在这个crypto.SE问题和其中的链接中找到对此参数的合理解释。
我对Rényi隐私的最佳直觉是,它限制了隐私损失) L(O)的平均值:它不是一个最坏的属性,比如DP (“对于所有输出,L(O)都低于\varepsilon"),Rényi隐私是一个平均值属性(”当我们将L(O)平均在所有可能的输出O上时,结果低于\varepsilon")。\alpha参数决定了我们使用的是哪种平均值:\alpha=1界、L(O)的算术均值、\alpha=2界、e^{L(O)}的算术均值、\alpha=3界和e^L(O)的二次均值等。
https://crypto.stackexchange.com/questions/81519
复制相似问题