本文对机器学习不同隐私机制进行评估。评估重点放在梯度扰动机制上,通过成员推理攻击和属性推理攻击来评估多种差分隐私算法的具体隐私损失。通过分析概率上下限,更准确地把握隐私保护限度。本文提供一对具体的攻击算法来实例化各种敌手场景下的假设性差异隐私敌手:一个是构建两个数据集D和D`的例子,另一个是接收一个模型作为输入(该模型是在这两个数据集之一上训练的)并预测它是在哪一个上训练的。通过使用这两个敌手作为工具来衡量DP-SGD分析所做假设的相对重要性,以及目前没有做但将来可能会做的合理假设的潜在好处。 不同的假设组合对应于不同的威胁模型和对敌手能力的限制。"Nasr M, Songi S, Thakurta A, et al. Adversary instantiation: Lower bounds for differentially private machine learning[C]//2021 IEEE Symposium on security and privacy (SP). IEEE, 2021: 866-882."
本文的优点在于所使用到的算法等知识阐述清晰。并且通过在总结部分说明本文对于相关的理论和应用研究帮助,极大的增强了文章的说服力和可靠性。
本文的缺点在于未说明方法的设计理念,导致我对这种方法优点还存在着疑惑。
2023年2月10日
标签:本文,instantiation,Adversary,邹昱夫,19,differentially,敌手,隐私,IEEE From: https://www.cnblogs.com/FBprivacy/p/17110723.html