我们使用以下六个分类标准:
-
动机:
- 隐私问题:许多研究背后的主要动机是对机器学习模型相关的隐私风险日益增长的担忧。例如,Shokri等人(2017)和Carlini等人(2022)专注于开发和改进成员推理攻击,以评估模型对隐私泄露的脆弱性。
- 模型理解:一些研究深入了解机器学习模型的固有属性。Yeom等人(2018)研究过拟合和隐私风险之间的联系,揭示了模型行为如何影响隐私。
- 改进攻击/防御:研究领域是动态的,不断努力加强攻击和防御机制。Salem等人(2018)探索了与模型和数据无关的成员推理攻击,而Long等人(2020)提出了成员推理的实用方法,展示了该领域不断发展的本质。
-
方法论:
- 影子模型:这种广泛使用的技术被Shokri等人(2017)、Long等人(2020)和Carlini等人(2022)所采用,涉及在数据的子集上训练多个影子模型,以模拟目标模型的行为并估计隐私风险。
- 分位数回归:您上传的论文介绍了一种使用分位数回归来预测成员推理攻击阈值的新方法,为影子模型提供了一种计算效率更高的替代方案。
- 似然比攻击(LiRA):Carlini等人(2022)提出了LiRA,这是一种基于假设检验的攻击,旨在高精度地识别训练集的成员,展示了不同的方法论角度。
- 其他方法:该领域有丰富多样的方法。例如,Song和Mittal(2021)