首页 > 其他分享 >Controllable Guarantees for Fair Outcomes via Contrastive Information Estimation

Controllable Guarantees for Fair Outcomes via Contrastive Information Estimation

时间:2023-05-06 14:45:02浏览次数:46  
标签:Controllable via mathbf max le tag mathcal array Estimation

目录

Gupta U., Ferber A. M., Dilkina B. and Steeg G. V. Controllable guarantees for fair outcomes via contrastive information estimation. AAAI, 2021.

本文提出了一种类似 Information Bottleneck 的方式用于保证两个群体的 fairness.

符合说明

  • \(\mathcal{D} = \{x_i, y_i, c_i\}_{i=1}^N\), 其中 \(x, y, c\) 分别为 features, label 和 sensitive attributes.

  • 我们用 \(\mathbf{x}, \mathbf{y}, \mathbf{c}\) 来表示对应的随机变量.

  • \(\mathbf{z}\), 隐变量.

Motivation

  • 假设我们考虑两个 group (\(\mathbf{c}=0, \mathbf{c}=1\)) 间的公平性, 一种常用的指标是:

    \[\Delta_{DP}(\mathcal{A}, \mathbf{c}) = |P(\hat{\mathbf{y}} = 1|\mathbf{c} = 1) - P(\hat{\mathbf{y}} = 1| \mathbf{c} = 0)|. \]

  • 但是上述指标是依赖算法 \(\mathcal{A}\) 的, 我们更希望有一个指标, 优化它能够对所有的算法都是有效的, 作者通过如下的定理给出这样的一个指标.

  • Theorem 2. 对于 \(z, c \sim p(\mathbf{z, c}), z \in \mathbb{R}^d, c \in \{0, 1\}\), 以及任意的算法 \(\mathcal{A}\), 我们有

    \[I(\mathbf{z}; \mathbf{c}) \ge g(\pi, \Delta_{DP}(\mathcal{A}, \mathbf{c})), \]

    其中 \(I(\cdot; \cdot)\) 表示互信息, \(\pi := P(\mathbf{c}=1)\), \(g\) 是一个单调递增的函数.

  • 该定理, 给了一个很好的直觉: 倘若我们能够保证 \(I(\mathbf{z;c})\) 足够小, 那么 \(g(\pi, \Delta_{DP}(\mathcal{A}, \mathbf{c}))\) 也足够小, 由于它是单调递增的, \(\Delta_{DP}(\mathcal{A}, \mathbf{c})\) 也需要足够小.

  • 于是, 一个对所有算法都有效的指标就是保证 \(I(\mathbf{z;c}) \le \delta\).

优化目标

  • 自然, 除了限制之外, 我们还希望 \(\mathbf{z}, \mathbf{y}\) 比较相关以利于后续的预测, 故我们的优化目标可以表述为:

    \[\begin{array}{rl} \max_{q(\mathbf{z|x})} & I(\mathbf{y;z}) \\ \text{s.t.} & I(\mathbf{z;c}) \le \delta. \end{array} \]

    或者采用如下的形式:

    \[\tag{1} \begin{array}{rl} \max_{q(\mathbf{z|x})} & I(\mathbf{y;z}) - \beta I(\mathbf{z;c}). \end{array} \]

  • 这一目标和普通的 information bottleneck 非常像

  • 但是这个损失存在一些问题, 如上图所示 \(I(\mathbf{y;z})\) 表示阴影部分加上黑色斜线的部分, 而 \(I(\mathbf{z;c})\) 表示阴影加上黑点部分, 所以增加 \(I(\mathbf{y;z})\) 极容易同时增加 \(I(\mathbf{z;c})\).

  • 实际上, 我们希望 \(\mathbf{z}\) 称为画红线的区域, 这部分的互信息实际上是:

    \[I(\mathbf{y;z|c}) \le H(\mathbf{y}|\mathbf{c}), \]

    故我们完全可以直接优化:

    \[\tag{2} \begin{array}{rl} \max_{q(\mathbf{z|x})} & I(\mathbf{y;z|c}) - \beta I(\mathbf{z;c}). \end{array} \]

  • 直接估计互信息是复杂的, 所以, 对于这类问题, 我们通常需要估计 \(I(\mathbf{y;z|c})\) 的一个下界, 以及 \(I(\mathbf{z;c})\) 的一个上界.

  • 容易证明:

    \[\tag{3} I(\mathbf{y;z|c}) \ge \underbrace{H(\mathbf{y|c})}_{\text{constant}} + \max_{r} \mathbb{E}_{\mathbf{y,z,c}} \log r(\mathbf{y|z,c}). \]

  • \(I(\mathbf{z;c})\) 的上界首先注意到:

    \[I(\mathbf{z}; \mathbf{x,c}) =I(\mathbf{z}; \mathbf{x}) +I(\mathbf{z}; \mathbf{c}|\mathbf{x}) =I(\mathbf{z}; \mathbf{c}) +I(\mathbf{z}; \mathbf{x}|\mathbf{c}), \]

    又 \(\mathbf{z}\) 仅与 \(\mathbf{x}\) 有关, 故 \(I(\mathbf{z;c|x})=0\), 故

    \[\tag{4} I(\mathbf{z;c}) = I(\mathbf{z;x}) - I(\mathbf{z;x|c}). \]

    (4) 是很有意思的, 它意味着, 最小化 \(I(\mathbf{z;c})\) 等价于最小化 \(I(\mathbf{z};\mathbf{x})\) (就像一般的 information bottleneck 一样), 同时最大化 \(I(\mathbf{z;x|c})\).

  • 很自然地, 为了推导 (3) 的下界, 我们需要找出 \(I(\mathbf{z;x})\) 的上界和 \(I(\mathbf{z;x|c})\) 的下界.

  • 根据 here 的 upper 可知

    \[\tag{5} I(\mathbf{z};\mathbf{x}) \le \mathbb{E}_{\mathbf{x}}\Bigg\{ \text{KL}(q(\mathbf{z|x;\phi}), p(\mathbf{z})) \Bigg\}. \]

    其中 \(p(\mathbf{z})\) 是先验分布, \(q(\mathbf{z|x;\phi})\) 是用来拟合 \(\mathbf{z}\) 的变分分布.

  • 根据 here 的 Multi-sample unnormalized lower bounds 可知

    \[\tag{6} I(\mathbf{z;x|c}) \ge \mathbb{E}_{\mathbf{z,x,c}} \log \frac{e^{f(z, x, c)}}{\frac{1}{M}\sum_{j=1}^M e^{f(\tilde{z}, x, c)}}, \]

    其中 \(\tilde{z} \sim P(\mathbf{z|c})\), \(f\) 可以是任意的函数.

  • 于是, 我们最终的损失是:

    \[\max_{q} \quad \underbrace{I(\mathbf{y;z|c})}_{(3)} - \beta [\underbrace{I(\mathbf{z;x})}_{(5)} - \lambda \underbrace{\mathbf{I}(\mathbf{z;x|c})}_{(6)}], \]

    这里额外的 \(\lambda\) 用于更好的平衡.

  • 可以发现:

    • (3) 实际上就是一般的交叉熵损失;
    • (5) 如果假设 \(p(\mathbf{z})\)是高斯先验, 可以有显示的表达式;
    • (6) 实际上是一个对比损失.

代码

official

标签:Controllable,via,mathbf,max,le,tag,mathcal,array,Estimation
From: https://www.cnblogs.com/MTandHJ/p/17377253.html

相关文章

  • Teachable Reinforcement Learning via Advice Distillation
    发表时间:2021(NeurIPS2021)文章要点:这篇文章提出了一种学习policy的监督范式,大概思路就是先结构化advice,然后先学习解释advice,再从advice中学policy。这个advice来自于外部的teacher,相当于一种human-in-the-loopdecisionmaking。另外这个advice不单单是reward的大小,可能具有......
  • cpp multi thread sync via std::atomic<bool>
    #include<atomic>#include<chrono>#include<cmath>#include<condition_variable>#include<ctime>#include<fstream>#include<functional>#include<future>#include<iomanip>#include<iostream&g......
  • 10 Abbreviations You Should Know
    10AbbreviationsYouShouldKnowASAPassoonaspossibleRSVPpleaseresponselaterRIPrestinpeacee.g.takinganexamplei.e.inotherwordshttps://www.bilibili.com/video/BV1uW41187D4/......
  • User installations are disabled via policy on the machine. 安装python
    Userinstallationsaredisabledviapolicyonthemachine. 解决办法1、在运行里输入gpedit.msc;(grouppolicy)组策略2、计算机配置管理>>管理模板>>windows组件>>windowsInstaller>>禁止用户安装;3、打开它禁用此项就可以了。    ......
  • rempe-2023-Trace and Pace: Controllable Pedestrian Animation via Guided Trajecto
    #TraceandPace:ControllablePedestrianAnimationviaGuidedTrajectoryDiffusion#paper1.paper-info1.1MetadataAuthor::[[DavisRempe]],[[ZhengyiLuo]],[[XueBinPeng]],[[YeYuan]],[[KrisKitani]],[[KarstenKreis]],[[SanjaFidler]],[[OrLi......
  • HTTP协议中Via的用法
    现在,在将Web请求从客户端传送到服务器的路径上,经过两个或多个代理是很常见的。比如,出于安全和节省费用的考虑,很多公司都会用缓存代理服务器来访问因特网,而且很多大型ISP都会使用代理缓存来提高性能并实现各种特性。现在,有相当比例的Web请求都是通过代理转发的。同时,出于性能原因,把......
  • 2020CVPR_Zero-Reference Deep Curve Estimation for Low-Light Image Enhancement
    1.motivation收到图像编辑软件的启发2. Contribution(1)无监督(2)设计图像高阶曲线适应适合像素级映射,通过迭代自身(3)设计了四个无参考损失函数3.Network 3.1DCE-NetDCE-Net:是由6个Conv2D(3x3)+relu,分别输出为x1,x2, x3,x4,x5,x6,最后的卷积由Conv2d(3x3)+tan激......
  • FastGCN Fast Learning with Graph Convolutional Networks via Importance Sampling
    目录概符号说明MotivationFastGCN方差分析代码ChenJ.,MaT.andXiaoC.FastGCN:fastlearningwithgraphconvolutionalnetworksviaimportancesampling.ICLR,2018.概一般的GCN每层通常需要经过所有的结点的propagation,但是这是费时的.像普通的深度学习方法一......
  • nfs via ssh tunnel(通过ssh隧道跨网络挂载nfs)
    这篇代码段帮了大忙:https://gist.github.com/proudlygeek/5721498下面给出我的设置:我要在机器97上访问机器231上的硬盘,需要把231上的/data1/ubuntu挂载到97上1.共享nfs文件夹在231上编辑:/etc/exports(需要root)ubuntu@lthpc:~$cat/etc/exports/data1/ubuntulocalhost(ins......
  • MULTIINSTRUCT: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning
    指令调优是一种新的学习范式,它可以根据指令指定的任务对预先训练好的语言模型进行微调,在各种自然语言处理任务中显示出良好的零目标性能。然而,对于视觉和多模态任务,它仍然没有被探索。在这项工作中,我们介绍了multiinstruction,这是第一个多模态指令调优基准数据集,由47个不同的多模......