首页 > 其他分享 >迁移学习()《Energy-based Out-of-distribution Detection》

迁移学习()《Energy-based Out-of-distribution Detection》

时间:2023-03-19 10:34:12浏览次数:51  
标签:right mathbf text Energy frac Detection based left mathrm

论文信息

论文标题:Energy-based Out-of-distribution Detection
论文作者:Weitang Liu, XiaoYun Wang, John D. Owens, Yixuan Li
论文来源:NeurIPS 2020
论文地址:download 
论文代码:download
引用次数:

1 前言

  能量的模型(EBM)本质是建立一个函数 $E(\mathbf{x}): \mathbb{R}^{D} \rightarrow \mathbb{R}$,它将输入空间的每个点 $\mathrm{x}$ 映射到一个称为能量的非概率标量。

  一个能量值的集合可以通过吉布斯分布转化为一个概率密度 $p(\mathbf{x})$:

    $p(y \mid \mathbf{x})=\frac{e^{-E(\mathbf{x}, y) / T}}{\int_{y^{\prime}} e^{-E\left(\mathbf{x}, y^{\prime}\right) / T}}=\frac{e^{-E(\mathbf{x}, y) / T}}{e^{-E(\mathbf{x}) / T}}\quad\quad\quad(1)$

  其中:

    • 分母 $\int_{y^{\prime}} e^{-E\left(\mathbf{x}, y^{\prime}\right) / T}$ 称为配分函数;
    • $T$ 是温度参数;

  数据点 $\mathbf{x} \in \mathbb{R}^{D}$ 的亥姆霍兹自由能 $E(\mathbf{x})$ 可以表示为对数配分函数的负值:

    $E(\mathbf{x})=-T \cdot \log \int_{y^{\prime}} e^{-E\left(\mathbf{x}, y^{\prime}\right) / T} \quad\quad\quad(2)$

  考虑一个分类器 $f(\mathbf{x}) : \mathbb{R}^{D} \rightarrow \mathbb{R}^{K}$,它将输入 $\mathbf{x} \in \mathbb{R}^{D}$ 映射到 $K$ 个称为对数的实数。这些对数用于使用 $\text{softmax}$ 函数导出分类分布:

    $p(y \mid \mathbf{x})=\frac{e^{f_{y}(\mathbf{x}) / T}}{\sum\limits _{i}^{K} e^{f_{i}(\mathbf{x}) / T}} \quad\quad\quad(3)$

  由 $\text{Eq.1}$ 和 $\text{Eq.3}$,可以将给定输入 $(\mathbf{x}, y)$ 的能量定义为 $E(\mathbf{x}, y)=-f_{y}(\mathbf{x})$。

  使用 $\text{softmax}$ 的分母来表示 $\mathbf{x} \in \mathbb{R}^{D}$ 上的自由能函数 $E(\mathbf{x} ; f)$:

    $E(\mathbf{x} ; f)=-T \cdot \log \sum\limits _{i}^{K} e^{f_{i}(\mathbf{x}) / T}   \quad\quad\quad(4)$

2 基于能量的分布外检测

  OOD 检测实际上是一个二分类问题,用能量函数来构建判别模型的密度函数:

    $\mathrm{p}(\mathbf{x})=\frac{\mathrm{e}^{-\mathrm{E}(\mathbf{x} ; \mathrm{f}) / \mathrm{T}}}{\int_{\mathbf{x}} \mathrm{e}^{-\mathrm{E}(\mathbf{x} ; \mathrm{f}) / \mathrm{T}}}$

  上式取对数:

    $\log \mathrm{p}(\mathbf{x})=-\mathrm{E}(\mathbf{x} ; \mathrm{f}) / \mathrm{T}-\underbrace{\log \mathrm{Z}}_{\text {constant for all } \mathrm{x}}$

  上式表明 $−E(x;f)$ 实际上与对数似然函数是线性对齐的,低能量意味着高似然(ID),高能量意味着低似然(OOD)。那么设置一个阈值 $\tau$ 就可以分类了:

    $g(\mathbf{x} ; \tau, f)=\left\{\begin{array}{ll}0 & \text { if }-E(\mathbf{x} ; f) \leq \tau \\1 & \text { if }-E(\mathbf{x} ; f)>\tau\end{array}\right.  \quad\quad(7)$

  回顾负对数似然损失:

    $\mathcal{L}_{\mathrm{nll}}=\mathbb{E}_{(\mathbf{x}, y) \sim P^{\text {in }}}\left(-\log \frac{e^{f_{y}(\mathbf{x}) / T}}{\sum_{j=1}^{K} e^{f_{j}(\mathbf{x}) / T}}\right)$

  通过定义能量 $E(\mathbf{x}, y)=-f_{y}(\mathbf{x})$,NLL 损失可以重写为:

    $\mathcal{L}_{\text {nll }}=\mathbb{E}_{(\mathbf{x}, y) \sim P^{\text {in }}}\left(\frac{1}{T} \cdot E(\mathbf{x}, y)+\log \sum_{j=1}^{K} e^{-E(\mathbf{x}, j) / T}\right)$

  第一项推低了 ground truth $y$ 的能量,第二个项可解释为能量系的自由能。这导致地面真实答案 $y$ 的能量被拉下来,而所有其他标签的能量被拉上来。这可以从一个例子的梯度表达式中看出:

    $\begin{aligned}\frac{\partial \mathcal{L}_{\mathrm{nll}}(\mathbf{x}, y ; \theta)}{\partial \theta} & =\frac{1}{T} \frac{\partial E(\mathbf{x}, y)}{\partial \theta} \\& -\frac{1}{T} \sum_{j=1}^{K} \frac{\partial E(\mathbf{x}, y)}{\partial \theta} \frac{e^{-E(\mathbf{x}, y) / T}}{\sum_{j=1}^{K} e^{-E(\mathbf{x}, j) / T}} \\& =\frac{1}{T} \underbrace{\left(\frac{\partial E(\mathbf{x}, y)}{\partial \theta}(1-p(Y=y) \mid \mathbf{x})\right.}_{\downarrow \text { energy push down for } y} \\& -\underbrace{\sum_{j \neq y} \frac{\partial E(\mathbf{x}, j)}{\partial \theta} p(Y=j \mid \mathbf{x})}_{\uparrow \text { energy pull up for other labels }}) .\end{aligned}$

3 Energy Score vs. Softmax Score

  首先推导出 energy score 和 softmax confifidence score 之间的数学联系:

    $\begin{aligned} \underset{y}{\text{max}} p(y \mid \mathbf{x}) & =\max _{y} \frac{e^{f_{y}(\mathbf{x})}}{\sum_{i} e^{f_{i}(\mathbf{x})}}=\frac{e^{f^{\max }(\mathbf{x})}}{\sum_{i} e^{f_{i}(\mathbf{x})}} \\& =\frac{1}{\sum_{i} e^{f_{i}(\mathbf{x})-f^{\max }(\mathbf{x})}}\end{aligned}$

    $\begin{aligned}\Longrightarrow \log \max _{y} p(y \mid \mathbf{x}) & =E\left(\mathbf{x} ; f(\mathbf{x})-f^{\max }(\mathbf{x})\right) \\& =\underbrace{E(\mathbf{x} ; f)}_{\downarrow \text { for in-dist } \mathbf{x}}+\underbrace{f^{\max }(\mathbf{x})}_{\uparrow \text { for in-dist } \mathbf{x}}\end{aligned}$

  把 $\text{Eq.6}$ 带入,令 $T=1$:

    $\log \max _{\mathbf{y}} \mathrm{p}(\mathrm{y} \mid \mathbf{x})=-\log \mathrm{p}(\mathbf{x})+\underbrace{\mathrm{f}^{\max }(\mathbf{x})-\log \mathrm{Z}}_{\text {Not constant. Larger for in-dist } \mathbf{x}}$

  这里后两项  $\mathrm{f}^{\max }(\mathbf{x})-\log \mathrm{Z}$  不是一个常数,相反,对于 ID 样本,其负对数似然期望是更小的,但是  $\mathrm{f}^{\max }(\mathrm{x})$  这个分类置信度却是越大越好,这二种冲突。这一定程度上解释了基于 softmax confidence 方法的问题。

4 能量边界学习

   在相同模型上,能量函数已经比 softmax 函数好了,那要是能有针对性的 fine-tuning 一下就更好了。作者就提出了一种能量边界目标函数来 fine-tuning 网络:

    $\underset{\theta}{\text{min}}  \mathbb{E}_{(\mathbf{x}, \mathrm{y}) \sim \mathcal{D}_{\text {in }}^{\text {tain }}}\left[-\log \mathrm{F}_{\mathrm{y}}(\mathbf{x})\right]+\lambda \cdot \mathrm{L}_{\text {energy }}$

  其中第一项是标准的交叉熵损失函数,作用在 ID 训练数据上。第二项是一个基于能量的正则化项:

    $\begin{aligned}\mathrm{L}_{\text {energy }} =\quad &\mathbb{E}_{\left(\mathbf{x}_{\text {in }}, \mathrm{y}\right) \sim \mathcal{D}_{\text {in }}^{\text {train }}}\left(\max \left(0, \mathrm{E}\left(\mathbf{x}_{\text {in }}\right)-\mathrm{m}_{\text {in }}\right)\right)^{2} \\&\left.+\mathbb{E}_{\mathbf{x}_{\text {out }} \sim \mathcal{D}_{\text {out }}^{\text {train }}} \max \left(0, \mathrm{~m}_{\text {out }}-\mathrm{E}\left(\mathbf{x}_{\text {out }}\right)\right)\right)^{2}\end{aligned}$

  惩罚能量高于 $m_{\text {in }}$ 的 ID 数据和能量低于 $m_{\text {out }}$  的ODD数据,来拉远正常数据和异常数据分布之间的距离。

 

标签:right,mathbf,text,Energy,frac,Detection,based,left,mathrm
From: https://www.cnblogs.com/BlairGrowing/p/17231667.html

相关文章