Note:[ wechat:Y466551 | 付费咨询,非诚勿扰 ]
论文信息
论文标题:Maximum Classifier Discrepancy for Unsupervised Domain Adaptation
论文作者:Kuniaki Saito, Kohei Watanabe, Y. Ushiku, T. Harada
论文来源:2018 CVPR
论文地址:download
论文代码:download
视屏讲解:click
1 介绍
出发点:以往方法训练域分类器网络(即鉴别器)来区分特征作为源或目标,并训练特征生成器网络来模拟鉴别器。然而,域分类器只试图将特征作为源或目标来区分,因此不考虑类之间特定于任务的决策边界。
以往方法和本文方法的对比:
注意:之前方法应该是指基于域差异减小的方法;
贡献:
-
- 提出了一种新的域适应训练方法,通过考虑特定任务的决策边界来对齐目标域的分布。不使用域鉴别器来区分特征作为源或目标域;
- 通过一个玩具问题来确认我们的方法的行为;
- 在各种任务上广泛地评估我们的方法:数字分类,对象分类,和语义分割;
2 方法
2.1 模型框架
2.2 训练步骤
Step A,同时训练分类器和生成器来正确地对源样本进行分类。为了使分类器和生成器获得特定于任务的鉴别特征,训练网络来最小化交叉熵。其目标如下:
$\begin{array}{l}\underset{G, F_{1}, F_{2}}{\text{min}} L\left(X_{s}, Y_{s}\right) . \\L\left(X_{s}, Y_{s}\right)=-\mathbb{E}_{\left(\mathbf{x}_{s}, y_{s}\right) \sim\left(X_{s}, Y_{s}\right)} \sum_{k=1}^{K} \mathbb{1}_{\left[k=y_{s}\right]} \log p\left(y \mid \mathbf{x}_{s}\right)\end{array}$
Step B,固定特征生成器 $G$,训练分类器($F_1$,$F_2$)作为鉴别器。通过训练分类器来增加差异,可以检测到被源域的 support 所排除的目标样本。其目标如下:
$\begin{array}{l}\underset{F_{1}, F_{2}}{\text{min}} \; L\left(X_{s}, Y_{s}\right)-L_{a d v}\left(X_{t}\right) . \\L_{a d v}\left(X_{t}\right)=\mathbb{E}_{\mathbf{x}_{\mathbf{t}} \sim X_{t}}\left[d\left(p_{1}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right), p_{2}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right)\right)\right]\end{array}$
Step C,固定分类器 $F_1$,$F_2$ ,训练生成器 $G$ 最小化固定分类器的差异。其目标如下:$\underset{G}{\text{min}} \; L_{a d v}\left(X_{t}\right)$
图示如下:
3 实验结果
分类结果标签:Domain,right,mathbf,Unsupervised,MCD,生成器,分类器,论文,left From: https://www.cnblogs.com/BlairGrowing/p/17607068.html