首页 > 其他分享 >生成模型的两大代表:VAE和GAN

生成模型的两大代表:VAE和GAN

时间:2023-12-10 21:57:27浏览次数:36  
标签:phi log 模型 生成器 VAE GAN rm theta data

生成模型

给定数据集,希望生成模型产生与训练集同分布的新样本。对于训练数据服从\(p_{data}(x)\);对于产生样本服从\(p_{model}(x)\)。希望学到一个模型\(p_{model}(x)\)与\(p_{data}(x)\)尽可能接近。

这也是无监督学习中的一个核心问题——密度估计问题。有两种典型的思路:

  1. 显式的密度估计:显式得定义并求解分布\(p_{model}(x)\),如VAE。
  2. 隐式的密度估计:学习一个模型\(p_{model}(x)\),而无需显式定义它,如GAN。

VAE

AE

首先介绍下自编码器(Auto Encoder, AE),它将输入的图像X通过编码器encoder编码为一个隐向量(bottleneck)Z,然后再通过解码器decoder解码为重构图像X',它将自己编码压缩再还原故称自编码。结构如下图所示:

以手写数字数据集MNIST为例,输入图像大小为28x28,通道数为1,定义隐向量的维度(latent_dim)为1 x N,N=20。经过编码器编码为一个长度为20的向量,再通过解码器解码为28x28大小的图像。将生成图像X'与原始图像X进行对比,计算重构误差,通过最小化误差优化模型参数:

\[Loss = distance(X, X') \]

一般distance距离函数选择均方误差(Mean Square Error, MSE)。AE与PCA作用相同,通过压缩数据实现降维,还能把降维后的数据进行重构生成图像,但PCA的通过计算特征值实现线性变换,而AE则是非线性。

VAE

如果中间的隐向量的每一分量取值不是直接来自Encoder,还是在一个分布上进行采样,那么就是VAE(Variational Auto Encoder),结构如下图所示:

还是上面的例子,这里的Z维度还是1 x 20,但是每一分量不是直接来自Encoder,而是在一个分布上进行采样计算,一般来说分布选择正态分布(当然也可以是其他分布)。每个正态分布的\(\mu\)与\(\sigma\)由Encoder的神经网络计算而来。关于Z上每一分量的计算,这里,\(\epsilon\)从噪声分布中随机采样得到。

\[z^{(i,l)}=\mu^{(i)}+\sigma^{(i)}\cdot\epsilon^{(l)}\space\mathrm{and}\space\epsilon^{(l)}\sim N(0,I) \]

在Encoder的过程中给定x得到z就是计算后验概率\(q_\phi(z|x)\),学习得到的z为先验分布\(p_\theta(z)\),Decoder部分根据z计算x的过程就是似然估计\(p_\theta(x|z)\),训练的目的也是最大化似然估计(给出了z尽可能得还原为x)。

边缘似然度\(p_\theta(x)=\int p_\theta(z)p_\theta(x|z)\,{\rm d}z\),边缘似然度又是每个数据点的边缘似然之和组成:\(\log p_\theta(x^{(1)},\cdots,x^{(N)})=\sum_{i=1}^N\log p_\theta(x^{(i)})\),可以被重写为:

\[\log p_\theta(x^{(i)})={\rm D_{KL}}(q_\phi(z|x^{(i)})||p_\theta(z|x^{(i)}))+{\cal L}(\theta,\phi;x^{(i)}) \]

等式右边第二项称为边缘似然估计的下界,可以写为:

\[\log p_\theta(x^{(i)})\ge{\cal L}(\theta,\phi;x^{(i)})=\mathbb{E}_{z\sim q_\phi(z|x)}[-\log q_\phi(z|x)+\log p_\theta(x|z)] \]

得到损失函数:

\[{\cal L}(\theta,\phi;x^{(i)})=-{\rm D_{KL}}(q_\phi(z|x^{(i)})||p_\theta(z))+\mathbb{E}_{z\sim q_\phi(z|x^{(i)})}[\log p_\theta(x^{(i)}|z)] \]

GAN

生成对抗网络(Generative Adversarial Nets, GAN)需要同时训练两个模型:生成器(Generator, G)和判别器(Discriminator, D)。生成器的目标是生成与训练集同分布的样本,而判别器的目标是区分生成器生成的样本和训练集中的样本,两者相互博弈最后达到平衡(纳什均衡),生成器能够以假乱真,判别器无法区分真假。

生成器和判别器最简单的应用就是分别设置为两个MLP。为了让生成器在数据x学习分布\(p_g\),定义一个噪声分布\(p_z(z)\),然后使用生成器\(G(z;\theta_g)\)将噪声映射为生成数据x'(\(\theta_g\)是生成器模型参数)。同样定义判别器\(D(x;\theta_d)\),输出为标量表示概率,代表输入的x来自数据还是\(p_g\)。训练D时,以最大化分类训练样例还是G生成样本的概率准确性为目的;同时训练G以最小化\(\log(1-D(G(z)))\)为目的,两者互为博弈的双方,定义它们的最大最小博弈的价值函数\(V(G,D)\):

\[\min_G\max_DV(D,G)=\mathbb{E}_{x\sim p_{data}}[\log D(x)]+\mathbb{E}_{z\sim p_{z}}[\log(1-D(G(z)))] \]

可以得到生成器损失函数:\(\mathcal{L}_G = -\log(D(G(z)))\)

判别器损失函数:\(\mathcal{L}_D = -\log(D(x)) - \log(1 - D(G(z)))\)

极端情况下如果D很完美,\(D(x)=1,D(G(z))=0\),最后两项结果都为0,但如果存在误分类,由于log两项结果会变为负数。随着G的输出越来越像x导致D误判,价值函数V也会随之变小。

计算它们的期望(\(\mathbb{E}_{x\sim p}f(x)=\int_xp(x)f(x){\rm d}x\)):

\[V(G,D)=\int_xp_{data}(x)\log D(x)\,{\rm d}x+\int_zp_z(z)\log(1-D(G(z)))\,{\rm d}z \\ =\int_xp_{data}(x)\log D(x)+p_g(x)\log(1-D(x))\,{\rm d}x \]

当D取到最优解时,上面的最大最小博弈价值函数\(V(G,D)\)可以写为:

\[C(G)=\max_DV(G,D)= \\ \mathbb{E}_{x\sim p_{data}}[\log\frac{p_{data}(x)}{p_{data}(x)+p_g(x)}]+\mathbb{E}_{x\sim p_g}[\log\frac{p_g(x)}{p_{data}(x)+p_g(x)}] \]

当\(p_g=p_{data}\),取到\(-\log4\),上式可以写成KL散度的形式:

\[C(G)=-\log4+{\rm KL}(p_{data}||\frac{p_{data}+p_g}{2})+{\rm KL}(p_g||\frac{p_{data}+p_g}{2}) \]

当\(p_g=p_{data}\)时,G取最小值也就是最优解。对于对称的KL散度,可以写成JS散度的形式:

\[C(G)=2\cdot{\rm JS}(p_{data}||p_g)-\log4 \]

参考文献

  1. PyTorch-VAE-vanilla_vae.py
  2. Kingma, Diederik P., and Max Welling. "Auto-encoding variational bayes." arXiv preprint arXiv:1312.6114 (2013).
  3. DALL·E 2(内含扩散模型介绍)【论文精读】
  4. Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems 27 (2014).
  5. 【概率论】先验概率、联合概率、条件概率、后验概率、全概率、贝叶斯公式
  6. 机器学习方法—优雅的模型(一):变分自编码器(VAE)
  7. GAN论文逐段精读【论文精读】

标签:phi,log,模型,生成器,VAE,GAN,rm,theta,data
From: https://www.cnblogs.com/zh-jp/p/17893306.html

相关文章

  • 滑动窗口模型
    指针的本质是映射,使用一个地址保留我们想知道的东西。滑动窗口是双指针思想的一种实现,使用l,r两个指针来维护一个数组的子序列。滑动窗口问题可以分为两类,一类是固定大小的滑动窗口,一类是变长滑动窗口。 定长滑动窗口:求区间最大不定长滑动窗口:求最长,最短,子数组个数。 ......
  • 农业领域的AI大模型有哪些?
    目录AgriGPT精准农业-GPTChatAgriPigGPT小田(一亩田)耕云农业大模型(安徽省农业厅+科大讯飞))商汤AI遥感大模型AI遥感大模型(AIE-SEG)小编碎碎念AI大模型火了整整一年,那么在农业领域,目前有哪些企业做了哪些产品出来了呢?小编简单调研了下,分享给大家。首先,哪些农业场景适用AI大模型?第一,......
  • Reactor模型
    目录1.Reactor模型是什么2.Reactor模型应用场景3.使用Reactor模型的软件4.Reactor模型与Actor模型的关系本文主要介绍Reactor模型基本概念以及应用场景。1.Reactor模型是什么Reactor模型是一种事件驱动的设计模式,用于处理服务请求,它是由一个或多个并发输入源同时发送给......
  • 使用双卡/8卡3090微调llama2-70B/13B模型
    写在前面本篇博文将会教大家如何在消费级的设备(或者各种超级便宜的洋垃圾上)实现13B/70B等无法在单张消费级显卡上加载(但可以在一台机器上的多张卡上加载)的模型的微调。由于绝大部分做实验,仅要求实现推理,或者在微调时没有资源上到全量/13B+级别的真·大模型的微调,没有涉及到将一......
  • 逻辑视图模型建模图片
                          ......
  • 实现视图模型建模
    实现视图模型建模 一实验目的l 理解顺序图、协作图、活动图、状态机图的概念及其在系统分析设计中的作用;l 了解和掌握软件工程中用例逻辑时序的分析方法;l 掌握两种交互图(顺序图和协作图)的差别;l 掌握描述一个操作执行过程中所完成工作(动作)的方法;l 掌握描述对象内部工......
  • 将驱动程序移植到新的驱动模型 【ChatGPT】
    https://www.kernel.org/doc/html/v6.6/driver-api/driver-model/porting.html将驱动程序移植到新的驱动模型PatrickMochel2003年1月7日概述请参阅Documentation/driver-api/driver-model/*.rst以获取各种驱动程序类型和概念的定义。将设备驱动程序移植到新模型的大部分......
  • 逻辑视图模型建模会员关系管理
    一实验目的l 理解面向对象系统分析和对象类建模的概念;l 了解和掌握面向对象系统分析的方法和步骤;l 了解和掌握寻找待开发系统中类的方法和技巧;l 了解和掌握分析类之间继承关系的方法;l 了解和掌握分析类之间的关联关系的方法;l 掌握使用RationalRose建立类图模型的方......
  • 驱动模型 【ChatGPT】
    https://www.kernel.org/doc/html/v6.6/driver-api/driver-model/index.htmlDriverModel(驱动程序模型)DriverBinding(驱动绑定)BusTypes(总线类型)DeviceDriverDesignPatterns(设备驱动程序设计模式)TheBasicDeviceStructure(基本设备结构)Devres-ManagedDeviceResou......
  • 状态机模型
    1.acwing1057闫氏DP分析法状态表示fi,j,kfi,j,k—集合:考虑前i天的股票,第i天的决策是k,且完成的完整交易数为j的方案状态表示fi,j,kfi,j,k—属性:方案的总利润最大MAX状态计算fi,j,kfi,j,k:fi,j,0=max(fi−1,j,0,fi−1,j−1,1+wi)fi,j,1=max(fi−1,j,1,fi−1,j,0......