• 2024-07-26Wasserstein GAN and the Kantorovich-Rubinstein Duality
    WassersteinGANandtheKantorovich-RubinsteinDualityFromwhatIcantell,thereismuchinterestintherecent WassersteinGANpaper.Inthispost,Idon’twanttorepeatthejustifications,mechanicsandpromisedbenefitofWGANs,forthisyoushould
  • 2024-04-03生成对抗网络的Wasserstein距离:度量两个概率分布之间距离
    生成对抗网络的Wasserstein距离作者:禅与计算机程序设计艺术1.背景介绍生成对抗网络(GenerativeAdversarialNetwork,GAN)是近年来机器学习领域最重要的创新之一。GAN通过训练两个相互竞争的神经网络模型—生成器(Generator)和判别器(Discriminator),从而学习生成接近真实数
  • 2023-12-18Wasserstein距离的python代码实现scipy.stats.wasserstein_distance解释
    在官方文档scipy.stats.wasserstein_distance—SciPyv1.8.0.dev0+1869.838cfbeManual(osgeo.cn)页面中scipy.stats.wasserstein_distance(u_values,v_values,u_weights=None,v_weights=None)对参数u_values,v_value,u_weights,v_weights解释不清晰。通过看文章Wassers
  • 2023-08-23学习笔记:什么是Wasserstein distance
    简单地说,就是衡量两个概率分布之间的差异。也可以说是将一个概率分布转换成另一个概率分布要花费多少代价。图1:在一维空间中的三个概率分布比如,上图中有三个概率分布f,g,h,我们可以说f与g之间的距离比f与h之间的距离更小。上述只是感性上的认知,那么如何计算出准确
  • 2022-12-3107_WGAN
    GAN现在是热门的研究课题,一般有两种类型的GAN研究方向:一种是在各种各样的问题中应用GAN,另一种是试图稳定GAN的训练。稳定GAN的训练过程是一个非常重要的事情。
  • 2022-12-14各种 Dice Loss 变体
    各种DiceLoss变体语雀文档:​​https://www.yuque.com/lart/idh721/gpix1i​​DiceLoss也是图像分割任务中非常常见的一个损失函数。本文基于​​GeneralisedWasserste
  • 2022-10-12【GAN优化】详解对偶与WGAN
    越学习越发现自己知之甚少,道阻且长,还是认真看下这篇文章,好好琢磨琢磨GAN吧。今天将和大家一起学习在GAN界占有重要位置的WGAN,它提出了一种新的距离度量,较之前的f散度,它的数