首页 > 其他分享 >Learning Latent Permutations with Gumbel-Sinkhorn Networks

Learning Latent Permutations with Gumbel-Sinkhorn Networks

时间:2024-05-30 10:15:44浏览次数:9  
标签:tau Latent matrix Permutations Gumbel Learning operator mathcal SinkHorn

目录

Mean G. E., Belanger D., Linderman C. and Snoek J. Learning latent permutations with gumbel-sinkhorn networks. ICLR, 2018.

本文提出了一种自动学习 permutations 的方法.

SinkHorn operator

  • SinkHorn operator 的操作流程如下:

    \[S^{0} (X) = \exp(X), \\ S^l(X) = \mathcal{T}_c \bigg(\mathcal{T}_r(S^{l-1}(X)) \bigg), \\ S(X) = \lim_{l \rightarrow \infty} S^l(X). \]

    其中 \(\mathcal{T}_c, \mathcal{T}_r\) 分别表示列和行归一化.

  • 给定 \(X\), 一般的 permutation matrix 可以通过如下的方式得到:

    \[M(X) = \text{argmax}_{P \in \mathcal{P}_N} \langle P, X \rangle_F, \]

    需要注意 \(\mathcal{P}_N\) 是 permutaton matrix 的集合 (每行每列有且仅有一个 1).

  • 作者证明:

    \[S(X / \tau) = \arg \max_{P \in \mathcal{B}_N} \langle P, X \rangle_F + \tau h(P), \]

    其中 \(h(P) = -\sum_{i,j} P_{i,j} \log (P_{ij})\), \(\mathcal{B}_N\) 表示 doubly-stochastic matrix.

  • 所以当 \(\tau\) 足够小的时候, 我们可以用 \(S\) 取逼近 \(M\).

  • 用 \(P\) 代替 \(M\) 的一个显然的好处是, 梯度可以传播了, 所以可以训练一个 SinkHorn networks \(P_{\theta}(X)\), 给定 \(X\) 返回一个合适的 permutation matrix 的近似.

标签:tau,Latent,matrix,Permutations,Gumbel,Learning,operator,mathcal,SinkHorn
From: https://www.cnblogs.com/MTandHJ/p/18221798

相关文章

  • CF1089I Interval-Free Permutations
    标签:析合树析合树就是用来处理这一种值域连续段的问题的。OI-wiki上对于析合树的讲解。我们回顾一下题目,要求不存在长度为\([2,n-1]\)之间的连续段,换句话说,就是根节点下恰有\(n-1\)个节点,且没有任何一个字段是题目中要求的连续段。我们记这样的答案为\(A_n\)也就......
  • 论文阅读:Reasoning with Latent Structure Refinement for Document-Level Relation E
    NanG,GuoZ,SekulićI,etal.Reasoningwithlatentstructurerefinementfordocument-levelrelationextraction[J].arXivpreprintarXiv:2005.06312,2020.代码和预训练模型的github链接LSR模型本文提出了用于文档级关系提取任务的LatentStructureRefinement(L......
  • permutations and combinations in js All In One
    permutationsandcombinationsinjsAllInOnejs中的排列组合概念排列组合demos/*permutations&combinations排列&组合https://leetcode.com/problems/3sum/给定一个数字数组,找出有三个元素为一组构成的所有不重复的子数字数组!*///constarr=[1,2,......
  • SP64 PERMUT1 - Permutations 题解
    题目传送门前置知识动态规划基础解法设\(f_{i,j}\)表示\(1\simi\)的全排列中存在\(j\)个逆序对的方案数,状态转移方程为\(f_{i,j}=\sum\limits_{k=j-\min(i-1,j)}^{j}f_{i-1,k}=\sum\limits_{k=0}^{j}f_{i-1,k}-\sum\limits_{k=0}^{j-\min(i-1,j)-1}f_{i-1,k}\)。需......
  • 「CF1677D」Tokitsukaze and Permutations的题解
    「CF1677D」TokitsukazeandPermutations首先,若\(v\)的后\(k\)个数中有一个\(>0\),或有\(v_i>i-1(i\in[1,n])\),则无解。我们发现,每次对\(p\)进行了一次操作后,\(v\)也一定会对应的进行一次变化,所以统计\(p\)的个数就相当于统计\(v\)的个数。我们对于每一次冒泡排序......
  • DALLE2: Hierarchical Text-Conditional Image Generation with CLIP Latents
    名称DALLE2:HierarchicalText-ConditionalImageGenerationwithCLIPLatents也叫UnCLIP时间:22.04机构:OpenAITL;DROpenAI的首篇从CLIP的imageembedding生成图像的方法,实验证明这种方法生成的图像能够保留丰富的语义与风格分布。MethodPriorPrior模块作用是给定tex......
  • 信号处理--基于gumbel-softmax方法实现运动想象分类的通道选择
    目录背景亮点环境配置数据方法结果代码获取参考文献背景基于Gumbel-softmax方法EEG通道选择层的PyTorch实现。该层可以放置在任何深度神经网络架构的前面,以共同学习给定任务和网络权重的脑电图通道的最佳子集。这一层由选择神经元组成,每个神经元都使用输入通......
  • [基础] Stable Diffusion, High-Resolution Image Synthesis with Latent Diffusion M
    名称StableDiffusion,High-ResolutionImageSynthesiswithLatentDiffusionModelsTL;DR这篇文章介绍了一种名为潜在扩散模型(LatentDiffusionModels,LDMs)的新型高分辨率图像合成方法。LDMs通过在预训练的自编码器的潜在空间中应用扩散模型,实现了在有限计算资源下训练高......
  • P10237 [yLCPC2024] E. Latent Kindom 题解
    分析一眼了非最优解。考虑二分答案。对于二分出来的中位数\(x\),到\(a_i\)和\(a_j\)里边又去二分。得到两个序列中不超过\(x\)的数的数量。若这个数量\(cnt\ge\lceil\frac{len_{i}+len_{j}}{2}\rceil\),则\(x\)可能成为中位数,然后继续二分即可。把序列离散化,复杂度......
  • Bootstrap Your Own Latent A New Approach to Self-Supervised Learning论文阅读笔记
    BootstrapYourOwnLatentANewApproachtoSelf-SupervisedLearning论文阅读笔记Abstract​ 我们提出了BYOL,一种新的自监督图像表示学习的方法。BYOL依赖于两个神经网络,即在线网络和目标网络,它们相互作用和相互学习。从一个图像的增广视图出发,我们训练在线网络来预测同一图......