首页 > 其他分享 >Tensorized Unaligned Multi-view Clustering with Multi-scale Representation Learning翻译

Tensorized Unaligned Multi-view Clustering with Multi-scale Representation Learning翻译

时间:2024-12-10 16:58:59浏览次数:17  
标签:Clustering Multi scale mathbf sum 矩阵 张量 视图 尺度

Tensorized Unaligned Multi-view Clustering with Multi-scale Representation Learning

张量化未对齐多视图聚类与多尺度表示学习

Jintian Ji KDD 2024 北京交通大学 李浥东 通信作者

没有看的很懂,大概意思是这样:问题的核心是找到一种方法,能够在多个视图之间建立一致的聚类结构,即使这些视图在数据收集和传输过程中可能存在不一致或缺失。对于多个视图,将不同视图的原始特征映射到多个空间(即作者提出的多尺度),随机选择一个视图作为core视图,普通视图与核心视图进行对比学习,获得视图表示;采用低秩张量框架进行视图融合;最后进行谱聚类。

补充:

1.多视图学习:多视图学习也称作多视角学习(Multi-view learning)是陶大成提出的一个研究方向。在实际应用问题中,对于同一事物可以从多种不同的途径或不同的角度进行描述,这些不同的描述构成了事物的多个视图。事物的多视图数据在真实世界中广泛存在并且影响着人们生活的方方面面。例如:在与人们生活息息相关的互联网中,网页数据既可以用网页本身包含信息的特征集描述,也可以用超链接包含的信息描述。此外,同一事物由于数据采集方式不同,也可以有不同的表达方法。例如:使用不同传感器采集一个人的指纹就形成了多种不同的印痕,构成了指纹数据的多个视图。

2.多尺度空间(Multi-scale Space)视图(Multi-view)是两个不同的概念,它们在数据处理和聚类分析中有着各自的应用和意义。

多尺度空间:通常指的是在数据分析中使用多个不同的尺度或粒度来表示和分析数据。这些尺度可以是数据的不同层次或抽象级别,允许更全面地理解数据的内在结构和特性。在聚类问题中,多尺度空间可以用来捕捉数据在不同层次上的结构和关系。例如,在图像分析中,可以使用像素级(细粒度)、区域级(中等粒度)和全局级(粗粒度)的特征来表示图像,每个尺度提供关于图像的不同信息。使用多尺度空间的目的是为了更全面地捕捉数据的特征,这在处理高维数据或复杂数据结构时特别有用。

视图:指的是从多个视角或特征源收集的数据,每个视角或视图包含数据的不同方面或特征集。例如,一个人的社交网络数据、行为数据和基因数据可以构成三个不同的视图。在聚类问题中,视图聚类旨在整合来自不同视图的信息,以提高聚类的准确性和鲁棒性。每个视图可能包含关于数据点的不同信息,这些信息可以互补,帮助更好地理解数据。视图聚类的目的是通过结合多个视图中的信息来提高聚类性能,特别是在处理具有多个特征或信息源的复杂数据集时。

3方法

3.1多尺度表示学习与对齐

image

图2:TUMCR的框架。该方法主要由两部分组成:多尺度对齐模块和张量多尺度融合模型。多尺度对齐模块学习多尺度空间内的视图间对应关系。张量多尺度融合模型将不同尺度捕获的信息进行融合,并采用低秩张量学习框架增强不同视图之间的一致性。

现有的未对齐多视图聚类方法通常首先使用一组基础矩阵将不同视图的原始特征映射到一个统一的空间中,然后在固定空间中探索视图间的对应关系。因此,对齐过程非常依赖于映射空间的表示矩阵。然而,在多视图数据中,来自多个源的数据矩阵通常属于特定的潜在维度,这意味着仅靠一个特征空间很难准确描述所有视图。大多数工作忽略了这个缺点,简单地将其等同于聚类的数量,以避免选择维度。其他人通过引入一个超参数来解决这个问题,这增加了优化阶段的计算负担。为此,提出的TUMCR(Tensorized Unaligned Multi-view Clustering with Multi-scale Representation Learning)尝试将不同视图的原始特征映射到多个空间,并使用这些多尺度表示来探索交叉视图映射矩阵。具体来说,选择\(r\) 组基础矩阵\(\{H_q^v\}_{q=1,\ldots, r}^{v=1,\ldots, m}\)将原始特征映射到维度为\(\{d_1,\cdots, d_r\}\)的\(r\)个空间中,这样就可以通过解决以下问题来获得多尺度表示

\[\begin{align*} \min_{\{Z_q^v, H_q^v\}} & \sum_{v=1}^{m} \sum_{q=1}^{r} \left\|X^v - Z_q^v H_q^v\right|_F^2 \\ \text{ s.t. } & \forall v, q, Z_q^v T Z_q^v = I_{d_q}, \end{align*}\tag{8} \]

其中,\(m\)是视图的数量,\(r\)是尺度空间的数量。\(X^v\)是第\(v\)个视图的数据矩阵,\(Z_q^v \in \mathbb{R}^{n \times d_q}\)表示第\(v\)个视图在第\(q\)个空间中的表示矩阵。\(H_q^v\)是将原始特征映射到第\(q\)个尺度空间的基矩阵。\(\forall v, q, Z_q^{vT} Z_q^v = I_{d_q}\)确保每个视图在其所有尺度空间中的表示矩阵是正交的,这有助于保持数据的几何结构。然后需要建立交叉视图映射矩阵。由于为任意两个视图搜索映射矩阵的复杂性极高,一个常见的操作是分配一个中心视图来对齐其他视图。为了避免引入冗余复杂性,在的TUMCR中随机选择一个视图作为中心视图,记为\(Z_q^{\text{core}}\)。因此,只需要构建\(m\) 个交叉视图映射矩阵\(\{P^v\}_{v=1}^{m}\),当\(v = \text{core}\)时,\(p^{\text{core}} = I_n\)。然后多尺度对齐模块可以形式化为:

\[\begin{array}{l} \min_{\{P^v\}} \sum_{v=1}^{m} \sum_{q=1}^{r} \left|Z_q^{core} - P^v Z_q^v\right|_F^2 \\ \text{ s.t. } \forall v, P^v \in \{0,1\}^{n \times n}, P^v 1 = 1, P^v T 1 = 1 \end{array}\tag{9} \]

\(P^v\)是一个优化变量,代表跨视图映射矩阵,用于将第\(v\)个视图的数据映射到选定的中心视图\(Z_q^{core}\)。\(Z_q^{core}\)是中心视图在第\(q\)个尺度空间中的表示矩阵。\(Z_q^v\)是第\(v\)个视图在第\(q\)个尺度空间中的表示矩阵。

方程(9)中的问题是经典的NP难问题,所以采用谱松弛来简化问题,并考虑到多尺度表示的构建,目标函数变为:

\[\begin{array}{l} \min_{\{P^v, Z_q^v, H_q^v\}} \sum_{v=1}^{m} \sum_{q=1}^{r} \left\|X^v - Z_q^v H_q^v\right|_F^2 + \theta \sum_{v=1}^{m} \sum_{q=1}^{r} \left|Z_q^{core} - P^v Z_q^v\right|_F^2 \\ \text{ s.t. } \forall v, q, Z_q^v T Z_q^v = I_{d_q}, P^v P^v T = I_n, \end{array}\tag{10} \]

其中,\(\theta\) 是一个超参数。

3.2张量多尺度融合模块

多尺度表示矩阵\(\{Z_q^v\}_{q=1,\ldots, r}^{v=1,\ldots, m}\)和交叉视图映射矩阵\(P^v\)可以通过解决方程(10)获得,但是不同尺度的表示矩阵不能直接融合,所以首先通过一组矩阵\(\{W_q\}_{q=1}^r\)将它们映射到一个\(c\)维空间中。由于不同尺度所描述的信息具有不同的重要性,进一步引入尺度权重\(\beta \in \mathbb{R}^{r \times 1}\)来自动平衡不同尺度的贡献,并提高融合表示的判别属性\(\{G^v\}_{v=1}^m \in \mathbb{R}^{n \times c}\)。

这个公式的目标是在多尺度空间中对齐不同视图的数据表示,以提高聚类性能。\(G^v\)是第 v个视图在多尺度空间中的表示矩阵。\(W_q\) 是将不同尺度的表示矩阵映射到一个共同维度空间的权重矩阵。\(β_q\) 是第 q 个尺度的权重,用于自动平衡不同尺度的贡献。

\[\begin{align*} &\min_{\{G^v, W_q\}} -\sum_{v=1}^{m} \sum_{q=1}^{r} \beta_q \operatorname{Tr}(G^v W_q (P^v Z_q^v)^T) \\ &\text{ s.t. } \forall v, q, W_q W_q^T = I_c, G^{v T} G^v = I_c, \\ &\sum_{q=1}^{r} \beta_q^2 = 1, \beta_q \geq 0. \end{align*}\tag{11} \]

为了捕捉视图间的高阶相关性,通常采用低秩张量框架。在传统的基于张量的工作中,张量的秩近似通常采用常用的张量核范数(TNN),这导致对较小的奇异值(和较大的奇异值)进行欠惩罚和过惩罚。注意,较大(小)的奇异值通常表示张量的主要结构信息(噪声),因此TNN经常产生噪声残差,破坏聚类结构。意识到这一点,采用一种抗噪声的增强张量秩(ETR)(定义3)[10]来近似表示张量的真实秩。增强张量秩是张量秩的一种变体,它旨在更准确地近似表示张量的真实秩,特别是在处理聚类问题时,可以更好地捕捉不同视图之间的高阶相关性。

定义3.[10] 给定一个张量\(G \in \mathbb{R}^{n_1 \times n_2 \times n_3}\),那么增强张量秩(ETR)定义为:

\[\begin{align*} |\mathcal{G}|_{ETR} &= \frac{1}{n_3} \sum_{k=1}^{n_3} \left|\mathcal{G}_f^k\right|_{ETR} \\ &= \frac{1}{n_3} \sum_{k=1}^{n_3} \sum_{i=1}^h \left(\frac{e^{\delta^2} \mathcal{S}_f^k(i,i)}{\delta + \mathcal{S}_f^k(i,i)}\right) \end{align*}\tag{12} \]

其中\(0 < \delta \leq 1, h = \min(n_1, n_2)\)且\(S_f\)是通过傅里叶域中\(G_f = \mathcal{U}_f S_f \mathcal{V}_f^T\)进行 t-SVD(truncated singular value decomposition)得到的奇异值矩阵。\(\mathcal{S}_f^k(i,i)\)是奇异值矩阵\(\mathcal{S}_f\)中第\(k\)个奇异值。\(G_f^k\)表示张量\(\mathcal{I}_f\)的第\(k\)个前切面。

公式 (12) 的目的是通过考虑张量奇异值的加权和,来近似张量的真实秩,这有助于在聚类等任务中更好地捕捉数据的内在结构。通过这种方式,可以减少由于张量核范数(TNN)导致的噪声残差,从而提高聚类性能。

通过同时考虑方程(10)、方程(11)和方程(12),的TUMCR的最终目标函数被制定为:

\[\begin{array} {l}\min _{\left\{\mathbf{G}^{v}, \mathbf{P}^{v}, \mathbf{Z}_{q}^{v}, \mathbf{H}_{q}^{v}, \mathbf{W}_{q}\right\}}\|\mathcal{G}\|_{E T R}-\alpha \sum_{v=1}^{m} \sum_{q=1}^{r} \boldsymbol{\beta}_{q} \operatorname{Tr}\left(\mathbf{G}^{v} \mathbf{W}_{q}\left(\mathbf{P}^{v} \mathbf{Z}_{q}^{v}\right)^{T}\right) \\ +\gamma \sum_{v=1}^{m} \sum_{q=1}^{r}\left\|\mathbf{X}^{v}-\mathbf{Z}_{q}^{v} \mathbf{H}_{q}^{v}\right\|_{F}^{2}+\theta \sum_{v=1}^{m} \sum_{q=1}^{r}\left\|\mathbf{Z}_{q}^{c o r e}-\mathbf{P}^{v} \mathbf{Z}_{q}^{v}\right\|_{F}^{2} \\ \text { s.t. } \forall v, q, \mathbf{Z}_{q}^{v T} \mathbf{Z}_{q}^{v}=\mathbf{I}_{d_{q}}, \mathbf{W}_{q}^{v} \mathbf{W}_{q}^{v T}=\mathbf{I}_{c}, \mathbf{P}^{v} \mathbf{P}^{v T}=\mathbf{I}_{n} \\ \qquad \mathcal{G}=\Phi\left(\mathbf{G}^{1}, \cdots, \mathbf{G}^{m}\right), \mathbf{G}^{v T} \mathbf{G}^{v}=\mathbf{I}_{c}, \sum_{q=1}^{r} \boldsymbol{\beta}_{q}^{2}=1, \boldsymbol{\beta}_{q} \geq 0 \end{array} \]

  1. \(\|\mathcal{G}\|_{\text{ETR}}\): 这是增强张量秩(Enhanced Tensor Rank, ETR)的度量,用于捕捉视图之间的高阶相关性。ETR 是一种改进的张量秩度量,它对小奇异值的惩罚较小,对大奇异值的惩罚较大,这有助于保留张量的主要结构信息。

  2. \(\alpha \sum_{v=1}^m \sum_{q=1}^r \beta_q \text{Tr}(G^v W_q (P^v Z_q^v)^T)\): 这个项是数据保真项,它通过最小化原始数据和映射后数据之间的差异来保持数据的原始结构。这里,\(G^v\) 是视图 v 的表示矩阵,\(W_q\) 是将不同尺度的表示矩阵映射到c维空间的权重矩阵,\(P^v\) 是跨视图映射矩阵,\(Z_q^v\)是视图 v 在尺度 q 下的表示矩阵。\(\alpha\)是权衡这个项的参数,\(\beta_q\)是尺度权重,用于平衡不同尺度的贡献。

  3. \(\gamma \sum_{v=1}^m \sum_{q=1}^r \|X^v - Z_q^v H_q^v\|_F^2\): 这个项是重构误差项,它最小化原始数据\(X^v\)和通过\(Z_q^v\)和\(H_q^v\)重构的数据之间的差异。\(\gamma\) 是权衡这个项的参数。

  4. \(\theta \sum_{v=1}^m \sum_{q=1}^r \|Z_q^{\text{core}} - P^v Z_q^v\|_F^2\): 这个项是核心表示与映射表示之间的差异项,它最小化核心表示\(Z_q^{\text{core}}\) 和通过\(P^v\)映射后的表示\(Z_q^v\)之间的差异。\(\theta\) 是权衡这个项的参数。

  5. 约束条件: 这些条件确保了矩阵的正交性和单位范数,以及张量的合并操作\(G = \Phi(G^1, \cdots, G^m)\) 和尺度权重的正则化条件。

总的来说,公式 (13) 通过最小化这些项来学习一个统一的表示,这个表示能够捕捉多视图数据的结构信息,并且通过ETR来提高聚类的鲁棒性。一旦获得了最优的表示矩阵\(\{G^v\}_{v=1}^m\),统一的亲和矩阵可以融合为\(S_G = \frac{1}{m}\sum_{v=1}^{m} G^v (G^v)^T \in \mathbb{R}^{n \times n}\)。受到文献[11]的启发,谱嵌入\(F \in \mathbb{R}^{n \times c}\)可以通过直接对\(\hat{G} = \frac{1}{\sqrt{m}}[G^1, \cdots, G^m] \in \mathbb{R}^{n \times mc}\)进行奇异值分解(SVD)来获得,根据定理1,这具有线性时间复杂度\(O(nm^2c^2)\)。

定理1:\(\hat{G} = \frac{1}{\sqrt{m}}[G^1, \cdots, G^m] \in \mathbb{R}^{n \times mc}\)的左奇异向量与\(S = \hat{G}\hat{G}^T\)的特征向量相同。

证明:\(\hat{G}\)的奇异值分解(SVD)表示为\(U\Sigma V^T\),那么

\(S = \hat{G} \hat{G}^T = (U\Sigma V^T)(U\Sigma V^T)^T = U\Sigma^2 U^T.\)

因此,\(\hat{G}\)的左奇异向量与 S 的特征向量相同。这意味着通过SVD得到的左奇异向量可以直接用作\(S\)的特征向量。

标签:Clustering,Multi,scale,mathbf,sum,矩阵,张量,视图,尺度
From: https://www.cnblogs.com/zhouyeqin/p/18597668

相关文章

  • Sigrity Power DC Package Thermal Characterization模式提取封装基板热阻参数-Multi-
    SigrityPowerDCPackageThermalCharacterization模式提取封装基板热阻参数-Multi-DiePackageThermalParameterSigrityPowerDCPackageThermalCharacterization模式是用于提取封装基板的热阻参数的,下面根据JEDECMulti-DiePackageThermalParameter标准介绍如何......
  • Improved LiDAR Localization Method for Mobile Robots Based on Multi-Sensing
    ImprovedLiDARLocalizationMethodforMobileRobotsBasedonMulti-Sensing哈尔滨工业大学机电工程系机器人与系统国家重点实验室,哈尔滨150001*通讯地址:21b908026@stu.hit.edu.cn刘艳杰、王超*、吴恒、魏彦龙、任美轩、赵长森MDPIRemotesensing摘要:本文通过......
  • 基于Multisim四路抢答器电路的设计(含仿真和报告)
    【全套资料.zip】四路抢答器电路设计Multisim仿真设计数字电子技术文章目录功能一、Multisim仿真源文件资料下载【Multisim仿真+报告+讲解视频.zip】功能1.主持人按键控制复位。2.抢答器按钮:四个按键,每个按键对应—个参赛选手。3.LED灯:四个LED灯,每个灯对应一......
  • 基于Multisim三极管放大器增益放大倍数测量电路的设计(含仿真和报告)
    【全套资料.zip】三极管放大器增益放大倍数测量电路设计Multisim仿真设计数字电子技术文章目录功能一、Multisim仿真源文件资料下载【Multisim仿真+报告+讲解视频.zip】功能三极管放大器增益放大倍数测量电路,数码管显示放大倍数。提示:以下仿真可以完美运行,全套......
  • 【论文精读】Multi-modal Knowledge Graphs for Recommender Systems
    【论文精读】Multi-modalKnowledgeGraphsforRecommenderSystems论文链接:Multi-modalknowledgegraphsforrecommendersystems年份:2020引用数:270+影响:首次将知识图谱用于多模态推荐目录【论文精读】Multi-modalKnowledgeGraphsforRecommenderSystems1.什么是......
  • QGRL: Quaternion Graph Representation Learning for Heterogeneous Feature Data Cl
    QGRL:QuaternionGraphRepresentationLearningforHeterogeneousFeatureDataClustering四元数图表示学习在异构特征数据聚类中的应用JunyangChenKDD2024广东工业大学通信作者张逸群在谱聚类方法中引入四元数,四元数是一种扩展的复数系统,可以表示为......
  • Magnet AXIOM 8.4 Windows x64 Multilingual - 数字取证与分析
    MagnetAXIOM8.4Windowsx64Multilingual-数字取证与分析DigitalForensicSoftware请访问原文链接:https://sysin.org/blog/magnet-axiom/查看最新版。原创作品,转载请保留出处。作者主页:sysin.orgMagnetAXIOM-恢复并分析一个案件中的证据检查来自移动、云......
  • python: Multi Document Interface (MDI) using PyQt6
     #encoding:utf-8#版权所有2024涂聚文有限公司#许可信息查看:言語成了邀功盡責的功臣,還需要行爲每日來值班嗎#描述:pipinstallpyqt6#Author:geovindu,GeovinDu涂聚文.#IDE:PyCharm2023.1python3.11#os:windows10#database:my......
  • Effective Clustering on Large Attributed Bipartite Graphs翻译
    EffectiveClusteringonLargeAttributedBipartiteGraphs翻译大型有属性二部图的高效聚类RenchiYangKDD2024香港浸会大学摘要属性二部图(ABGs)是一种表达性数据模型,用于描述与丰富属性相关的两组异构节点之间的交互,例如客户-产品购买网络和作者-论文作者关系图......
  • 基于Multisim八路彩灯控制电路的设计(含仿真和报告)
    【全套资料.zip】八路彩灯控制电路设计Multisim仿真设计数字电子技术文章目录功能一、Multisim仿真源文件资料下载【Multisim仿真+报告+讲解视频.zip】功能(1)从左向右依次点亮,再从左向右依次熄灭。(2)从右向左依次点亮,再从右向左依次熄灭。(3)所有灯全亮,所有灯全灭。......