表征学习是大模型应用中非常重要的一个方向,其实在深度学习中已经有众多的深入研究。表征学习本质上就是一个空间映射,把文本、图像、声音等不同模态的数据映射到一个高维空间,表示为向量,进而作为模型的输入。比如,针对文本中的词、图像中的不同颜色、纹理或者卷积等,以及视频、声音等流式数据中的不同切片或者使用滤波器等处理后的各种特征进行学习,这样所有模态就可以向量化,进而feed到一个模型进行训练学习了。
一般地,在大模型的训练过程中,都会加入对不同模态的表征学习,这样可以针对不同训练任务、不同模态进行向量化。概括地,相关的表征学习方法主要包括以下几种:
- 基于自监督学习的表征学习:
○ 自监督学习(Self-Supervised Learning, SSL)是一种强大的表征学习方法,它通过设计辅助学习目标来利用未标记的数据。例如,在推荐系统中,对比学习作为一种SSL技术,通过对比数据增强来提高推荐性能。 - 图神经网络增强的协同过滤:
○ 在推荐系统中,图神经网络(Graph Neural Networks, GNNs)被用于捕捉用户和物品之间的高阶协同关系。这些基于图的方法,如NGCF、GCCF和LightGCN,通过使用历史用户-物品交互来创建二分图,并利用GNNs来捕捉高阶协同关系,从而提高推荐效果。 - 大型语言模型在推荐系统中的应用:
○ 大型语言模型(Large Language Models, LLMs)也被用于推荐系统,通过设计提示(prompts)使其与推荐任务对齐。例如,P5将用户交互数据转换为文本提示,用于语言模型训练。 - 基于对比预测编码的表征学习:
○ 对比预测编码(Contrastive Predictive Coding, CPC)是一种表征学习方法,通过学习输入数据的表示,使得模型能够预测未来的数据点。 - 基于互信息最大化的表征学习:
○ 互信息最大化是一种用于无监督表征学习的技术,通过最大化不同视图或不同部分数据之间的互信息来学习数据的表示。 - 基于图的自监督学习:
○ 图自监督学习通过在图结构数据上设计自监督任务来学习节点或图的表示,例如通过预测节点的邻居或图的属性来学习节点表示。 - 基于提示学习的表征学习:
○ 提示学习(Prompt Learning)是一种利用大型预训练语言模型的表征学习方法,通过设计特定的提示来引导模型完成特定任务,从而提高模型在特定任务上的表现。 - 基于掩码的图像表征学习:
○ 例如,MAE(Masked Autoencoders)是一种基于图像掩码的表征学习方法,通过随机掩码输入图像的部分像素并重构原始图像来学习图像的特征表示。 - 统一框架MAGE:
○ MAGE(Masked Generative Encoder)是一个统一的图像生成和特征提取模型,它使用基于transformer的encoder-decoder结构对掩码图像进行重构,同时进行生成模型和表征学习的训练。
通过这些表征学习方法从不同维度(有无监督、自监督、基于图与掩码等)进行学习,大模型从而能够学习到更丰富、更鲁棒的特征表示,提高模型的性能和泛化能力。此外,在应用于不同的任务和领域,如图像识别、推荐系统、自然语言处理等实际问题时,还需要进行各种领域数据下的调优来提高效果。
标签:基于,简介,模型,学习,图像,掩码,表征 From: https://blog.csdn.net/burstone/article/details/143316049