首页 > 其他分享 >从组会尴尬到学术突破:Transformer助力跨域推荐解析

从组会尴尬到学术突破:Transformer助力跨域推荐解析

时间:2024-10-12 18:52:49浏览次数:3  
标签:... Transformer 跨域 提示 模型 组会 序列 注意力

最近学习了Transformer模型,突然意识到我常阅读的一篇论文中也使用了Transformer。回想起上次开组会时,老师问我论文中的模型是什么,我当时没有答上来,现在才发现其实用的就是Transformer。这种学习过程让我深感,学得越多,知识之间的联系就会越清晰,许多概念最终都能融会贯通。 这里也分享一下论文地址

这篇论文主要探讨了如何利用联邦学习来解决跨域推荐问题,然后是在序列编码器和域提示机制上运用了Transformer来增强模型的性能。

序列编码器

在推荐系统中,不同的领域(Domain)之间需要进行数据交换与学习。为了保护用户隐私,这篇论文引入了联邦学习算法。与传统上传用户数据的方式不同,联邦学习仅上传模型参数的梯度进行聚合,让客户端在本地进行模型训练,从而防止攻击者通过附加手段从模型参数或梯度中推断出隐私特征。

在这个背景下,论文中的序列编码器使用了Transformer架构,主要依赖于Transformer的核心组件:多头自注意力机制(Multi-Head Attention, MH)和位置感知前馈神经网络(Position-wise Feedforward Network, FFN)。这些模块使得模型能够捕捉用户行为数据中的顺序依赖关系。

具体来说,Transformer的自注意力机制能够让模型在计算某个输入项目时,同时关注其他位置的输入。这种全局的依赖建模能力,使得模型能够对用户的序列化行为进行更好的理解,从而提升推荐的准确性。

对于每个输入项目向量 v i v_i vi​,我们首先将其与对应的位置信息嵌入 p j p_j pj​相加(j为项目在序列中的位置),以确保模型能够感知项目序列中的位置。类似于处理句子时,不仅需要知道某个字的内容,还需要考虑它在句子中的位置。因此,有:
h j 0 = v i + p j h_j^0 = v_i + p_j hj0​=vi​+pj​

然后,作者将这个初始状态 h j 0 h_j^0 hj0​输入到MH和FFN中进行非线性变换,编码过程的定义如下:
H l = [ h 0 l ; . . . ; h n l ] H^l=[h_0^l;...;h_n^l] Hl=[h0l​;...;hnl​]
H ( l + 1 ) = F F N ( M H ( H l ) ) , l ∈ 1 , 2 , . . . , L H^(l+1)=FFN(MH(H^l)),l\in {1,2,...,L} H(l+1)=FFN(MH(Hl)),l∈1,2,...,L

其中

标签:...,Transformer,跨域,提示,模型,组会,序列,注意力
From: https://blog.csdn.net/m0_46069937/article/details/142884078

相关文章

  • 无缝数据流动:跨域数据交换的高效策略!
    大型企业为了业务拓展需要,会在全国乃至全球各地设立分公司和办事机构,以便更好地处理当地事务,并进行市场的开拓和客户维护,因此大型企业都会面临跨域数据交换的场景。跨域数据交换时,需要考虑多方面的问题,以确保传输的安全性、效率、合规性和成本效益:1、安全传输数据加密:在传输过......
  • 使用PyTorch搭建Transformer神经网络:入门篇
    目录简介环境设置PyTorch基础Transformer架构概述实现Transformer的关键组件5.1多头注意力机制5.2前馈神经网络5.3位置编码构建完整的Transformer模型训练模型总结与进阶建议简介Transformer是一种强大的神经网络架构,在自然语言处理等多个领域取得了巨大......
  • Transformer中的词嵌入Embedding与位置编码Positional Encoding
    参考学习:transformer详细介绍(1)__输入Embedding与位置编码_inputembedding-CSDN博客本文只是为了加强记忆而书写,具体想学习进入链接学习更清晰。Transformer模型主要是编码器与译码器,下面是模型的框架图: 编码器部分包含多头注意力机制,层归一化,前馈神经网络还有残差的思想保......
  • 关于Transformer的相关问题
    ......
  • Transformer面试总结(一)
    1、Transformer模型的基本结构是什么?他是如何改变深度学习领域的?它的基本结构包括:自注意力机制(Self-Attention):Transformer模型使用自注意力机制来处理输入序列中的每个元素与其他元素之间的关系。这种机制允许模型同时考虑输入序列中的所有元素,而不是仅仅依赖于位置信息。......
  • 【AI大模型】深入Transformer架构:编码器部分的实现与解析(下)
      目录......
  • transformers和bert实现微博情感分类模型提升
    关于深度实战社区我们是一个深度学习领域的独立工作室。团队成员有:中科大硕士、纽约大学硕士、浙江大学硕士、华东理工博士等,曾在腾讯、百度、德勤等担任算法工程师/产品经理。全网20多万+粉丝,拥有2篇国家级人工智能发明专利。社区特色:深度实战算法创新获取全部完整项目......
  • 如何使用Transformer模型处理金融文本数据?
    《DeepLearningforFinance》这本书主要介绍了如何使用深度学习技术,特别是机器学习和强化学习方法来处理金融数据,但并没有详细讨论Transformer模型在金融文本数据处理中的应用。不过,基于深度学习的一般知识以及Transformer模型的广泛用途,我们可以构建一个关于如何利用Tran......
  • 前端解决axios请求的跨域问题【二步完成超简单】
         ......
  • Pytorch-Transformer轴承故障一维信号分类(三)
    往期精彩内容:Python-凯斯西储大学(CWRU)轴承数据解读与分类处理Pytorch-LSTM轴承故障一维信号分类(一)-CSDN博客Pytorch-CNN轴承故障一维信号分类(二)-CSDN博客三十多个开源数据集|故障诊断再也不用担心数据集了!Python轴承故障诊断(一)短时傅里叶变换STFT-CSDN博客Pyth......