emb
  • 2024-05-29双塔召回模型问题总结
    1.常用的损失函数一般使用inbatchsoftmax,主要优点是方便,确实是容易遭造成对热门item的打压,可以做纠偏,参考youtube论文《Sampling-Bias-CorrectedNeuralModelingforLargeCorpusItemRecommendations》 2.计算useremb和itememb时的相似度时应该用什么方法,为什么需
  • 2024-05-15内容冷启动
    冷启动内容冷启动分成用户冷起、物品冷起、系统冷启动;用户冷启目的是提升用户留存以及活跃度等指标,帮助用户增长;物品冷启动主要是提升品类多样性以及丰富度,促进内容生态。生态健康才能保持长久广告收益以及成交额。用户冷启的核心在于数据稀疏,新用户不了解,如何获取更多数据或者
  • 2024-04-21datawhale-动手学图深度学习task04
    动手学图深度学习图表示学习研究在嵌入空间(EmbeddingSpace,指在高维数据被映射到低维空间的数学结构)表示图的方法,在图上表示学习核嵌入指的是同一件事,“嵌入”是指将网络中的每个节点映射到低维空间(需要深入了解节点的相似性和网络结构),旨在捕捉图结构中的拓扑信息、节点内容信
  • 2024-04-01GraphPro
    GraphPro:GraphPre-trainingandPromptLearningforRecommendation北京B区/032机北京B区/224机数据集介绍本文使用了三个公开的数据集来进行实验和评估GraphPro框架的性能。这些数据集分别代表了不同的商业场景和用户交互模式,具有丰富的动态交互数据,非常适合用来评估
  • 2024-03-21嵌入式汇编代码的正确使用
    正确使用嵌入式汇编代码涉及到对高级语言、汇编语言以及目标硬件架构的深入理解。以下是一些关键步骤和注意事项,以确保嵌入式汇编代码的正确使用: 理解目标架构:在开始编写嵌入式汇编代码之前,你需要对目标硬件架构有深入的了解。这包括了解该架构的指令集、寄存器、内存模型
  • 2023-10-20sd6
    1、blip-diffusion训练:图片向量注入变为多模态向量注入:给概念“train”和对应的5张照片,通过Blip(imageencoder+multimudalencoder)得到5个subjectpromptemb,然后取平均。原图的背景需要做随机替换以防止copy现象textemb:把 subjectpromptemb拼接到textprompt
  • 2023-08-01像建房子一样打造变形金刚,追梦女孩要刚强
    Transformer鼎鼎大名人尽皆知,2017年就问津于世,鸽鸽2023年才学习它,任何时候圆梦都不算晚!本文记录了我像建房子一样从头到尾打造变形金刚的全过程,目的是熟悉pytorch和深入理解transformer。先看下我设定的任务难度,我们要解决的是经典的seq2seq翻译任务。使用的数据集是中英新闻评论
  • 2023-06-29论文阅读: (CVPR2023 SDT )基于书写者风格和字符风格解耦的手写文字生成及源码对应
    引言许久不认真看论文了,这不赶紧捡起来。这也是自己看的第一篇用到Transformer结构的CV论文。之所以选择这篇文章来看,是考虑到之前做过手写字体生成的项目。这个工作可以用来合成一些手写体数据集,用来辅助手写体识别模型的训练。本篇文章将从论文与代码一一对应解析的方式来撰
  • 2023-06-01json.dumps(),json.loads(),json.dump(),json.load()方法的区别(python)
    1.json.dumps()json.dump()是将字典类型转化成字符串类型。importjsondic={'a':'1111','b':'2222','c':'3333','d':'4444'}st=json.dumps(dic)print("我是字典类型的",dic)print("我是字
  • 2023-03-04DiffuSeq: Sequence to Sequence Text Generation with Diffusion Models
    目录概符号说明流程代码GongS.,LiM.,FengJ.,WuZ.andKongL.DiffuSeq:Sequencetosequencetextgenerationwithdiffusionmodels.InInternationalConfe
  • 2023-03-02Diffusion-LM Improves Controllable Text Generation
    目录概符号说明流程代码LiX.L.,ThickstunJ.,GulrajaniI.,LiangP.andHashimotoT.B.Diffusion-lmimprovescontrollabletextgeneration.arXivpreprinta
  • 2023-01-30全局负采样-minbatch负采样
    参考:https://developer.aliyun.com/article/873405defsoftmax_loss_with_negative_mining(user_emb,item_emb,
  • 2022-12-1304 Transformer 中的位置编码的 Pytorch 实现
    1:10点赞16:00我爱你你爱我1401classPositionalEncoding(nn.Module):def__init__(self,dim,dropout,max_len=5000):super(PositionalEncoding,self).__ini
  • 2022-10-17【753】Transformer模型
    参考:李宏毅-Transformer【动画细致,有助于理解Self-Attention】参考:TheIllustratedTransformer【详细到一些参数,动画也很好】参考:Transformer论文逐段精读【论文精读】
  • 2022-10-11【自然语言处理(NLP)】基于LSTM的命名实体识别(进阶)
    【自然语言处理(NLP)】基于LSTM的命名实体识别(进阶)作者简介:在校大学生一枚,华为云享专家,阿里云专家博主,腾云先锋(TDP)成员,云曦智划项目总负责人,全国高等学校计算机教学与产