• 2024-07-04基础篇:Stable Diffusion 基础原理详述
    【基础篇】StableDiffusion基础原理详述前言我认为学习ComfyUI应该先从理论学起。与传统绘图工具(如Photoshop或Figma)相比,AI绘图工具有着显著不同。首先,许多设置和操作在AI绘图工具中是非可视化的,这意味着即使你更改了某个配置,界面上也未必会有任何变化,这使得自学变得更
  • 2024-07-03使用 PyTorch 创建的多步时间序列预测的 Encoder-Decoder 模型
    Encoder-decoder模型在序列到序列的自然语言处理任务(如语言翻译等)中提供了最先进的结果。多步时间序列预测也可以被视为一个seq2seq任务,可以使用encoder-decoder模型来处理。本文提供了一个用于解决Kaggle时间序列预测任务的encoder-decoder模型,并介绍了获得前10%结果
  • 2024-07-02AI模型大宗师Transformer的Encoder魔法棒
       在AI大模型数字王国里,有一位名叫Transformer的魔法大宗师。他有一个神奇的百宝箱,里面有很多魔法工具,其中有个工具叫Encoder,这个工具拥有一种神奇的力量,可以将复杂的输入信息进行编码,提取出关键的特征和依赖关系。   让我们来一起把这个工具掏出来细看一下,看看
  • 2024-06-30Transformer详解encoder
    目录1.InputEmbedding2.PositionalEncoding3.Multi-HeadAttention4.Add&Norm5.Feedforward+Add&Norm6.代码展示(1)layer_norm(2)encoder_layer=1最近刚好梳理了下transformer,今天就来讲讲它~        Transformer是谷歌大脑2017年在论文attention
  • 2024-06-23最新最详细的media encoder安装包下载 附图文教程
    在我们学习英语的时候,有个ME的单词,代表“我”;同样,当我们学习视频编码的时候,ME代表了一款软件。AdobeMediaEncoder简称ME,是一款专业的视频编码软件。它主要用于将各种不同格式的视频、音频和图形文件转换成适合播放、流媒体传输或导出到其他项目中的格式。这个工具在音视频制
  • 2024-06-23NLP大模型涉浅
    自然语言处理(NLP)作为人工智能的皇冠上的明珠,一直吸引着众多研究者的目光。随着深度学习技术的发展,NLP领域迎来了新的春天。从词汇表征到复杂的神经网络模型,再到预训练语言模型的微调,深度学习为NLP提供了强大的工具和方法。词汇表征:NLP的基石在NLP中,词汇表征是将词语转换为计算机
  • 2024-06-21深度学习--seqt2seq RNN 英语翻译法语--86
    目录1.结构2.代码解读1.结构我画的:2.代码解读导包importnltkimportnumpyasnpimportreimportshutilimporttensorflowastfimportosimportunicodedatafromnltk.translate.bleu_scoreimportsentence_bleu,SmoothingFunction数据集的预处理defcl
  • 2024-06-12大模型三种架构
    大模型进化树灰色代表其他模型粉色表示encoder-only绿色代表encoder-decoder蓝色代表decoder-only1.encoder-only代表的有google的bert模型。专注于理解和编码输入信息,常用于分类、标注等任务优点:强大的理解能力:能够有效处理和理解输入数据。缺点:生成能力有限:不擅
  • 2024-06-10AttributeError: ‘ChatGLMModel‘ object has no attribute ‘prefix_encoder‘
    AttributeError:‘ChatGLMModel‘objecthasnoattribute‘prefix_encoder‘:全面解析问题概述当您使用ChatGLM模型或相关库时遇到AttributeError:‘ChatGLMModel‘objecthasnoattribute‘prefix_encoder‘错误时,这意味着ChatGLMModel类中不存在prefix_encod
  • 2024-06-06使用Python实现深度学习模型:序列到序列模型(Seq2Seq)
    本文分享自华为云社区《使用Python实现深度学习模型:序列到序列模型(Seq2Seq)》,作者:Echo_Wish。序列到序列(Seq2Seq)模型是一种深度学习模型,广泛应用于机器翻译、文本生成和对话系统等自然语言处理任务。它的核心思想是将一个序列(如一句话)映射到另一个序列。本文将详细介绍Seq2Seq
  • 2024-06-04【LLaVA系列】CLIP/LLaVA/LLaVA1.5/VILA 模型全面梳理!
    节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学。针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。合集:持续火爆!!!《AIGC面试宝典》已圈粉无
  • 2024-06-02Bi-encoder vs Cross encoder?
    本文永久地址:https://wanger-sjtu.github.io/encoder-cross-bi/Bi-encoder和Cross-encoder是在自然语言理解任务模型的两种不同方法,在信息检索和相似性搜索二者的使用更为广泛。在LLM大火的今天,RAG的pipeline中这两个模块作为提升检索精度的模块更是备受瞩目。Bi-encoder:架
  • 2024-05-21已经有一个预训练好的权重文件(pt文件),如何创建一个encoder。
    首先,定义你的encoder模型的架构。这个架构应该与你训练权重时使用的架构相同。你可以使用PyTorch中的nn.Module来定义模型类。importtorchimporttorch.nnasnnclassEncoder(nn.Module):def__init__(self):super(Encoder,self).__init__()#定
  • 2024-04-26【高级RAG技巧】使用二阶段检索器平衡检索的效率和精度
    一传统方法之前的文章已经介绍过向量数据库在RAG(RetrievalAugmentedGenerative)中的应用,本文将会讨论另一个重要的工具-Embedding模型。一般来说,构建生产环境下的RAG系统是直接使用Embedding模型对用户输入的Query进行向量化表示,并且从已经构建好的向量数据库中检索出相关的
  • 2024-04-11论文解读(UGfromer)《Universal Graph Transformer Self-Attention Networks》
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:UniversalGraphTransformerSelf-AttentionNetworks论文作者:论文来源:2022aRxiv论文地址:download论文代码:download视屏讲解:click1-摘要我们引入了一个基于变压器的GNN模型,称为UGfromer,来学习图表示。特别
  • 2024-04-11BERT详解
    一、从RNN开始NLP里最常用、最传统的深度学习模型就是循环神经网络RNN(RecurrentNeuralNetwork)。这个模型的命名已经说明了数据处理方法,是按顺序按步骤读取的。与人类理解文字的道理差不多,看书都是一个字一个字,一句话一句话去理解的。RNN有多种结构,如下所示:1.one-to-on
  • 2024-04-02Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited
    目录概符号/缩写说明TrainingdetailsDatasetsE2E下MoRec是否优于IDRec?RegularsettingWarmsetting越好的encoder带来越好的推荐效果?TSversusE2E?总结代码YuanZ.,YuanF.,SongY.,LiY.,FuJ.,YangF.,PanY.andNiY.Wheretogonextforrecommendersys
  • 2024-04-02Transformer简介
    参考:https://www.zhihu.com/tardis/bd/art/600773858?source_id=1001Transformer是谷歌在2017年的论文《AttentionIsAllYouNeed》中提出的,用于NLP的各项任务1、Transformer整体结构在机器翻译中,Transformer可以将一种语言翻译成另一种语言,如果把Transformer看成一个黑盒,那
  • 2024-03-29YOLOF:单层特征检测也可以比FPN更出色 | CVPR 2021
     论文通过分析发现FPN的成功在于divide-and-conquer策略解决了目标检测的优化问题,借此研究设计了仅用单层特征预测的高效检测网络YOLOF。YOLOF在结构上没有很多花哨的结构,却在准确率、推理速度和收敛速度上都有不错的提升,相对于眼花缭乱的FPN魔改结构,十分值得学习来源:晓飞的算
  • 2024-03-25PaddleNLP:Docker下搭建基于ES的语义检索系统
    PaddleNLP:Docker下搭建基于ES的语义检索系统什么是语义检索?语义检索(也称基于向量的检索):指检索系统不再拘泥于用户Query字面本身(例如:sql查询的like),而是能精准捕捉到用户Query后面的真正意图并以此来搜索,从而更准确地向用户返回最符合的结果。原理是通过使用最先进的语义
  • 2024-03-25Media Encoder 2024:未来媒体编码的新纪元 mac/win激活版
    随着科技的飞速发展,媒体内容已成为我们日常生活中不可或缺的一部分。为了满足用户对高质量视频内容不断增长的需求,MediaEncoder2024应运而生,它凭借卓越的技术和创新的特性,重塑了媒体编码的未来。→→↓↓载MediaEncoder2024mac/win版 MediaEncoder2024以其高效的编码
  • 2024-03-24十七、BART
    前期回顾:BERT模型是仅使用Transformer-Encoder结构的预训练语言模型。GPT模型是仅使用Transformer-Decoder结构的预训练语言模型。BART(Bidirectionaland Auto-Regressive Transformers)模型是使用标准的Transformer-EncoderandDecoder模型整体结构的预训练语言模型
  • 2024-03-21Transformer
    建议大家看一下李宏毅老师讲解的Transformer,非常简单易懂(个人觉得史上最强transformer讲解):https://www.youtube.com/watch?前言Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2T
  • 2024-03-04[基础] Transformer
    Transformer)名称解释:Self-Attention:类似于CNN里面的Conv层,是Transformer中重复次数最多的特征提取Layer。Multi-HeadAttention:相对于Self-Attention,将每个节点外接多个q、k、vhead。CrossAttention:Decoder提取Encoder输出特征的桥梁,原理是用Decoder的q去queryEn
  • 2024-02-21x264 yuv to h264 c99
    如何编译引入x264参考这里正式编码#include<stdint.h>#include<x264.h>#include<stdio.h>#include<unistd.h>#include<fcntl.h>#include<stdlib.h>#include<string.h>#defineCLEAR(x)(memset((&x),0,sizeof(x)))#def