• 2024-11-21【机器学习】解锁AI密码:神经网络算法详解与前沿探索
  • 2024-11-20AI之旅-语义搜索:初识 vector embedding 与部署向量数据库 qdrant
    AI之旅实现的第一个功能是基于大模型的vectorembedding进行语义搜索(semanticsearch)。(图片来源:kdnuggets.com)基于大模型实现的聊天机器人虽然能打字和你聊天,但大模型却大字不识一个,它只识数(向量)与只会计算,它不会玩文字游戏,只会玩数字游戏。任何一段文字,在大模型的眼里只是
  • 2024-11-17RAG 系统高效检索提升秘籍:如何精准选择 BGE 智源、GTE 阿里与 Jina 等的嵌入与精排模型的完美搭配
    RAG系统高效检索提升秘籍:如何精准选择BGE智源、GTE阿里与Jina等的嵌入与精排模型的完美搭配TextEmbedding榜单:MTEB、C-MTEB《MTEB:MassiveTextEmbeddingBenchmark(海量文本嵌入基准)》判断哪些文本嵌入模型效果较好,通常需要一个评估指标来进行比较,《MTEB:Massive
  • 2024-11-16【GraphRAG】本地部署全流程!超详细介绍!
    1、GraphRAG是什么?GraphRAG(Graph-basedRelation-AwareGrouping)是一种基于图的关系感知分组方法,通常用于计算机视觉和机器学习领域。它的核心思想是利用图结构来表示和处理实体之间的关系,从而更有效地进行分组和识别任务。2、本地部署在autodl上进行运行,4090单显卡+24GB内
  • 2024-11-13大模型--Megatron TP张量并行-15
    目录1.参考2.介绍3.权重的切分3.1按行切分权重3.2按列切分权重4.MLP层5.Self-Attention层6.Embedding层7.Cross-entropy层8.张量模型并行+数据并行1.参考https://zhuanlan.zhihu.com/p/6222122282.介绍流水线并行数据并行(DP,DDP和ZeRO)介绍最重要,也是目前基于Tr
  • 2024-11-11【杂学】先进的 NLP 技术 —— 旋转位置编码(Rotary Position Embedding,RoPE)
    Transformer已经渐渐成为目前LLM最通用底层架构之一,其中的位置编码也显得极其重要,由于注意力分数本质上是每个token的val加权和,并没有考虑其中的空间信息,因此需要在自注意力模块之前就将位置信息融合进序列中。绝对位置编码绝对位置编码是一种将序列中的每个位置进行编码
  • 2024-11-07词嵌入方法(Word Embedding)
    词嵌入方法(WordEmbedding)WordEmbedding是NLP中的一种技术,通过将单词映射到一个空间向量来表示每个单词✨️常见的词嵌入方法:
  • 2024-11-05基于 EventBridge + DashVector 打造 RAG 全链路动态语义检索能力
    作者:肯梦本文将演示如何使用事件总线(EventBridge),向量检索服务(DashVector),函数计算(FunctionCompute)结合灵积模型服务[1]上的EmbeddingAPI[2],来从0到1构建基于文本索引的构建+向量检索基础上的语义搜索能力。具体来说,我们将基于OSS文本文档动态插入数据,进行实时的文本
  • 2024-11-04LLM大模型: Segment Anything Model原理详解
    meta在2023.4.5又发了imagesematicsegmentation的文章,名字就叫SegmentAnything;学术圈有个潜规则:title越简单,事情越大,比如7年前的那篇attentionisallyouneed,直接提升了nlp的层次!这次的SegmentAnything同样也很简单,这次又有哪些breakthroughinnovation?1、(1)论文
  • 2024-10-31大模型导论
    为什么大模型相比中小模型,有更突出的性能和泛化能力,也许大多数人并没有想过这个问题,业内一般从函数曲线拟合的角度,来理解模型为什么能解决现实中的问题。1、模型为什么越大,性能和泛化越好?在AI领域,对需要解决的业务问题,将其视为满足一定条件的数据分布,先通过特征工程的方式,从
  • 2024-10-30开源Embedding模型,有效提升中文语义理解与召回
    此前,我们已经简单介绍了TextIn团队开发的开源acge_text_embedding模型及其下载和使用方法。本篇将展开讨论Embedding模型中使用的技术框架。Huggingface地址:https://huggingface.co/aspire/acge_text_embedding模型API调用:https://www.textin.com/market/detail/acge_text_em
  • 2024-10-27position embedding和position encoding是什么有什么区别
    PositionEmbedding是指在预训练的词向量中嵌入位置信息的过程,PositionEncoding是用于注意力机制中的一种技术,用于为序列中的每个位置提供一个位置向量。二者的区别:1、作用方式不同;2、实现方法不同等。作用方式不同是指,前者是将位置信息嵌入到词嵌入向量中,后者是在Transformer等
  • 2024-10-23单月30k+ Downloads!一款头部Embedding开源模型
    在数字化转型的浪潮中,文本数据的处理和分析成为了各行各业关注的焦点。如何将人类阅读的文本转换为机器可理解的形式,并且能够准确地召回和提取这些转换结果,成为了提升我们工作效率和体验的关键。无论是从社交媒体中提取情感倾向,还是对大量文档进行内容相似性分析,或是在复杂的对话
  • 2024-10-23计算机毕业设计Python+大模型知识图谱中华古诗词可视化 古诗词智能问答系统 古诗词数据分析 古诗词情感分析 PyTorch Tensorflow LSTM
    温馨提示:文末有CSDN平台官方提供的学长联系方式的名片!温馨提示:文末有CSDN平台官方提供的学长联系方式的名片!温馨提示:文末有CSDN平台官方提供的学长联系方式的名片!开发技术:前端:vue.jsechartsD3.js后端:Flask/Django机器学习/深度学习:LSTM情感分析模型、PyTorch、T
  • 2024-10-22MariaDB 矢量版-专为人工智能设计
       作为一名在关系型数据库系统领域拥有二十多年经验的解决方案架构师,我最近开始探索MariaDB的新矢量版,看看它能否解决我们面临的一些人工智能数据挑战。快速浏览一下似乎很有说服力,尤其是它如何将人工智能的魔力直接带入常规数据库设置中。不过,想通过一个简单的用例对它进
  • 2024-10-21LLM大模型: blip2多模态大模型原理
      截止目前,图片检索领域最出名的应该是openAI的clip了,分别用bert和vit对text和image做encoder,然后让配对的embedding接近,不配对的embedding拉远,通过这种方法达到text匹配(检索)image的目的!但这种方式只能检索,没法生成text啊(比如对image做适当的description),咋整了?总结一下,单存的
  • 2024-10-17RAG 中为什么使用 ReRank 而不是 Embedding 直接一步到位?
    Embedding检索时会获得问题与文本之间的相似分,以往的RAG服务直接基于相似分进行排序,但是事实上向量检索的相似分是不够准确的。原因是Embedding过程是将文档的所有可能含义压缩到一个向量中,方便使用向量进行检索。但是文本压缩为向量必然会损失信息,从而导致最终Embed
  • 2024-10-14用孩子能懂的语言,解释大语言模型中的 Embedding 和 Attention
    为了让孩子能够理解大语言模型的embedding和attention技术,我们可以用一些生活中的简单例子来类比。1.Embedding:就像给每个单词做名片假设你在学校里认识很多小朋友,每个人都有不同的名字、喜欢的颜色和爱好。为了记住他们,老师给每个小朋友做了一张名片,上面写着这些信息。虽然每
  • 2024-10-12Transformer的Pytorch实现【1】
    使用Pytorch手把手搭建一个Transformer网络结构并完成一个小型翻译任务。首先,对Transformer结构进行拆解,Transformer由编码器和解码器(Encoder-Decoder)组成,编码器由Multi-HeadAttention+Feed-ForwardNetwork组成的结构堆叠而成,解码器由Multi-HeadAttention+Multi-HeadAtte
  • 2024-10-08深度学习中的注意力机制:原理、应用与发展
    一、引言在深度学习领域,注意力机制(AttentionMechanism)已经成为一种极为重要的技术手段。它的出现使得模型能够像人类一样,在处理大量信息时聚焦于关键部分,从而提高模型的性能和效率。从自然语言处理到计算机视觉等多个领域,注意力机制都展现出了卓越的能力,极大地推动了深度
  • 2024-10-06Long-Sequence Recommendation Models Need Decoupled Embeddings
    目录概DecoupledAttentionandRepresentationEmbeddings(DARE)modelFengN.,PangJ.,WuJ.,ChenB.,WangX.,LiQ.,HuX.,JiangJ.andLongM.Long-sequencerecommendationmodelsneeddecoupledembeddings.2024.概通过embedding选择短序列,最好从一个
  • 2024-09-30人大&百度提出个性化插件式LLM
    LLM目前最有前景的应用之一就是超级助手,其中个人超级助手早晚躲不开个性服务,因为即使有相同需求的用户,也可能偏好不同的输出。以通用人工智能著称的LLM又要怎么开启个性化服务呢?给每个用户单独微调一个LLM在toC端肯定是不现实的,即使是用各种PEFT的奇淫巧技,也能把公司底裤都亏
  • 2024-09-25如何在生成式AI里使用 Ray Data 进行大规模 RAG 应用的 Embedding Inference
    检索增强生成(RAG,即RetrievalAugmentedGeneration)是企业级生成式AI(GenAI)应用的热门案例之一。多数RAG教程演示了如何利用OpenAIAPI结合Embedding模型和大语言模型(LLM)来进行推理(Inference)。然而,在开发过程中,如果能使用开源工具,就可以免去访问自己数据的费用,同时也能加
  • 2024-09-24[Paper Reading] CAPE: Camera View Position Embedding for Multi-View 3D Object Detection
    目录名称TL;DRMethodKeyPositionEmbeddingConstructionQueryPositionEmbeddingConstructionKey/QueryPositionEmbedding两者结合关系参考下图temporalmodelingExperiment总结与发散相关链接资料查询名称link时间:23.03机构:Baidu/华科TL;DR提出CAPE(CAmeraviewPosi
  • 2024-09-23RAG技术全面解析:Langchain4j如何实现智能问答的跨越式进化?
    LLM的知识仅限于其训练数据。如希望使LLM了解特定领域的知识或专有数据,可:使用本节介绍的RAG使用你的数据对LLM进行微调结合使用RAG和微调1啥是RAG?RAG是一种在将提示词发送给LLM之前,从你的数据中找到并注入相关信息的方式。这样,LLM希望能获得相关的信息并利用