• 2024-11-15衡量神经网络表征相似度
    目录1.中心核对齐技术(CKA)2.Hilbert-Schmidtindependencecriterion(HSIC)HSIC的计算步骤:HSIC的性质:应用:矩阵中心化操作对于单个数据集的中心化对于两个数据集的中心化(例如,用于HSIC)Python代码示例1.中心核对齐技术(CKA)    CKA通过计算两个表
  • 2024-11-15如何利用1%的数据优化特定领域LLM预训练? | EMNLP'24
    来源:晓飞的算法工程笔记公众号,转载请注明出处论文:Target-AwareLanguageModelingviaGranularDataSampling论文地址:https://arxiv.org/abs/2409.14705创新点提出了一种将预先训练好的标记符与多粒度标记符合并的算法,生成高效的n-gram特征,而且与下游任务的性能有
  • 2024-11-13【大模型】评测指标解析(准确率/精确率/召回率/F1分数/rouge/Perplexity/BLEU)
    准确率(Accuracy)准确率(Accuracy)是用来评估分类模型性能的一个重要指标。它表示模型正确预测的样本数占总样本数的比例。准确率的计算公式为:Accuracy=(TP+TN)/(TP+TN+FP+FN)其中:TP(TruePositives):真正例,模型正确预测为正类的样本数。TN(TrueNegatives):真负例,模型正确预测
  • 2024-11-13BLEU(Bilingual Evaluation Understudy)
    BLEUBLEU(BilingualEvaluationUnderstudy)是一种常用的自动化评估机器翻译(MT)质量的指标,用于衡量机器翻译系统输出与参考翻译之间的相似度。它被广泛应用于自然语言处理(NLP)领域,特别是在机器翻译任务中,用来量化翻译结果的质量。BLEU的工作原理:BLEU是基于n-gram(即由n个词
  • 2024-11-10Word2Vec,此向量维度,以及训练数据集单条数据的大小,举例说明;Skip-gram模型实现词嵌入;热编码(One-Hot Encoding)和词向量;
    目录Word2VecWord2Vec,此向量维度,以及训练数据集单条数据的大小,举例说明一、Word2Vec的词向量维度二、训练数据集单条数据的大小综上所述热编码(One-HotEncoding)和词向量一、表示方式二、维度与计算效率三、语义捕捉能力四、举例说明Skip-gram模型实现词嵌入Skip-g
  • 2024-09-18Java调用Apache commons-text求解字符串相似性
    前言    在之前的一篇漂亮国的全球的基地博客中,我们曾经对漂亮国的全球基地进行了一些梳理。博文中使用的数据来源,重点是参考以为博主分享的KML的数据,同时针对其国内的基地部署信息,我们从互联网百科的数据中搜寻到一些。其实拿到这两份数据的时候,是存在一些问题的,比如,KML的
  • 2024-07-07AIGC的行业发展
    1.AIGC的行业发展AIGC(ArtificialIntelligenceGeneratedContent,人工智能生成内容)是利用人工智能技术来自动生成内容的一种新型内容创作方式。它基于生成对抗网络(GAN)、大型预训练模型等技术,通过对已有数据进行学习和模式识别,以适当的泛化能力生成相关内容。近年来,AIGC技术在
  • 2024-06-11欢乐多 国际尬聊 语料库 n-gram分析 23个视频
    hihellosize2Type  Rank  Freqim  1  202dont  2  181its  3  156idon  4  126haha  5  118thats  6  109youknow  7  104(youknowi)youre  8  95thankyou  9  84okayokay  1
  • 2024-06-05深度学习--风格迁移 原理以及实现--84
    目录1.简介4.损失函数参考链接:https://blog.csdn.net/ssshyeong/article/details/1270923541.简介ImageStyleTransferUsingConvolutionalNeuralNetworks:Gram矩阵(CVPR2016)链接TextureSynthesisUsingConvolutionalNeuralNetworks图像经过卷积层后得到的特征图
  • 2024-06-03LLM基础知识
    LLM背景知识介绍1大语言模型(LLM)背景大语言模型(英文:LargeLanguageModel,缩写LLM)是一种人工智能模型,旨在理解和生成人类语言.大语言模型可以处理多种自然语言任务,如文本分类、问答、翻译、对话等等。
  • 2024-06-03深度学习--风格迁移Gram matric的计算--83
    目录在计算机视觉中,Gram矩阵常用于衡量图像的风格特征。给定一个特征图(例如,卷积层的输出),Gram矩阵是该特征图的内积。在TensorFlow中,你可以使用tf.linalg.einsum来计算Gram矩阵。以下是一个计算Gram矩阵的TensorFlow实现样例:importtensorflowastfdefgram_matrix(input_ten
  • 2024-06-01基于n-gram语言模型实现输入单词推荐功能(附源码及语料库)
    一、开发环境1.语言:python2.开源工具:nltk3.语料库:维基百科英文语料库二、环境配置关于pyhton项目对nltk的部署,我看了以下文章。NLTK库安装教程在安装nltk库的过程中,我又遇到了pip更新的问题,看了以下文章。PIP更新​​​​三、实验要求利用n-gram语言模型完成,输入文字
  • 2024-04-24Elasticsearch N-gram分词器介绍 (7)
    一.概述Ngram是一种基于统计语言模型的算法。Ngram基本思想是将文本里面的内容按照字节大小进行滑动窗口操作,形成长度是N的字节片段序列。此时每一个字节片段称为gram。对所有gram的出现频度进行统计,并且按照事先设定好的阈值进行过滤,形成关键gram列表,也就是这个文本的向量特
  • 2024-04-23【视频】N-Gram、逻辑回归反欺诈模型文本分析招聘网站欺诈可视化|附数据代码
    原文链接:https://tecdat.cn/?p=36028原文出处:拓端数据部落公众号随着互联网的快速发展,招聘网站已成为求职者与雇主之间的重要桥梁。然而,随之而来的欺诈行为也日益猖獗,给求职者带来了极大的困扰和风险。因此,如何帮助客户有效地识别和防范招聘网站上的欺诈行为,已成为一个亟待解决
  • 2024-04-16如何评估一个回答的好坏——BERTScore 基于预训练模型的相似度度量方式
    基于预训练模型的相似度度量方式BERTScoreBERTScore是一种基于BERT(双向编码器表示器转换器)语言模型的相似度度量。它将问题和回答编码为BERT向量,然后计算两个向量的余弦相似度。与传统的基于重叠词语的相似度度量不同,BERTScore能够捕获语义相似性,即使两个句子不包含相同的
  • 2024-04-08深度学习-nlp--词向量--68
    目录1.统计语言模型2.N-gram3.NPLM神经语言模型4.Word2Vec--基础中的基础5.CBOW模型6.Skip-gram进入新的领域加油!1.统计语言模型语言模型本质就是让机器学会说话但是机器本质上是只会1+1统计语言模型是所有NLP的基础,被广泛应用与语音识别、机器翻译、分词、词性标注
  • 2024-04-05【论文精读】Detecting Out-of-Distribution Examples with Gram Matrices 使用Gram矩阵检测分布外实例
    文章目录一、文章概览(一)Gram矩阵1、Gram(格朗姆)矩阵的定义2、Gram矩阵计算特征表示3、风格迁移中的Gram矩阵(二)ood检测(三)核心思路:扩展Gram矩阵以进行分布外检测(四)研究成果二、模型细节(一)符号定义(二)Gram矩阵和高阶Gram矩阵(三)预处理(四)计算分层偏差(五)测试图像的总偏差(
  • 2024-02-29Huggingface初上手即ERNIE-gram句子相似性实战
    大模型如火如荼的今天,不学点语言模型(LM)相关的技术实在是说不过去了。只不过由于过往项目用到LM较少,所以学习也主要停留在直面——动眼不动手的水平。Huggingface(HF)也是现在搞LM离不开的工具了。出于项目需要,以及实践出真知的想法,在此记录一下第一次使用HF和微调ERNIE-gram的过程
  • 2024-01-15N-gram模型如何工作?
    我们知道语言模型(LanguageModel,LM)实际上是对一种token序列的概率分布。例如对一个句子\(S=w_1,...,w_t\),我们要估计这一个句子的概率,计算过程如下:\[P(S)=P(w_1,...,w_t)\\=P(w_1,...,w_{t-1})*P(w_t|w_1,...,w_{t-1})\\=P(w_1,...,w_{t-2})*P(w_{t-1}
  • 2024-01-08Ngram模型在机器翻译中的应用与挑战
    1.背景介绍机器翻译是自然语言处理领域的一个重要研究方向,其目标是将一种自然语言文本自动翻译成另一种自然语言文本。在过去的几十年里,机器翻译技术发展了很长一段时间,从基于规则的方法(如规则引擎和统计规则)开始,到基于模型的方法(如统计模型、深度学习模型等)发展。在这些方法中,N-gr
  • 2024-01-05[NLP复习笔记] N-gram 及基本平滑方法
    1.N-gram模型1.1N-gram模型介绍\(\text{N-gram}\)是一种基于统计语言模型的算法,用于预测文本中的单词,其中\(\text{N}\)一般指的是序列中的单词数量。其基本思想是将文本内容进行大小为\(\text{N}\)的滑动窗口操作来计算概率。例如:当\(\text{N}=1\)时,模型被称为"u
  • 2023-07-16人工智能自然语言处理:N-gram和TF-IDF模型详解
    人工智能自然语言处理:N-gram和TF-IDF模型详解1.N-gram模型N-Gram是一种基于统计语言模型的算法。它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列。每一个字节片段称为gram,对所有gram的出现频度进行统计,并且按照事先设
  • 2023-07-03机器翻译 | 机器翻译评测指标
    机器翻译领域最困难的任务之一就是对给定的翻译系统或者翻译算法进行评价,我们称其为机器翻译评测。事实上,在科学研究和工业界的任何一个领域,如果提出一个新的算法并声称其具有良好的性能,都需要使用某种通用的、被广泛承认的评价标准为这个算法“打分”。这个分数不仅要体现出
  • 2023-04-27Image captioning常用的指标
    1.n-gram是什么?n-gram是自然语言处理中常用的一种模型,它是指由n个连续的词组成的序列。例如,在句子"Ilovenaturallanguageprocessing"中,1-gram可以表示为{“I”,“love”,“natural”,“language”,“processing”},2-gram(也称为bigram)可以表示为{“Ilove”,“lovenatura
  • 2023-04-17图表示学习-deepwalk
    GraphEmbedding先从WordEmbedding来说,现在的NLP语言取得了巨大突破一大部分原因是将高度离散化的词语符号表示,转换为了低维的连续分布的表示。eg:我爱香蕉我爱苹果用onehot来表示:我0[1,0,0,0]爱1[0,1,0,0]苹果2[0,0,1,0]香蕉3[0,0,0,1]但是这种方法不能够