• 2024-06-24第 6 章图像聚类
    #粘贴每幅图像的缩略图到白色背景图片foriinrange(imnbr):nodeim=Image.open(imlist[i])nodeim.thumbnail((25,25))ns=nodeim.sizeimg.paste(nodeim,(scaled[i][0]-ns[0]//2,scaled[i][1]-ns[1]//2,scaled[i][0]+ns[0]//2+1,scaled[i][1]+ns[1]//2+1))img.save(
  • 2024-06-1236、matlab矩阵特征值、特征向量和奇异值
    1、名词说明1)特征值特征值(Eigenvalues)是矩阵的一个重要概念,在线性代数中起着非常重要的作用。给定一个n×n的方阵A,如果存在一个非零向量v,使得矩阵A作用于向量v后,得到的结果与向量v成比例(即Av=λv,其中λ为标量),那么λ就是矩阵A的特征值,v就是对应于特征值λ的特征向量。特征值
  • 2024-06-11奇异值分解(SVD)
    文章目录基本概念计算步骤:1.计算\(A^TA\)和\(AA^T\)2.求解特征值和特征向量3.构造奇异值矩阵Σ4.完成分解具体例子:计算步骤简化:作用和用途基本概念奇异值分解(SingularValueDecomposition,简称SVD)是一种将任意矩阵分解为三个矩阵乘积的重要线性代
  • 2024-06-06【Python机器学习】无监督学习——不同类型的预处理
    之前学习过,一些算法(比如神经网络和SVM)对数据缩放非常敏感。因此,通常的做法是对特征进行调节,使数据更适合于这些算法。通常来说,这是对数据的一种简单的按照特征的缩放和移动。举例:importmglearn.plotsimportmatplotlib.pyplotaspltmglearn.plots.plot_scaling()plt.sh
  • 2024-06-06主成分分析(PCA)介绍
    目录计算过程投影分量计算假设你有一家理发店,已经记录了过去一年中所有顾客的头发长度和发型偏好的数据。现在你想从这些数据中提取一些主要的信息,比如顾客最常选择的发型类型,以及不同发型之间的相关性等。这对于你未来开展有针对性的营销活动很有帮助。具体来说,我们可以将
  • 2024-05-26重排模型DLCM
    论文名:LearningaDeepListwiseContextModelforRankingRefinement背景在搜索场景下,给定一个查询q,q和d特征的向量表示x(q,d),rank阶段的loss可以表示为:其中:Q是query的集合,D是doc集合,f是rank模型函数可以看到,传统的rank模型是一种point-wise的建模方法,没有考虑不同doc之间
  • 2024-05-22Product Quantization
    Background如何在数据海量的内容库中快速检索出Top-k的信息候选?缩小查找的范围,快速找到最有可能成为近邻的一个粗集合对Embedding向量做压缩,快速计算两个Embedding的距离。本实践内容的代码管理在Codes24/FlashCIM/文件夹下的pq_lib中VectorQuantization将一个向量空间中
  • 2024-05-08矩阵之间的关系简单整理
    等价:可以通过初等变换互相转化的矩阵。当A和B为同型矩阵,且r(A)=r(B)时,A,B一定等价。相似:\(P^{-1}AP=B\)。本质是基坐标转换,表示在不同坐标系下效果相同的线性变换过程。P为基坐标转换矩阵,是新基向量按列排列形成的矩阵。重要性质(原理):A与B相似,则A与B有相同的特征值(亦有相同的迹与
  • 2024-05-06《线性代数的本质》笔记10
    10-特征值与特征向量特征向量几何含义:在一次特定的线性变换中没有脱离原本张成空间的向量。特征值即为这个特征向量在这次变换中缩放的比例。推导:$$A\vec{v}=\lambda\vec{v}$$$$(A-\lambda\textit{I})\vec{v}=\vec{0}$$$$det(A-\lambda\textit{I})=0$$但并非所有线性变
  • 2024-04-19视觉专业英语(三)
    1.demonstrates 展示2.ausecase使用案例3.demonstratesvarioususecases展示各种用例4.Gaussian-Mixture-Models(GMM)高斯混合模型5.ExpectationMaximization(EM)algorithm期望最大算法/最大似然法6.Covariancematrices协方差矩阵7.densityf
  • 2024-04-11无监督多视角行人检测 Unsupervised Multi-view Pedestrian Detection
    无监督多视角行人检测UnsupervisedMulti-viewPedestrianDetection论文url:https://arxiv.org/abs/2305.12457论文简述该论文提出了一种名为UnsupervisedMulti-viewPedestrianDetection(UMPD)的新方法,旨在通过多视角视频监控数据准确地定位行人,而无需依赖于人工标注的视
  • 2024-04-08深度学习-卷积神经网络--facenet人脸识别--67
    目录1.概述参考链接:人脸识别网络FaceNetfacenet详解1.概述FaceNet是谷歌于[CVPR2015.02](FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering)发表,提出了一个对识别(这是谁?)、验证(这是用一个人吗?)、聚类(在这些面孔中找到同一个人)等问题的统一解决框架,即它们
  • 2024-04-06SciTech-Mathmatics-Advanced Algebra-LinearAlgebra: 矩阵的相抵、相似与合同
    https://www.math.pku.edu.cn/teachers/baozq/algebra/alg1.htm矩阵的相抵、相似与合同基本概念:相抵,相抵标准形相似,对角化,迹,可对角化矩阵的相似标准形特征值,特征向量,特征多项式,特征子空间正交矩阵,Kn的内积,标准正交基实对称矩阵的正交相似标准形二次型
  • 2024-03-25数学建模常用代码
    主成分分析PCA步骤:(1)对原始数据进行标准化处理(2)计算样本相关系数矩阵(3)计算相关系数矩阵R的特征值和相应的特征向量(4)选择重要的主成分,写出主成分表达式例子:下例中企业综合实力排序问题,其中各列分别为:企业序号;净利润率;固定资产利润率;总产值利润率;销售收入利润率;产品成本利
  • 2024-03-20谱半径的“谱”是什么意思?
    导言        在学习数值分析时,我们会遇到这样一个名词,叫做“谱半径”,意思是矩阵的特征值绝对值中的最大值。有的同学可能会好奇,为什么叫做谱半径,而不是别的什么半径。而类似的称呼有“谱范数”,也就是2-范数。其实“谱”这个字来自于线性代数中的谱理论。图1是以上两
  • 2024-03-20【机器学习】无监督学习算法之:主成分分析
    主成分分析1、引言2、主成分分析2.1定义2.2原理2.3实现方式2.4算法公式2.5代码示例3、总结1、引言小屌丝:鱼哥,快,快。小鱼:…啥情况,你可别乱喊。小屌丝:额…我的意思,是你该继续小鱼:…说清楚,继续啥???小屌丝:就…就是…继续啊小鱼:我擦…你说清楚,不然容易误
  • 2024-02-20SciTech-Mathmatics-LinearAlgebra-特征值和特征向量
    1基本定义将\(n\)阶方阵\(M\)分解出如下式的非零n维向量\(v\)作为特征向量和\(\lambda\)作为特征向量;$\largeMv=\lambdav,\v\neq0$上式不仅可以分解出,甚至还可以分解出多个特征向量与特征值;实例:对物体施加作用力F产生运动,运动可以分解到3D空间
  • 2024-02-16pca降维
    实际使用数据集的时候由于特征很多,会很耗时,因此需要减少特征,但是不知道特征多少合适,这个时候就要使用特征降维降维作用(1)使得数据集更容易使用(2)降低很多算法的计算开销(3)去除噪声(4)多维数据不容易画图,降低维度容易画图,使结果容易理解。优点:降低数据的复杂性,识别出最重要的多个特征
  • 2024-02-0110线性代数基础综合卷
    张宇基础卷线代发现很多问题,值得再做一遍3行变换是把E放到右方,列变换是把E放到下方。这道题求逆可以用穿脱原则解出来4首先记结论,AB=O则r(a)+r(b)<n,学会证明(解集的秩为n-r(a)),B是从解集中抽出来的;5根据秩的情况判断特征值,不满秩则一定有0特征值; 当可对角化时,零特征值所对应的特征
  • 2024-01-20【学习笔记】主成分分析
    现在有\(m\)个\(n\)维的数据,想把它们降到\(k\)维,得到一个\(m\timesk\)的矩阵,但是不能损失数据之间的关联性和差异性。那么不难发现这肯定是让矩阵右乘一个大小为\(n\timesk\)的矩阵,进行一个线性空间的映射。做法是构造一个\(n\)维数据的协方差矩阵(矩阵的行列表示
  • 2024-01-08神经网络之谜:特征值与特征向量在深度学习中的作用
    1.背景介绍深度学习是当今最热门的人工智能领域之一,它的核心技术是神经网络。神经网络的基本结构是由多个节点组成的,这些节点被称为神经元或神经网络。这些神经元通过连接和权重来学习和表示数据中的模式。在深度学习中,这些模式通常被表示为特征值和特征向量。这两个概念在深度学习
  • 2023-12-31Matlab与线性代数
    %判断一个矩阵是否可以对角化并求解其对角化矩阵%定义矩阵AA=[4,2,-2;2,1,-1;-2,-1,1];%定义矩阵A%A=[4,-2;1,1];%计算特征向量和特征值[V,D]=eig(A);%判断是否存在足够数量的线性无关特征向量ifrank(V)==size(A,1)%构造对角矩阵D=d
  • 2023-12-30线性代数基础-特征值与特征向量-01
    目录1.概念2.性质3.相似矩阵4.矩阵的行列式与迹5.特征值与特征向量分解矩阵1.概念特征值与特征向量的英文是eigenvalue和eigenvector,这个前缀eigen-起源于德语,意思是proper(这里应该是专属的意思)、characteristic(特征的),其实翻译成特征。矩阵A是一个线性变换,然后
  • 2023-12-28机器学习-无监督机器学习-主成分分析PCA-23
    目录1.降维的方式2.PCA的一般步骤3.思想2最小化投影距离4.KernelizedPCA1.降维的方式对于维度灾难、数据冗余,这些在数据处理中常见的场景,我们不得不进一步处理,得到更精简更有价值的特征信息,所用的的各种方法的统称就是降维特征抽取:叫做特征映射更合适。因为它的思想即把
  • 2023-12-24P7 二分分类
    逻辑斯蒂回归是一种二进制分类算法 比如说我们举个例子这样一个案例中,你需要输入图像,输出标签,识别判断这个图像是/不是一只猫(用0/1表示)在计算机中,怎么让计算机接受图片,或者说计算机只认识二进制语言,怎么让它看见这些图像数据??? 如果说你传入的图像是一张64像素位*64像素位的