首页 > 其他分享 >[模式识别复习笔记] 第6章 PCA

[模式识别复习笔记] 第6章 PCA

时间:2024-06-21 15:33:26浏览次数:10  
标签:复习 模式识别 bm mu text PCA sum lambda

1. 主成分分析 PCA

PCA:寻找最能够 表示 原始数据的投
影方法,对数据进行降维,除去冗余的信息。——不考虑类别

1.1 PCA 主要步骤

  1. 计算 散布矩阵 \(S\)(或者样本的协方差矩阵)

    \[S = \sum_{i=1}^{n}(\bm{x}_i - \bm{\mu})(\bm{x}_i - \bm{\mu})^{\text{T}} \]

    其中 \(\bm{\mu} = \frac{1}{n}\sum_{i=1}^{n} \bm{x}_i\) 。

  2. 由 \(S\bm{e}_i = \lambda_i \bm{e}_i\) 计算 \(S\) 的 特征值 \(\lambda_i\) 和 特征向量 \(\bm{e}_i\)。\(\bm{e}_i\) 也称为主成分,任意两个主成分 正交,且 \(||\bm{e}||=1\);

  3. 按照特征值 从大到小 将对应的特征向量进行排序;

  4. 选择 特征值前 \(d^{'}\) 大 的特征向量作为投影向量,构成特征向量矩阵 \(Q \in \mathbb{R}^{d\times d^{'}}\) ,是一个标准正交矩阵;

  5. 对于任意的 \(d\) 维样本 \(\bm{x}_i\),用 \(PCA\) 降维后的 \(d^{'}\) 维向量为:

    \[\bm{y}_i = Q^{\text{T}}(\bm{x}_i - \bm{\mu}) \]



最大的几个特征值占据了所有特征值之和的绝大部分。将数据投影到少数几个最大特征值对应的特征向量方向上即可保留原数据中的绝大部分信息。样本投影到主成分上方差越大越能表明这个主成分能够更好地区分样本



1.2 PCA 的几何解释



1.3 例题

例题 1

给定 \(d\) 维的样本集 \(D = \{ \bm{x}_1, \bm{x}_2, \ldots, \bm{x}_n \}\),\(\bm{\mu}\) 为均值向量。已知协方差矩阵为 \(\bm{\Sigma} = \frac{1}{n - 1}\sum_{i=1}^{n}(\bm{x}_i - \bm{\mu})(\bm{x}_i - \bm{\mu})^{\text{T}}\),散布矩阵为 \(S = \sum_{i=1}^{n}(\bm{x}_i - \bm{\mu})(\bm{x}_i - \bm{\mu})^{\text{T}}\)。

请分析在 \(\text{PCA}\) 中用协方差矩阵来代替散步矩阵是否会有影响,并证明。

解:

不产生影响。

设 \(\bm{e}\) 为协方差矩阵 \(\bm{\Sigma}\) 中特征值 \(\lambda\) 对应的特征向量,则有 \(\bm{\Sigma} \bm{e} = \lambda \bm{e}\)。

由于散布矩阵是协方差矩阵的 \(n - 1\) 倍,则有:

\[\frac{1}{n-1}S \bm{e} = \lambda \bm{e} \]

也即:

\[S \bm{e} = (n - 1) \lambda \bm{e} \]

相当于 \(\bm{e}\) 是散布矩阵 \(S\) 中特征值 \((n-1)\lambda\) 对应的特征向量。

因此,协方差矩阵和散布矩阵下的 \(\text{PCA}\) 有着相同的特征向量,特征值是 \(n - 1\) 倍的关系(\(n - 1 > 0\)),不影响根据特征值大小对特征向量排序的结果,进而 不会产生影响



例题 2

设原始数据集 \(D={\bm{x}_1, \bm{x}_2, \ldots , \bm{x}_n}\) 是 \(d\) 维的,采用 \(\text{PCA}\) 降维后,变成 \(k\) 维的,其中 \(k\le d\)。设 \(\text{PCA}\) 找到的 \(k\) 个主成分依次为 \(\bm{e}_1, \bm{e}_2, \ldots , \bm{e}_k\),则任意的 \(d\) 维样本 \(x\) 进行 \(\text{PCA}\) 降维后,在第 \(r\) 个主成分上的坐标为:\(\bm{e}_r^{\text{T}}(\bm{x} − \bm{\mu})\),其中 \(\bm{\mu} = \frac{1}{n}\sum_{i=1}^{n}\bm{x}_i\)。因此,第 \(i\) 个样本在第 \(r\) 个主成分上的投影点可以表示为 \(y_i = \bm{e}_r^{\text{T}}(\bm{x}_i − \bm{\mu})\),所以,所有样本在第 \(r\) 个主成分上的投影点依次为 \(y_1, y_2, \ldots, y_n\),共 \(n\) 个投影点。

请证明 \(\text{PCA}\) 的第一主成分就是所有样本投影到该方向上的投影点的方差最大的方向。

解:

  1. 计算 \(n\) 个投影点的均值 \(\bar{y}\):

    \[\bar{y} = \frac{1}{n} \sum_{i=1}^{n} y_i = \frac{1}{n}\sum_{i=1}^{n} \bm{e}_r^{\text{T}}(\bm{x}_i - \bm{\mu}) = \bm{e}_r^{\text{T}}(\frac{1}{n}\sum_{i=1}^{n}\bm{x}_i - \bm{\mu}) = 0 \]

  2. 计算 \(n\) 个投影点的方差:

    \[\begin{split} Var &= \frac{1}{n - 1}\sum_{i=1}^{n}(y_i - \bar{y})^2 \\\\ &= \frac{1}{n - 1}\sum_{i=1}^{n}y_i^2 \\\\ &= \frac{1}{n - 1}\sum_{i=1}^{n}\bm{e}_r^{\text{T}}(\bm{x}_i - \bm{\mu})\bm{e}_r^{\text{T}}(\bm{x}_i - \bm{\mu}) \\\\ &= \frac{1}{n - 1}\sum_{i=1}^{n}\bm{e}_r^{\text{T}}(\bm{x}_i - \bm{\mu})(\bm{x}_i - \bm{\mu})^{\text{T}}\bm{e}_r \\\\ &= \bm{e}_r^{\text{T}}\bm{\Sigma}\bm{e}_r \end{split} \]

    其中 \(\bm{\Sigma}\) 为协方差矩阵:

    \[\bm{\Sigma} = \frac{1}{n - 1}\sum_{i=1}^{n}(\bm{x}_i - \bm{\mu})(\bm{x}_i - \bm{\mu})^{\text{T}} \]

    由 \(\text{PCA}\) 中 \(\bm{\Sigma}\bm{e}_r = \lambda_r \bm{e}_r\),其中 \(\lambda_r\) 为第 \(r\) 大的特征值,故:

    \[Var = \bm{e}_r^{\text{T}}\bm{\Sigma}\bm{e}_r = \lambda_r \bm{e}_r^{\text{T}}\bm{e}_r \]

    由于 \(||\bm{e}|| = 1\),得:

    \[Var = \lambda_r \]

  3. 由上述结论可得,所有样本在第 \(1\) 个主成分上得投影点得方差为 \(\lambda_1\),而 \(\lambda_1\) 是所有特征值中最大的

    故 \(\text{PCA}\) 第一主成分就是所有样本投影到该方向上的投影点的方差最大的方向。



2. Fisher 线性判别分析 FDA

Fisher线性判别分析(FDA):寻找的是 能够有效分类 的方
向,是 有监督的降维方法

Fisher判别分析 FDA

标签:复习,模式识别,bm,mu,text,PCA,sum,lambda
From: https://www.cnblogs.com/MarisaMagic/p/18260615

相关文章

  • [模式识别复习笔记] 第5章 贝叶斯分类器
    1.贝叶斯分类器1.1贝叶斯公式假设有一个试验的样本空间为\(S\),记\(B_1,B_2,\ldots,B_c\)为\(S\)的一个划分,\(A\)为试验的条件,且\(P(A)\not=0\),则:\[P(B_i|A)=\frac{P(B_i)P(A|B_i)}{P(A)}=\frac{P(B_i)P(A|B_i)}{\sum_{j=1}^{c}P(B_j)P(A|B_j)}\]\(P(B_i)......
  • 代码随想录刷题复习day01
    day01数组-二分查找classSolution{publicintsearch(int[]nums,inttarget){//左闭右闭intleft=0;intright=nums.length-1;intmid=0;while(right>=left){mid=left+(right-le......
  • 人工智能系列:一文让你读懂什么是模式识别
    目录1.什么是模式识别1.1人工智能和模式识别1.2信息感知1.3计算机模式识别1.4模式识别应用1.5模式识别发展简史1.6相关问题和领域2.模式识别形式化2.1模式和模式识别2.2模式表示2.3特征空间2.4特征空间中的分类2.5一个例子3.模式识别系统流程4.模式分类器设计4......
  • 计算机体系结构期末复习(一二章)
    计算机体系结构期末复习(一二章)由于内容比较多,分为两次发出注意:可能有部分考点遗漏,可能有部分例题没有匹配正确的知识点或被遗漏,欢迎各位补充第一章1.计算机系统的层次性知识点:​​例题:(单选题)在计算机系统层次结构中,从低层到高层,各层相对顺序正确的是()A.传统机......
  • Python期末复习题库(下)
    如果你对Python感兴趣,想要学习pyhton,这里给大家分享一份**Python全套学习资料**,都是我自己学习时整理的,希望可以帮到你,一起加油!1.(单选题)下列关于文件打开模式的说法,错误的是(C)。A.r代表以只读方式打开文件B.w代表以只写方式打开文件C.a代表以二进制形式打开......
  • [模式识别复习笔记] 第1-2章 基本概念
    1.模式识别系统的各个设计环节模式采集:借助物理设备(传感器、摄像头)进行数据的采集和存储。预处理:数据清洗、降噪,增强数据中有用的信息。特征提取:提取数据中对识别有用的特征。分类器学习:根据训练数据特点,选择何时的分类器模型,利用训练集学习得到参数。2.模式......
  • [模式识别复习笔记] 第3章 线性判别函数
    1.线性判别函数1.1定义在\(d\)维特征空间中,有线性判别函数:\[G(x)=w^{\text{T}}x+b\]其中,\(w=[w_1,w_2,\ldots,w_d]^T\)称为权值向量,\(b\)称为偏置,都是需要学习的参数。\(G(x)=0\)为决策边界方程。PS:只能解决二分类问题。1.2几何意义\(w\)为超......
  • [模式识别复习笔记] 第4章 SVM
    1.SVM简介1.1SVM支持向量机给定如图所示的线性可分训练集,能够将两类样本正确分开的直线很多。感知机算法可以找到一条直线,且找到的直线不唯一。然而感知机无法确定哪一条直线最优,但是\(\text{SVM}\)可以。\(\text{SVM}\)可以找到能够将训练样本正确分类的直线中具有......
  • C语言期末复习笔记
    目录一,基础介绍。二,标识符起名规范。三,数据类型。四,变量。五,运算符和表达式1,加减乘除​编辑  /为整除,%为余数,*为乘号2,关系运算符3,逻辑运算符4,运算符优先级5,前自增,后自增6,三目运算符。7,符合运算符。六,控制语句。1,if判断2,多重判断。3,for循环4,while循环5,d......
  • Javascript入门博客【入门复习(学习)使用】
    JavaScript是一门高级,解释形语言,大量用于关于web网站的开发,可以和网页联动做出更多有趣的动画效果。其运行方式大都是嵌入在网页中运行。其实在定义方面如果过你是初学者来学习和这方面相关的知识,知道上面这些就已经足够了。我们可以在浏览器中直接进行对代码的控制,进入浏览器......