首页 > 其他分享 >模式识别学习笔记-lecture3-判别函数3

模式识别学习笔记-lecture3-判别函数3

时间:2022-10-15 12:02:03浏览次数:60  
标签:lecture3 模式识别 样本 判别函数 varphi cdots 势函数 omega

势函数法

假设要划分属于两种类别\(\omega_1,\omega_2\)的模式样本,这些样本可以看做是分布在\(n\)维模式空间中的点\(x_k\),把属于\(\omega_1\)的点比拟为某种能源点,在点上,电位达到峰值,随着与该点距离的增大,电位分布迅速减小,即把样本\(x_k\)附近空间\(x\)点上的电位分布看做一个实函数\(K(x,x_k)\),,对于属于\(\omega_1\)的样本集群,其附近空间会形成一个高地,这些样本点所处的位置就是山头,同理,用电位的几何分布来看待属于\(\omega_2\)的样本,在其附近空间就形成一个凹地,只要在两类电位分布之间选择合适的等高线,就可以认为是模式分类的判别函数
模式分类的判别函数可由分布在模式空间中的许多样本向量\(\{x_k,k = 1,2,\cdots,x_k \in (\omega_1 \bigcup \omega_2)\}\)的势函数产生,任意一个样本所产生的势函数以\(K(x,x_k)\)表征,则判别函数\(d(x)\)可由势函数序列\(K(x,x_1),K(x,x_2),\cdots\)来构成,序列中的这些实函数相应于在训练过程中输入机器的训练模式样本\(x_1,x_2,\cdots\),在训练状态,模式样本逐个输入分类器,分类器就连续计算相应的势函数,在第\(k\)步迭代时的积累位势决定于在该步前所有的单独实函数的累加,以\(K(x)\)表示积累位势函数,若加入的训练样本\(x_{k + 1}\)是错误分类,则积累函数需要修改,若是正确分类,则不变

判别函数的产生

设初始势函数\(K_0(x) = 0\)
第一步:加入第一个训练样本\(x^1\),则有:

\[K_1(x) = \begin{cases} K(x,x^1) & x^1 \in \omega_1 \\ -K(x,x^1) & x^1 \in \omega_2 \end{cases} \]

这里第一步积累势函数\(K_1(x)\)描述了加入第一个样本时的边界划分,当样本属于\(w_1\)时,势函数为正,否则为负
第二步:加入第二个训练样本\(x^2\),则有

  • 若\(x^2 \in w_1\)且\(K_1(x^2) > 0\),或\(x^2 \in w_2\)且\(K_1(x^2) < 0\)则分类正确,此时\(K_2(x) = K_1(x)\)即累积势函数不变
  • 若\(x^2 \in w_1\)且\(K_1(x^2) < 0\),则

\[K_2(x) = K_1(x) + K(x,x^2) = \pm K(x,x^1) + K(x,x^2) \]

  • 若\(x^2 \in w_2\)且\(K_1(x^2) > 0\),则

\[K_2(x) = K_1(x) - K(x,x^2) = \pm K(x,x^1) - K(x,x^2) \]

第\(K\)步:设\(K_k(x)\)为加入训练样本\(x^1,x^2,\cdots,x^k\)后的积累位势,则加入第\(k + 1\)个样本时,\(K_{k + 1}(x)\)决定如下:

  • 若\(x^{k + 1} \in w_1\)且\(K_k(x^{k + 1}) > 0\),或\(x^{k + 1} \in w_2\)且\(K_k(x^{k + 1}) < 0\)则分类正确,此时\(K_{k + 1}(x) = K_k(x)\)即累积势函数不变
  • 若\(x^{k + 1} \in w_1\)且\(K_k(x^{k + 1}) < 0\),则

\[K_{k + 1}(x) = K_k(x) + K(x,x^{k + 1}) \]

  • 若\(x^{k + 1} \in w_2\)且\(K_k(x^{k + 1}) > 0\),则

\[K_{k + 1}(x) = K_k(x) - K(x,x^{k + 1}) \]

因此积累位势的迭代运算可写成\(K_{k + 1}(x) = K_k(x) + r_{k + 1}K(x,x^{k + 1})\),其中\(r_{k + 1}\)为校正系数:

\[r_{k + 1} = \begin{cases} 0 & x^{k + 1} \in w_1,K_k(x^{k + 1}) > 0 \\ 0 & x^{k + 1} \in w_2,K_k(x^{k + 1}) < 0 \\ 1 & x^{k + 1} \in w_1,K_k(x^{k + 1}) < 0 \\ -1 & x^{k + 1} \in w_2,K_k(x^{k + 1}) > 0 \end{cases} \]

若从给定的训练样本集\(\{x^1,x^2,\cdots,x^k,\cdots\}\)中去除不使积累位势发生变化的样本,即使\(K_j(x^{j + 1}) > 0\)且\(x^{j + 1} \in w_1\)或\(K_j(x^{j + 1}) < 0\)且\(x^{j + 1} \in w_2\)的那些样本,可得到一简化的样本序列\(\{\hat{x}^1,\hat x^2,\cdots,\hat x^j,\cdots,\}\),他们完全是校正错误的样本,此时上述迭代公式可归纳为:

\[K_{k + 1}(x) = \sum_{\hat x_j}a_jK(x,\hat x^j) \]

其中:

\[a_j = \begin{cases} 1 & \hat x^j \in w_1 \\ -1 & \hat x^j \in w_2 \end{cases} \]

也就是说由\(k = 1\)个训练样本产生的积累位势,等于\(w_1,w_2\)类中的校正错误样本的总位势之差

势函数的选择

选择势函数的条件:一般来说,若两个\(n\)维向量\(x,x_k\)的函数同时满足下面三个条件,则可作为势函数:

  • \(K(x,x_k) = K(x_k,x)\)并且当且仅当\(x = x_k\)时达到最大值
  • 当向量\(x\)与\(x_k\)的距离趋向于无穷时,\(K(x,x_k)\)趋向0
  • \(K(x,x_k)\)是光滑函数,且是\(x\)与\(x_k\)之间距离的单调下降函数

下面是构成势函数的两种方式

  • 第一类势函数:可用对称的有限多项式展开,即:

\[K(x,x^k) = \sum_{i = 1}^m\varphi_i(x)\varphi_i(x^k) \]

其中\(\{\varphi_i(x)\}\)在模式定义域内为正交函数集,将这类势函数代入判别函数,有:

\[\begin{aligned} d_{k + 1}(x) &= d_k(x) + r_{k + 1}\sum_{i = 1}^m\varphi_i(x^{k + 1})\varphi_i(x) \\ &= d_k(x) + \sum_{i = 1}^mr_{k + 1}\varphi_i(x^{k + 1})\varphi_i(x) \end{aligned} \]

得迭代关系:

\[d_{k + 1}(x) = \sum_{i = 1}^mC_i(k + 1) \varphi_i(x) \]

其中

\[C_i(k + 1) = C_i(k) + r_{k + 1}\varphi_i(x^{k + 1}) \]

因此,积累位势可写成:

\[K_{k + 1}(x) = \sum_{i= 1}^mC_i(k+ 1)\varphi_i(x), \]

  • 第二类势函数:选择双变量\(x,x^k\)的对称函数作为势函数,即\(K(x,x^k) = K(x^k,x)\),并且它可展开成无穷级数,例如:

\[\begin{aligned} K(x,x^k) &= e^{-a||x - x^k||^2} \\ K(x,x^k) &= \frac{1}{1 + \alpha||x - x^k||^2} \\ K(x,x^k) &= \frac{\sin\alpha||x - x^k||^2}{\alpha||x - x^k||^2} \end{aligned} \]

决策树

决策树对应于对特征空间的一个划分,它把特征空间分成若干个区域,在每个区域中,某类的样本占优势,二叉树结构分类器可以把一个复杂的多类别分类问题转化为多级多个两类问题来解决,在每个非终止节点都把样本集分成左右两个子集,分成的每一部分任然可能包含多个类别的样本,可以把每一部分再分成两个子集,如此下去,直至分成的每一部分只包含同一类别的样本,或某一类样本占优势为止

标签:lecture3,模式识别,样本,判别函数,varphi,cdots,势函数,omega
From: https://www.cnblogs.com/eryoyo/p/16793849.html

相关文章