首页 > 其他分享 >模式识别与机器学习——生成式分类器 课程笔记

模式识别与机器学习——生成式分类器 课程笔记

时间:2023-09-25 17:15:30浏览次数:41  
标签:样本 模式识别 生成式 贝叶斯 分类器 ij 参数 theta omega

有监督学习:从有标记的数据中学习推断函数

目标函数:\(Y=f(x)\)或\(P(Y|X)\)

注意:条件概率用小写p表示,先验概率用大写P表示。

贝叶斯判别原则

给定观测值X,判断其属于\(\omega 1\)类还是\(\omega 2\)类,最小化误差概率条件下,\(P(\omega1|X) > P(\omega2|X)\)则判断成\(X\in\omega 1\),否则\(X\in\omega 2\)(哪一类概率大就判断成哪一类)

贝叶斯判别:\(P(\omega_1|X)\quad?\quad P(\omega_2|X)\)

由贝叶斯公式:

得到\(P(\omega i|x) = \Large \frac{p(x|\omega i)P(\omega i)}{p(x)}\)

由全概率公式:

得到\(P(\omega_i|x) = \Large \frac{p(x|\omega_i)P(\omega_i)}{\sum p(x|\omega_i)P(\omega_i)}\)

由于分母都是\(p(x)\),只需比较分子的大小

即\(p(x|\omega_1)P(\omega_1)\ >\ p(x|\omega_2)P(\omega_2)\)则判断为\(\large\omega_1\)

若\(p(x|\omega_1)P(\omega_1)\ <\ p(x|\omega_2)P(\omega_2)\)则判断为\(\large\omega_2\)

似然的概念参考知乎回答如何理解似然函数? - HiTao的回答 - 知乎
https://www.zhihu.com/question/54082000/answer/470252492

似然函数:\(P(x|\theta)\),将X看为常量,以\(\theta\)为变量的函数。=>对于已知的情况x,找到一个\(\theta\)使x出现的概率最大

似然比:\(l_{12}(x)=\large\frac{p(x|\omega_1)}{p(x|\omega_2)}\)

判决阈值:\(\large\frac{P(\omega_2)}{P(\omega_1)}\)

似然比>判决阈值,则属于\(\large\omega_1\),否则属于\(\large\omega_2\)

贝叶斯最小风险判别

如果分类器判别x属于\(\omega_j\)类,但它实际来自\(\omega_i\)类,也就是说分类失败,此时\(L_{ij}\)为失分,对应的条件风险为后验概率进行\(L_{ij}\)的加权运算\(L_{ij}P(\omega_i|x)\)

\(r_j = \sum_{i=1}^{M}L_{ij}P(\omega_i|x)\)

\(L_{ij}\) 称为将本应属于\(ω_i\)类的模式判别成属于\(ω_j\) 类的是非代价。

\(L_{ij}\)的取值:

若i==j,则判别正确,得分,取负值或者零,表示不失分

否则判别错误,失分,取正值

最小平均条件风险分类器

分类器对每一个模式x有M种可能的类别可供选择。

若对每一个x计算出全部类别的平均风险值\(r_1(x), r_2(x),…, r_M(x)\),并且将x指定为是具有最小风险值的那一类,则这种分类器称为最小平均条件风险分类器

\(\large r_j(x)=\frac{1}{p(x)} \sum_{i=1}^{M}L_{ij}p(x|\omega_i)P(\omega_i)\)

一般多类(M类)的情况

\(r_j(x) = \large\sum_{i=1}^M L_{ij}p(x|\omega_i)P(\omega_i)\)
特例:当i==j时,\(L_{ij} = 0\),不相等时,\(L_{ij}=1\)

则\(r_j(x)=\sum_{i=1}^{M}p(x|\omega_i)P(\omega_i) - p(x|\omega_j)P(\omega_j) = p(x)-p(x|\omega_j)P(\omega_j)\)

补一个\(L_{jj}\)项凑成全概率公式,再减掉,就得到了贝叶斯判别

判别函数为:\(d_j(x)=p(x|\omega_j)P(\omega_j)\),d大,\(r_j\)就小

所以\(\forall i\neq j, d_i(x)>d_j(x)\),则\(x\in \omega_i\)

朴素贝叶斯

在特征\(x=(x_1, x_2, x_3, ..., x_d)\) 是多维向量时,朴素贝叶斯算法是假设各个特征之间相互独立。

不独立时需要计算\(2^d\)次,独立只需要算d次

\(p(x_1, x_2, x_3, ..., x_d|\omega)=\prod_{i=1}^{d}p(x_i|\omega)\)

概率分布参数估计

预先假设每一个类别的概率密度函数的形式已知,而具体的参数未知。

矩估计:用样本的矩去估计总体的矩,即用样本一阶原点矩去估计总体的一阶原点矩,用样本的二阶原点矩去估计总体的二阶原点矩。

最大似然估计(MLE):把参数看作是非随机变量,寻找使似然最大的参数的值。

最大后验估计(MAP):把这些参数看成是随机变量时,最大化参数的后验分布。

贝叶斯参数估计:将参数看成是随机变量,估计参数的后验分布。

将参数看成随机变量意味着参数服从某种分布

最大似然估计(MLE)

独立同分布假设:样本集D中包含N个样本,样本是独立同分布的随机变量

\(p(D|\theta)=\prod_{i=1}^Np(x_i|\theta)\) D确定且\(\theta\)是参数=>似然函数

对似然函数求对数,把乘法转为加法:\(l(\theta)=logp(D|\theta)=\sum_{i=1}^{n}logp(x_i|\theta)\)

最大似然估计:寻找使\(l(\theta)\)最大的参数\(\theta\)=>求导

\(\hat{\theta}=arg \mathop{max}\limits_{\theta}l(\theta)\)

最大后验估计(MAP)

将参数看作随机变量,对其有一个先验的分布认知。通过观测到的样本数据,计算样本的后验分布,对先验概率进行调节。

最大化参数的后验分布\(\Large\frac{p(D|\theta)p(\theta)}{p(D)}\)

贝叶斯参数估计

贝叶斯也认为参数是一个随机变量,根据样本集D和参数\(\theta\)的先验分布\(p(\theta)\),估计参数的后验分布\(p(\theta|D)\),能过提高小样本集条件下估计的准确性,但计算比较复杂

  1. 确定参数\(\theta\)的先验分布\({p(\theta)}\)

  2. 由样本集\(D=(x_1, x_2, x_3, ..., x_N)\),求出样本联合分布\(p(D|\theta)=\large\prod_{n=1}^N p(x_n|\theta)\)

  3. 利用贝叶斯公式求\(\theta\)的后验分布\(p(\theta|D)=\Large\frac{p(D|\theta)p(\theta)}{\int_\theta p(D|\theta)p(\theta)d\theta}\)

  4. 求出贝叶斯估计值\(\hat{\theta}=\large \int_\theta \theta p(\theta|D)d\theta\)

贝叶斯估计

\(D=(x_1, x_2, ......)\)表示用于估计参数的样本集,其中\(x_i\)逐次给出。\(\theta\)表示给出前N个样本后估计的参数。\(p(\theta_N)=p(\theta|x_1, x_2, x_3, ..., x_N)\)

\(p(\theta|x_1, x_2) = \Large\frac{p(x_2|\theta, x_1)p(\theta|x_1)}{p(x_2|x_1)}=\frac{p(x_1, x_2|\theta)p(\theta)}{p(x_1, x_2)}\)

对于\(p(\theta|x_1, x_2)\)而言,\(p(\theta|x_1)\)相当于它的先验

正态分布模式的贝叶斯分类器

待续……

标签:样本,模式识别,生成式,贝叶斯,分类器,ij,参数,theta,omega
From: https://www.cnblogs.com/moomight/p/17724444.html

相关文章

  • 在线问诊 Python、FastAPI、Neo4j — 构建问题分类器
    目录构建字典数据构建Trie字典树按实体组装字典问题分析将问题进行分析,和系统已有的分类进行关联构建字典数据将构建的知识图片字典化,用于后面对问题的解析,下图为症状的字典,其它字典同理构建Trie字典树将建字典数据,组装集合cur_dir='/'.join(os.path.abspath(__file......
  • 浪潮信息面向全行业公布设计指南,以开放规范促进生成式AI多元算力发展
    随着生成式AI快速发展,人工智能在各行各业广泛应用,AI算力需求剧增,AI芯片多元化趋势凸显,带来了芯片开发成本高、多元芯片使用难等挑战。近日,浪潮信息面向全行业公布了《开放加速规范AI服务器设计指南》(以下简称《指南》)。《指南》基于浪潮信息在开放加速计算领域丰富的产品研发和工程......
  • SK 简化流行编程语言对 生成式AI 应用开发的支持
    SemanticKernel[1]是一个将大型语言模型(LLM)与流行的编程语言相结合的SDK。Microsoft将SemanticKernel(简称SK)称为轻量级SDK,支持AILLM的集成。Microsoft今年3月份时候首次开源了SK,SK不仅支持C#、还支持Java和Python编程语言。生成式AI应用开发所带来新的语义编程,国际组织世......
  • 两个numpy技巧(模式识别总结)
    1.查找符合特定条件的Numpyndarray对象中元素的数量np.count_nonzero()函数可以用来完成此操作。以下是使用np.count_nonzero()函数快速查找数组中小于5的元素数量的示例:count=np.count_nonzero(array<5)在此示例中,我们使用array<5来获取array中小于5的所有元素,然后......
  • 加速端到端的生成式AI进程,亚马逊云科技服贸会惠普数字经济发展
     9月2日-9月6日,2023年中国国际服务贸易交易会在北京召开,亚马逊云科技积极参与,并分享了创新技术和成功案例。  加速端到端的生成式AI之旅 在服贸会成果发布会上,亚马逊云科技大中华区战略业务发展部总经理顾凡为大家带来了“携手亚马逊云科技,加速端到端的生成式AI之旅”主题演讲......
  • 亚马逊云科技与德勤中国推出新工具,有效缓解生成式AI时代下的安全问题
    随着人工智能技术的飞速发展,生成式AI应用越发广泛,在各领域迎来了新的机遇,但同时也在安全层面给企业带来了新的挑战。网络、数据泄露、隐私侵犯等安全威胁,以及法律法规的不断更新,使跨区域运营过程中的网络安全和合规成为企业持续发展不可或缺的一环。 亚马逊云科技与全球核心级咨询......
  • 从数据开始,构建值得信赖的生成式AI应用
    随着人工智能技术的不断发展和应用,生成式AI成为了近年来最受关注的技术之一。生成式AI是指通过机器学习算法来生成全新的、真实的、有用的数据,例如文本、图像、音频和视频等。这种技术的出现,不仅可以极大地提高人们的生产效率,还可以帮助人们更好地理解和探索世界。但是,要想构建一个......
  • 生成式人工智能体验[4]-模型微调
    摘要在AutoDL平台使用GPU和AdvertiseGen数据集对ChatGLM2模型进行微调.平台信息AutoDLNVIDIARTX4090/24GB(单精82.58TFLOPS/半精165.2TensorTFLOPS)AutoDL简介[https://www.autodl.com/home]更大更全更专业的AI算力集群,即刻开启算力租用.按小时租用GPU进行计......
  • 使用生成式 AI 增强亚马逊云科技智能文档处理
    数据分类、提取和分析对于处理大量文档的组织来说可能具有挑战性。传统的文档处理解决方案是手动的、昂贵的、容易出错的,并且难以扩展。利用 AmazonTextract 等AI服务,亚马逊云科技智能文档处理(IDP)允许您利用业界领先的机器学习(ML)技术来快速准确地处理任何扫描文档或图......
  • 使用 Amazon SageMaker 的生成式 AI 定制个性化头像
    生成式AI已经成为各行业创意过程增强和加速的常用工具,包括娱乐、广告和平面设计。它可以为观众创造更个性化的体验,并提高最终产品的整体质量。亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、活动与竞赛等。帮......