首页 > 其他分享 >【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器

时间:2023-05-10 16:31:47浏览次数:39  
标签:概率 后验 贝叶斯 分类器 女孩 6.1 先验概率 蹦迪



文章目录

  • 6. 朴素贝叶斯
  • 6.0 贝叶斯决策论
  • 6.0.1 简介
  • 6.0.2 贝叶斯解决的问题-逆概
  • 6.1.3 先验概率和后验概率
  • 1) 条件概率
  • 2) 先验概率
  • 3) 后验概率
  • 4) 例子介绍
  • 6.0.4 贝叶斯定理
  • 1) 公式
  • 2) 出现原因(逆概问题)
  • 6.0.5 例子
  • 2) 例一
  • 3) 例二
  • 4) 例三
  • 6.0.6 全概率
  • 6.1 贝叶斯分类器
  • 6.1.1 贝叶斯判定准则
  • 1) 期望损失(条件风险)R(x)
  • 2) 最小条件风险的类别标记h(x)
  • 3) 最小化分类错误率的贝叶斯最优分类器
  • 4) 问题描述
  • 5) 常见问题


6. 朴素贝叶斯


图是别人的,copy过来的,

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能

6.0 贝叶斯决策论

学习贝叶斯的话,需要概率论的知识。不然完全听不懂

6.0.1 简介

贝叶斯分类器是一类分类算法的总称,贝叶斯定理是这类算法的核心,因此统称为贝叶斯分类。

贝叶斯决策论通过相关概率已知的情况下利用误判损失来选择最优的类别分类。

朴素贝叶斯(Naive Bayesian algorithm)是有监督学习的一种分类算法,它基于“贝叶斯定理”实现,该原理的提出人是英国著名数学家托马斯·贝叶斯。贝叶斯定理是基于概率论和统计学的相关知识实现的,因此在正式学习“朴素贝叶斯算法”前,我们有必要先认识“贝叶斯定理”。

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_02

6.0.2 贝叶斯解决的问题-逆概

介绍一下,啥叫正向概率,啥叫逆向概率?才能理解下面的 相关概念

  • 正向概率:假设袋子里面有【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_03个白球,【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_04个黑球,你伸手进去摸一把,摸出黑球的概率是多大??
  • 逆向概率:如果我们事先不知道袋子里面黑白球的比例,而是闭着眼睛摸出一个(或好几个)球,观察这些取出来的球的颜色之后,那么我们可以就此对袋子里面的黑白球的比例作出什么样子的推测??

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_05

下面有个图,方便理解

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_06

假设学校里面的人的总数是【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_07

穿长裤的男生【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_08

  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_09是男生的概率=60%
  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_10是条件概率,即在【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_11这个条件下穿长裤的概率是多大,这里是100%,因为所有男生都穿长裤

穿长裤的女生:【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_12

求解:穿长裤的人里面有多少女生??

  • 穿长裤总数【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_13
  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_14

6.1.3 先验概率和后验概率

首先得了解什么叫做 先验概率,后验概率,全概率公式等相关概念

1) 条件概率

条件概率是“贝叶斯公式”的关键所在,那么如何理解条件概率呢?其实我们可以从“相关性”这一词语出发。举一个简单的例子,比如小明和小红是同班同学,他们各自准时回家的概率是 P(小明回家) = 1/2 和 P(小红回家) =1/2,但是假如小明和小红是好朋友,每天都会一起回家,那么 P(小红回家|小明回家) = 1 (理想状态下)。

上述示例就是条件概率的应用,小红和小明之间产生了某种关联性,本来俩个相互独立的事件,变得不再独立。但是还有一种情况,比如小亮每天准时到家 P(小亮回家) =1/2,但是小亮喜欢独来独往,如果问 P(小亮回家|小红回家) 的概率是多少呢?你会发现这两者之间不存在“相关性”,小红是否到家,不会影响小亮的概率结果,因此小亮准时到家的概率仍然是 1/2。

贝叶斯公式的核心是“条件概率”,譬如 P(B|A),就表示当 A 发生时,B 发生的概率,如果P(B|A)的值越大,说明一旦发生了 A,B 就越可能发生,两者可能存在较高的相关性

2) 先验概率

先验概率 是指在事件未发生时,估计该事件发生的概率

比如投掷一枚匀质硬币,“字”朝上的概率。

3) 后验概率

后验概率 是指基于某个发生的条件事件,估计某个事件的概率,它是一个条件概率

P(A|B)=P(类别|特征),我们根据看到的特征,判断类别。这里讲的一个就是逆概问题

我们知道每一个事物都有自己的特征,比如前面所说的轿车、货车、客车,它们都有着各自不同的特征,距离过远的时候,我们无法用肉眼分辨,而当距离达到一定范围内就可以根据各自的特征再次做出概率预判,这就是后验概率。

比如轿车的速度相比于另外两者更快可以记做 P(轿车|速度快) = 55%,而客车体型可能更大,可以记做 P(客车|体型大) = 35%。

如果用条件概率来表述 P(体型大|客车)=35%,这种通过“车辆类别”推算出“类别特征”发生的的概率的方法叫作“似然度”。这里的似然就是“可能性”的意思。

4) 例子介绍

下面例子,看不懂,就看上面的学生的例子。下面还有几个例子

玩英雄联盟占到中国总人口的60%,不玩英雄联盟的人数占到40%:

为了便于数学叙述,这里我们用变量X来表示取值情况,根据概率的定义以及加法原则,我们可以写出如下表达式:

P(X=玩lol)=0.6;P(X=不玩lol)=0.4,这个概率是统计得到的,或者你自身依据经验给出的一个概率值,我们称其为先验概率(prior probability)

另外玩lol中80%是男性,20%是小姐姐,不玩lol中20%是男性,80%是小姐姐,这里我用离散变量Y表示性别取值,同时写出相应的条件概率分布:

P(Y=男性|X=玩lol)=0.8,P(Y=小姐姐|X=玩lol)=0.2

P(Y=男性|X=不玩lol)=0.2,P(Y=小姐姐|X=不玩lol)=0.8

那么我想问在已知玩家为男性的情况下,他是lol玩家的概率是多少:

依据贝叶斯准则可得:

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_15

最后算出的P(X=玩lol|Y=男性)称之为X的后验概率,即它获得是在观察到事件Y发生后得到的

6.0.4 贝叶斯定理

上面做了这么多铺垫,下面就讲一下这一章最核心的朴素贝叶斯定理,说白了就是一个公式。计算后验概率的

1) 公式

简单公式
【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_16

首先我们要了解上述公式中符号的意义:

  • P(A) 这是概率中最基本的符号,表示 A 出现的概率。比如在投掷骰子时,P(2) 指的是骰子出现数字“2”的概率,这个概率是 六分之一。
  • P(B|A) 是条件概率的符号,表示事件 A 发生的条件下,事件 B 发生的概率,条件概率是“贝叶斯公式”的关键所在,它也被称为“似然度”。
  • P(A|B) 是条件概率的符号,表示事件 B 发生的条件下,事件 A 发生的概率,这个计算结果也被称为“后验概率”。
  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_17可能性函数

通用公式

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_18

  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_19: 后验概率
  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_20:类条件概率
  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_21: 先验概率
  • 【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_22:全概率

如果参照上面的逆概的思路,可以写成下面的东西,更加的容易懂

对于每个特征【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_23,我们想要知道样本在这个特性x下属于哪个类别,即求后验概率【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_24最大的类标记。

这样基于贝叶斯公式,可以得到:

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_25

2) 出现原因(逆概问题)

如果能掌握事情的全部信息,当然能够计算出一个客观概率(古典概率)

但是生活中的大多数决策面临的信息都是不全的,我们手中只有有限的信息,既然无法得到全部信息,我们就在信息有限的情况下,尽可能做出一个好的预测。

也就是在主观判断的基础上先估一个值(先验概率),然后根据观察的新的信息不断修正(可能性函数)

6.0.5 例子

2) 例一

你认识一个女孩,突然你知道她喜欢去夜店蹦迪

假如女孩中十个有一个就是渣女,那么女孩中渣女的比例占全体的0.1,正经女孩的比例占全体的0.9;

0.1

0.9

渣女

正经女孩

找出正经女孩和渣女蹦迪的概率,我们没有相关数据,但是不要紧,我们可以设定先验概率;

众所周知,蹦迪的女孩经常穿着暴露,经常和陌生男人“不小心”会有敏感部位的肢体接触,

可以断定,是渣女的概率远远超过正经女孩;我们可以预设:

类别

爱蹦迪

不爱蹦迪

正经女孩

0.05

0.95

渣女

0.5

0.5

一共存在四种可能性:渣女爱蹦迪、渣女不爱蹦迪、正经女孩爱蹦迪、正经女孩不爱蹦迪;它们的面积分别为:0.05、0.05、 0.045、 0.855;

0.1

0.9

渣女爱蹦迪0.05=0.1*0.5

正经女孩爱蹦迪0.045=0.05*0.9

渣女不爱蹦迪0.05=0.1*0.5

正经女孩不爱蹦迪0.855=0.95*0.9

作为一个男人,现在你面临的情况是:这个女孩爱蹦迪。这意味着,你观察到了该女孩的某一种行为。这条信息的内容是:“该女孩不蹦迪”的可能性消失了。上面提到,女孩分为“渣女”和“正经女孩”两类,女孩的行为分为“爱蹦迪”和“不爱蹦迪”两类,可能的世界一共分为四种。

在现实世界中,因为已经观测到“爱蹦迪”这一行为,因此“不爱蹦迪”这一行为覆盖的世界就不存在了。在一部分可能性不复存在,而一部分可能性又在现实中受到限制的情况下,概率发生了 变化;

0.1

0.9

渣女爱蹦迪0.05

正经女孩爱蹦迪0.045=0.05*0.9

可能性消失(渣女不爱蹦迪)

可能性消失(正经女孩不爱蹦迪)

最初,4种世界的概率相加之和为1,但是由于不爱蹦迪的可能性不复存在,此时:渣女爱蹦迪、正经女孩爱蹦迪的概率相加之和便不等于1。为此,我们需要保持之前的比例关系,通过回复标准化条件,从而使概率发生变化。

(左边渣女爱蹦迪长边形面积):(右边正经女孩爱蹦迪长边形面积)=0.05:0.045=10:9;

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_26

从上面我们可以看出,渣女爱蹦迪的概率为0.5263.这个概率,被称为“贝叶斯概率”。

渣男同理。

数学解释如下:

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_27是渣女,B爱蹦迪

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_28

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_29

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_30(在已经知道爱蹦迪的前提下,是渣女的概率)=要求的

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_31(已经是渣女的情况下,爱蹦迪的概率)=P(渣女爱蹦迪)=0.05(已知)

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_32

3) 例二

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_33

4) 例三

那贝叶斯定理到底是什么呢?

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_34

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_35

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_36

可见【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_37

由条件概率的公式也可以写成

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_38

算出来的结果就是事件【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_39在样本空间【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_40下发生的概率。

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_41

先发生【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_42再发生【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_39的事件

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_44

计算事件在样本空间下的概率

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_45

那么【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_46发生在【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_42中的概率

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_48

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_49

这就是贝叶斯公式

6.0.6 全概率

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_50

6.1 贝叶斯分类器

概率知识+对决策带来的损失的认识→最优决策

6.1.1 贝叶斯判定准则

1) 期望损失(条件风险)R(x)

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_51种可能的标记,样本分类【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_52

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_53是将【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_54的样本错误的分类为【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_55所带来的损失

基于后验概率【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_56可获得将样本【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_23分类为【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_54所产生的期望损失,即在样本【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_23上的条件风险

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_60

2) 最小条件风险的类别标记h(x)

任务是寻找一个判定标准【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_61最小化风险(即在所有样本上的条件风险的期望)

总体风险【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_62(在所有样本上的条件风险的期望)

显然,对每个样本【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_63,若【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_64能最小化条件风险【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_65,则总体风险【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_66也将最小化,

这就产生了贝叶斯判定准则(Bayes decision rule)

为最小化总体风险,只需在每个样本上选择那个能使条件风险【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_67最小的类别标记,即
【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_68

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_69叫做贝叶斯最优分类器,与之对应的总体风险【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_70叫做贝叶斯风险,【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_71反映分类器所能到达的最好性能

3) 最小化分类错误率的贝叶斯最优分类器

具体来说,若目标是最小化分类错误率,把误判损失【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_53可写为
【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_73

此时条件风险

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_74

于是,最小化分类错误率的贝叶斯最优分类器

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_75

即对每个样本【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_23,选择能使后验概率【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_24最大的类别标记。

4) 问题描述

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_78

综上所述,问题转换为了基于有限的训练样本集尽可能准确地估计后验概率【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_24,求最小化条件风险即最大化后验概率。

欲使用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P(c|x)

然而,在现实任务中这通常难以直接获得。机器学习所要实现的是基于有限的训练样本集尽可能准确地估计出后验概率P(c|x)。所以得需要下面一个章节的极大似然估计


总结一下就是

分类问题被划分成了两个阶段:推断inference阶段决策decision阶段

  • 推断阶段:使用训练数据学习后验概率
  • 决策阶段:使用这些后验概率来进行最优的分类

现在呢???根据上面的计算。

基于贝叶斯准则,我们把分类问题转换成了【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_80

我们知道了想要进行分类,就必须得知道后验概率

估计后验概率主要有两种策略:

  • 判别式模型(discriminative models):直接对类后验概率p(c|x)进行推断
    【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_81
  • 生成式模型(generative models):对**类条件概率P(x|c)先验概率P©**进行推断。
    【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_82

根据现实,后验概率呢?很难获得。所以第一种策略行不通.

  • 所以得需要极大似然估计来估计 类条件概率P(x|c)
  • 根据大数定理,当训练集样本包含充足的独立同分布样本时,【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_83可通过各类样本出现的概率进行估计

(条件风险 --> 后验概率 --> 先验概率和似然)

5) 常见问题

假设数据

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_84这句话啥意思呢???,是下面的意思

解释如下:

首先我们假定在买商品,商品生产出来优秀1,良好2,不及格3规格。

优秀1

良好2

不及格3

优秀1

损失为0。【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_85因为本来就是优秀

损失为1.【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_86因为优秀的产品,被划分到不良好,卖亏了

损失为1.因为优秀的产品被划分到不及格,卖亏了

良好2

损失为1,【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_87。因为降低用户信任度

损失为0,因为本来就是良好

损失为1.

不及格3

损失为1,因为不及格的产品被判断为优秀。降低用户信任度

损失为1.因为本来是不及格变成良好了,对用户是欺骗。降低用户信任度

损失为0,因为本来就是不及格

变成【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_53

优秀1

良好2

不及格3

优秀1

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_89

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_90

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_91

良好2

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_92

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_93

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_94

不及格3

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_95

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_96

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_97

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_98这句话啥意思呢???,

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_99 代表优秀,【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_100代表良好,【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_101代表不及格

所以【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_102

首先由公式【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_60

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_104

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_105

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_106

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_概率论_107

同理

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_108

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_109

看出【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_74

数学推导如下

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_人工智能_111

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_60

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_先验概率_113

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_机器学习_114

【机器学习之 朴素贝叶斯】6.1 贝叶斯分类器_条件概率_115

标签:概率,后验,贝叶斯,分类器,女孩,6.1,先验概率,蹦迪
From: https://blog.51cto.com/u_16106623/6262697

相关文章

  • 多连接的数据库管理工具Navicat Premium 16.1.9 Mac版
    NavicatPremium是一款多连接的数据库管理工具,它是一款免费的多通道、多连接程序,它支持企业和组织同时使用多个应用程序,在一个应用程序中运行多个数据库管理程序。使用Premium可以在同一应用程序中执行多个数据库程序。NavicatPremium可根据应用程序或Web服务之间的速度差异调......
  • centos(linux):yum报错:removing mirrorlist with no valid mirrors的处理(centos 6.1
    一,报错[root@osc~]#yuminstall-ypython3-pipLoadedplugins:fastestmirror,securitySettingupInstallProcessDeterminingfastestmirrorsYumRepoError:AllmirrorURLsarenotusingftp,http[s]orfile.Eg.Invalidrelease/repo/archcombination/rem......
  • cassandra-0.6.1安装配置(与集群)
    关键字:cassandra-0.6.1安装配置(与集群)1下载Cassandrahttp://cassandra.apache.org/下载版本0.5.1。2安装Cassandra安装目录D:\apache-cassandra-0.5.1。在此需要修改两个配置文件1修改conf目录下的log4j.properties文件:log4j.appender.R.Fil......
  • 8.6.1 直线与直线垂直
    \({\color{Red}{欢迎到学科网下载资料学习}}\)[【基础过关系列】高一数学同步精品讲义与分层练习(人教A版2019)](https://www.zxxk.com/docpack/2921718.html)\({\color{Red}{跟贵哥学数学,so\quadeasy!}}\)必修第二册同步巩固,难度2颗星!基础知识异面直线所成的角(1)范......
  • OpenCV3训练人脸检测分类器生成XML文件的过程
    原文:https://www.bilibili.com/read/cv10624306/OpenCV训练自己的分类器注:本文写的是一个训练人脸分类器的例子,亲自试验过,采用的是openCV3.41.准备训练样本看网上说正负样本比例为1:3最佳;尺寸为20x20最佳附上人脸训练的数据集的下载链接:https://pan.baidu.com/s/1AxoIMFycfpeIMtD......
  • 6.1 平面向量的概念
    \({\color{Red}{欢迎到学科网下载资料学习}}\)[【基础过关系列】高一数学同步精品讲义与分层练习(人教A版2019)](https://www.zxxk.com/docpack/2921718.html)\({\color{Red}{跟贵哥学数学,so\quadeasy!}}\)必修第二册同步巩固,难度2颗星!基础知识向量的概念向量:既有大小......
  • 时序预测 | MATLAB实现BO-CNN-LSTM贝叶斯优化卷积神经网络-长短期记忆网络时间序列预
    ✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。......
  • UNRAID6.11.1开心版下载及使用说明(集成中文插件)
    众所周知,所谓开心版就是已经解除限制功能,可正常开心使用。申明:此版本用于个人测试研究使用,如用于生产环境请购买官方正版,支持正版。部份资源转载于网络,请自行测试研究,下载测试后自行删除,如因软件版权及功能引起的任何问题自用户自行承担。该版本集成了常用插件,默认简体中文界面,......
  • websphere6.1开发、部署、远程调用EJB2.0
    开发工具是IBMRAD7.5.4。WAS版本6.1。EJB版本2.0。开发过程如图:新建完后,工程结构如下:再新建SessionBean下一步完成。如图:修改几个文件:packagecom.ejb;importstaticjava.lang.System.out;/***BeanimplementationclassforEnterpriseBean:HelloSession*/publicc......
  • Chapter4 朴素贝叶斯案例
    朴素贝叶斯案例:过滤垃圾邮件1.案例的流程示例:使用朴素贝叶斯对电子邮件进行分类(1)收集数据:提供文本文件。(2)准备数据:将文本文件解析成词条向量。(3)分析数据:检查词条确保解析的正确性。(4)训练算法:使用我们之前建立的trainNB0()函数。(5)测试算法:使用c......