人工智能的四要素是算法、算力、数据和场景,之所以能够智能,离不开长期发展的数学原理,人工智能背后强有力的支撑便是数学、物理等基础学科,本篇笔者浅谈、分享一下个人详学习人工智能的一个前期知识储备阶段对数学方面的积累,列举一些重要、常见的数学公式、算法。
一元函数微分学
导数的几何意义和物理意义
导数的几何意义——切线的斜率
曲线y=f(x)在点A处切线的斜率就是函数f(x)在点A处的导数
导数的物理意义——瞬时速度
如果物体按s=f(t)的规律做变速直线运动,则在某一刻的瞬时速度即为函数在该时刻的导数
基本初等函数
两个特殊极限:
二阶导数判断凹凸性_泰勒展开式
函数的凹凸性:
为了研究函数曲线的弯曲方向,引入了“凹凸性”的概念
- 如果连接曲线上任意两点的割线段都在该两点间的曲线弧之上,那么该段曲线弧称为凹的,反之则为凸的。
设f(x)在[a,b]上连续,在(a,b)内具有二阶导数
若函数f(x)在(a,b)内有f''(x)>0,则函数曲线在[a,b]上是凹的;
若函数f(x)在(a,b)内有f''(x)<0,则函数曲线在[a,b]上是凸的;
例如:x^2^的二阶导数是2,恒大于0,所以在其定义域内是凹的。
泰勒公式
泰勒公式是一个非常重要的内容,它将一些复杂的函数近似地表示为简单的多项式函数,泰勒公式这种化繁为简的功能,使得它成为分析和研究许多数学问题的有力工具。
- 泰勒展开是通过多项式函数来近似一个可导函数 f(x),在 x=x~0~ 处进行泰勒展开
- 很多时候函数 f(x)可能会非常复杂,这时可以使用泰勒展开做一个近似
- 一元函数泰勒展开
函数 f(x)在含 x~0~ 的某个开区间 (a,b)内具有直到 n 阶导数,则对任意的 x∈(a,b)有
其中,x~0~是泰勒公式的展开点,R~n~(x)是泰勒公式的余项。
线性代数基础
向量
向量概念
向量是线性代数里面最基本的概念,表示的是一组有序的数,它可以表示大小和方向
X = (X~1~,X~2~,...X~n~)
和向量相对应,⼀个数字,称为标量
向量的意义
- 几何意义:是空间中的点
- 物理意义:矢量(例如:速度、力)
欧式空间
n 维向量集合的全体就构成了 n 维欧式空间,R^n^
例如,所有二维向量构成了二维欧氏空间;所有三维向量构成了三维欧氏空间。
行向量与列向量
行向量与列向量没有本质的区别 只是表现形式不同
行向量是按行把向量排开,列向量是按列把向量排开
在数学中我们更多的把数据写成列向量
向量的基本运算
- 向量的加法
就是它们的分量分别相加,显然两个向量的长度得是相等的
同理,向量的减法就是它们的分量分别相减
- 数乘运算(实数与向量相乘)
使用实数和这个向量的每个数据分别相乘
- 转置
把列向量变成行向量,把行向量变成列向量
向量的范数
范数的公式是向量每个分量绝对值p次方求和,再用幂函数计算p分之一
向量的范数就是把向量变成一个标量,范数的表示就是两个竖线来表示,然后右下角写上p
- 范数公式:
1范数L1
2范数L2
向量的模
向量的长度叫做向量的模,用两个竖线包起来的向量就代表向量的模,例如:||a||
对于一个n维向量,它的模为:
向量的内积(点乘)
两个向量的内积(点乘)等于对应位置相乘再相加
两个向量的内积的本质是变成一个标量
向量的应用——余弦相似度
使用两向量夹角θ的余弦值cosθ来表示两个向量的相似度,称为余弦相似度。余弦相似
度的范围是:[-1,1],夹角越小,余弦值越接近于1,两个向量越靠近,两者越相似。两个向
量有相同的指向时,余弦相似度的值为1;两个向量夹角为90°时,余弦相似度的值为0;两
个向量指向完全相反的方向时,余弦相似度的值为-1。这个多用来处理文本相似度分析,结合欧氏
距离来做综合判断,查找与我们询问的主题更贴切的内容。
余弦相似度公式为:
其中,<a,b>表示的是向量a和向量b的内积,||a||和||b||分别表示向量a和向量b的模(长度)。
例如,向量a=(X~1~,Y~1~),向量b=(X~2~,Y~2~),代入余弦相似度公式可以得到:
可以将其推广至n维向量空间:
若向量a=(X~1~,X~2~,X~3~,...,X~n~),向量b=(Y1,Y2,Y3,...,Yn),其夹角的余弦值(余弦相似度)可
以表示为:
矩阵
认识矩阵
矩阵实质上就是一张数表,矩阵是对向量的拓展。矩阵一般使用大写字母表示。
如下图所示,矩阵A表示由mxn个数排成 ,是一个m行n列的数表。
则A矩阵叫做m行n列矩阵,简称mxn矩阵。这mxn 个数叫做矩阵A的元素,a~ij~叫做矩阵A的第i行第j列的元素。
方阵、对称矩阵、单位矩阵
- 方阵
行数与列数相等的矩阵,称为方阵。 (行数与列数都等于n的矩阵,称为n阶方阵)
- 对称矩阵
对称矩阵是指以主对角线(从左上角到右下角的对角线)为对称轴,各元素对应相等的矩阵。
例如:
就是个对称矩阵。
- 单位矩阵
形如下面的n阶方阵,称为单位矩阵
特点:主对角线都是1,其它位置是0
注意
对称矩阵、单位矩阵都是方阵!
矩阵的基本运算
矩阵的加减
矩阵的加减法就是矩阵的对应位置相加减
矩阵的数乘
用实数与矩阵的每个元素相乘
转置
矩阵的转置就是行变列,列变行,变成一个新的矩阵
注意
对称矩阵的转置矩阵是其本身!
例如:下面这个对称矩阵的转置矩阵仍是其本身
矩阵乘法
矩阵和向量的乘法
矩阵T与向量a相乘
- 矩阵T的列数必须和向量a的元素个数一致
- 分别用矩阵的每一行与向量进行内积(点乘)运算,得到的数作为结果向量的某个元素
- 矩阵T实际上将向量a转换成了向量b
- 可以把矩阵理解成向量的函数
矩阵和矩阵的乘法
前提:左矩阵的列数必须与右矩阵的行数一致
矩阵与矩阵的乘法可以看作:左矩阵分别与右矩阵的每一列(相当于列向量)相乘,得到的每一个列向量作为结果矩阵的每一列
例子:
注意
对于单位矩阵E,如果满足与矩阵A相乘的条件,则:EA=AE=A
矩阵乘法的运算规律
逆矩阵
逆矩阵的定义
对于n阶方阵A,如果存在n阶方阵B,使AB=BA=E,E为单位矩阵,则称方阵A是可逆的,并称方阵B为方阵A的逆矩阵,简称A的逆,记为A^-1^.
- 可逆矩阵一定是方阵,并且逆矩阵一定是其同阶方阵
- 定义中A与B互为逆阵
- 可逆矩阵也叫做非奇异矩阵 (non-singular);不可逆矩阵叫做奇异矩阵 (singular)
逆矩阵的性质
- 可逆矩阵的逆矩阵是唯一的
- 若A可逆,则A^-1^也可逆,且(A^-1^)^-1^=A
- 若A可逆,则A^T^也可逆,且(A^T^)^-1^=(A^-1^)^T^
- 若A、B为同阶方阵且均可逆,则AB也可逆,且(AB)^-1^=B^-1^A^-1^
多元函数微分学
多元函数微分
偏导数
- 偏导数是针对多元函数(有多个自变量的函数)的导数
- 对于多元函数,对其中的某一个自变量求导数,把其它的自变量看成常量,那就是该多元函数关于这个自变量的偏导数
举个栗子:
高阶偏导数
对于多元函数,依次对变量反复求导,就是所谓的高阶偏导数
举个栗子:
梯度
- 在机器学习中,梯度这个概念是很常见的
- 对于一个多元函数,如果它的自变量有 n个:x~1~,x~2~,...x~n~,则分别对各个自变量求偏导数,构成一个向量,称之为梯度
雅可比矩阵
雅可比矩阵的概念
假设F:R~n~ → R~m~是一个从n维欧氏空间映射到m维欧氏空间的函数。这个函数由m个实函数组成:y~1~(x~1~,...,x~n~), ..., y~m~(x~1~,...,x~n~)。这些函数的偏导数(如果存在)可以组成一个m行n列的矩阵,这个矩阵就是所谓的雅可比矩阵:
举个栗子:
函数F由y~1~与y~2~两个函数组成
雅可比矩阵的作用
简化求导公式,在神经网络的反向传播中能发挥很大的作用
hessian矩阵
hessian Matrix(黑塞矩阵),又译作海森矩阵、海瑟矩阵、海塞矩阵等,是一个多
元函数的二阶偏导数构成的方阵。
有一个n元函数,它的 hessian矩阵是一个 n*n 的矩阵,如下所示:
注意
hessian矩阵是对称矩阵
举个栗子:
hessian矩阵的作用
hessian矩阵常用于牛顿法解决优化问题。
线性代数高级
线性代数高级
二次型
- 二次型概念
二次型可以使用向量与矩阵相乘的形式表示
举个栗子:
为了研究方便,二次型使用x^T ^ A ^ x的形式表示,其中,中间的矩阵A为对称矩阵
特征值与特征向量
设A是n阶方阵,如果数λ和n维非零向量x使关系式Ax = λx成立,那么,λ称为方阵A的特征值;非零向量x称为A的属于特征值λ的特征向量。
举个栗子:
数3为方阵[4 -2,1 1]的特征值;非零向量(2,1)为方阵[4 -2,1 1]的属于特征值3的特征向量。
注意
- 特征值与特征向量是针对方阵而言的
- 特征向量是非零向量
- 同一个特征值λ对应无穷多个特征向量
特征值分解
特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角矩阵(只有对角线上有非0元素的矩阵称为对角矩阵),对角线的值是由矩阵所有特征值构成的。
每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量是描述这个矩阵变化的方向(从主要的变化到次要的变化排列)。也就是说矩阵A的信息可以由其特征值和特征向量表示。
对于矩阵为高维的情况下,那么这个矩阵就是高维空间下的一个线性变换。可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。
注意
- 特征值分解可以得到特征值与特征向量
- 特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么
- 特征值分解是针对于方阵而言
多元函数的泰勒展开
回顾:一元函数泰勒展开
函数 f(x)在含 x~k~ 的某个开区间 (a,b)内具有直到 n 阶导数,则对任意的 x∈(a,b)有
其中,x~0~是泰勒公式的展开点,R~n~(x)是泰勒公式的余项。
展开二项的形式为:
多元函数的泰勒展开
f(x~k~)是标量,而且是个常数;不过注意(x-x~k~)是个向量,然后T转置这里是把梯度和(x-x~k~)做内积;二次项的内积,是和 hessian 矩阵做内积。
多元函数泰勒展开是非常有用的,例如在推导梯度下降法,牛顿法的时候会用的到。
矩阵的秩
k阶子式
在mxn矩阵A中,任取k行k列(1≤k≤min{m,n}),位于这些行列交叉处的k^2^个元素,按照它们在A中所处的位置所构成的k阶行列式叫做矩阵A的一个k阶子式。
注意
- 行列式是由一些数值排列成的数表按一定的法则计算得到的一个数
- 行列式的行数和列数是相等的
- mxn矩阵A的k阶子式共有C~m~^k^C~n~^k^个
矩阵的秩的定义
如果在矩阵A中有一个r阶子式D的值不等于零,而所有r+1阶子式(如果存在的话)的值都等于零,则称数r为矩阵A的秩,记作R(A)。规定零矩阵的秩为0。
矩阵的秩的性质
- R(A)=R(A^T^)
- R(A~mxn~) ≤ min(m,n)
- 对于n阶方阵A,若|A|≠ 0,有R(A)=n,则称A为满秩矩阵;若|A|= 0,则R(A)<n,则称A为降秩矩阵。满秩矩阵是可逆矩阵,降秩矩阵是不可逆矩阵。
SVD分解定义
SVD分解
奇异值分解(Singular Value Decomposition),是在机器学习领域广泛应用的算法,是很多机器学习算法的基石。
矩阵的奇异值分解是指,将一个非零的mxn实矩阵A,A∈R^mxn^,表示为以下三个实矩阵乘积形式的运算,即进行矩阵的因子分解:
其中,U是m阶正交矩阵,V是n阶正交矩阵,∑是由降序排列的非负的对角线元素组成的mxn矩形对角矩阵(注意这里Σ并不是一个方阵,而是 m*n 的矩阵),满足:
σ~i~称为矩阵A的奇异值,U的列向量称为左奇异向量;V的列向量称为右奇异向量
注意
特征值分解只能针对于方阵而言,而奇异值分解可以应用于任意形状矩阵
SVD分解的应用
在实际应用中,你将观察到的只有前几个很大的奇异值。其余的奇异值接近于零。
因此,可以忽略除前几个之外而不会丢失大量信息。
- SVD用于图像压缩
图片压缩利用了在SVD之后仅获得的一些奇异值很大的原理,它将图像的大小(以字节为单位)最小化到可接受的质量水平。这意味着你可以在相同磁盘空间中存储更多图像。
- SVD用于降维
SVD分解允许我们将原始矩阵表示为低秩矩阵的线性组合。
概率论
随机事件与概率
随机事件与随机事件概率
- 随机事件
在一定条件下可能发生也可能不发生的事件叫做随机事件,简称事件。例如,扔一次骰子,结果是5点;生男生女等等。一般使用大写字母(例如A、B)表示一个随机事件。
一定会发生的事件,称为必然事件
一定不会发生的事件,称为不可能事件
必然事件和不可能事件是两种特殊的随机事件
- 随机事件概率
每一个随机事件都关联有一个发生的概率,叫做随机事件概率,使用P表示,例如,A代表抛硬币正面朝上这个随机事件,则P(A)就代表这个随机事件的概率,显然,P(A)=0.5.
贝叶斯公式
条件概率
对于任意两个事件A,B,其中P(B)>0,称
为已知事件B发生的条件下事件A发生的条件概率
举个栗子:
有5个乒乓球,其中3个新的两个旧的。每次取一个,无放回地取两次。记A={ 第一次取到新球},B={第二次取到新球}。试求概率P(A),P(AB),P(B|A)
概率乘法公式
由条件概率的定义得:
对于任意的事件A,B,
- 若P(A) > 0,则P(AB) = P(A)P(B|A)
- 若P(B) > 0,则P(AB) = P(B)P(A|B)
注意
概率乘法公式可以推广到有限多个事件的情形:
设A~1~,A~2~,...,A~n~ 满足 P(A~1~A~2~...A~n-1~) >0,
则P(A~1~A~2~...A~n~) = P(A~1~)P(A~2~|A~1~)P(A~3~|A~1~A~2~)...P(A~n~|A~1~A~2~...A~n-1~)
贝叶斯公式
贝叶斯公式得到的结果是后验概率(知道结果,求某个原因的概率)
在已知事件B发生的条件下(结果),计算导致B发生的某个原因A~j~的条件概率,就可使用下面的贝叶斯公式
举个栗子:
有朋自远方来,他选择坐火车、轮船、汽车或飞机的概率分别为0.3,0.2,0.1和0.4.而如果坐火车则迟到的概率为0.25,坐轮船为0.3,坐汽车为0.1,坐飞机则不会迟到。问:
(1):此人最终可能迟到的概率是多少?
(2):若已知此人最终迟到了,他是乘坐轮船来的概率是多少?
解:
(1) 以A1,A2,A3,A4分别表示事件“选择的交通工具是火车、轮船、汽车、 飞机”,可知P(A1)=0.3,P(A2)=0.2,P(A3)=0.1,P(A4)=0.4.再以B表示事件“此人 最终迟到”,则P(B|A1)=0.25,P(B|A2)=0.3,P(B|A3)=0.1,P(B|A4)=0。
则
- 所求即为P(A2|B),则根据贝叶斯公式可得
随机变量
随机变量的定义
给定一个随机试验,如果对试验中每一个可能出现的结果w,都有一个实数X(w)与之对
应,那么就把这个实值单值函数X=X(w)叫做随机变量。
例如:随机抛一枚硬币,只有两种可能的结果:正面、反面。如果记正面为1,反面为0,即随机变量为:X(正面)=1,X(反面)=0。
随机变量的分类
先补充一个概念——分布函数
设X是一个随机变量(包括离散型和非离散型),x是任意实数,称函数F(x)=P(X ≤ x)为随机变量X的分布函数。
- 离散型随机变量
若随机变量X的所有可能取值为有限个或可列无限个,则称X为离散型随机变量
对于离散型随机变量及其对应的概率有如下性质:
;;
标签:概率,函数,方阵,矩阵,数学知识,随机变量,向量 From: https://blog.csdn.net/yuange1666/article/details/144044040