闵可夫斯基距离定义:在 \(n\) 维空间中,设两个 \(n\) 维变量\(A(x_{11},x_{12},...,x_{1n})\)与 \(B(x_{21},x_{22},...,x_{2n})\),将\(d_{12}\)称为\(AB\)之间的闵氏距离
\[d_{12}=(\sum_{i=1}^{n}|x_{1i}-x_{2i}|^p)^\frac{1}{p} \]\(p\) 不同取值表示不同含义:
p取值 | 含义 |
---|---|
1 | 曼哈顿距离,网格点距离 |
2 | 欧式距离 |
\(+∞\) | 切比雪夫距离即\(max(x_{1i}-x_{2i})\) |
概率论或者测度中,还有其他表示两个有序集合之间的接近程度,比如:
- 标准差,表征实验数据偏离平均值的程度
- 马氏距离,用于测量点(向量)与分布之间的距离,增强型欧氏距离
- 余弦距离,向量夹角的余弦值
- 汉明距离,2个向量不同的分量所占的百分比
- 杰卡德距离,两个集合A和B的交集元素在A,B的并集中所占的比例
- 相关系数,衡量随机变量X与Y相关程度
- 信息熵,描述的是整个系统内部样本之间的一个距离\[Entropy(X)=\sum_{i=1}^{n}-p_ilog_2p_i \]其中,\(n\) 为样本集合 \(X\) 的分类数,\(p_i\) 为 \(X\) 中第 \(i\) 类元素出现的概率