首页 > 其他分享 >机器学习模型中的损失函数loss function

机器学习模型中的损失函数loss function

时间:2023-06-14 20:34:11浏览次数:55  
标签:function loss plt 函数 损失 Hinge xx Log


1. 概述

在机器学习算法中,有一个重要的概念就是损失函数(Loss Function)。损失函数的作用就是度量模型的预测值机器学习模型中的损失函数loss function_Log损失与真实值机器学习模型中的损失函数loss function_指数损失_02之间的差异程度的函数,且是一个非负实值函数。

对于分类问题损失函数通常可以表示成损失项和正则项的和,即有如下的形式:

机器学习模型中的损失函数loss function_指数损失_03

其中,机器学习模型中的损失函数loss function_Hinge损失_04为损失项,机器学习模型中的损失函数loss function_Log损失_05为正则项。机器学习模型中的损失函数loss function_Log损失_06的具体形式如下:

机器学习模型中的损失函数loss function_损失函数_07

机器学习模型中的损失函数loss function_指数损失_08

机器学习模型中的损失函数loss function_损失函数_09

对于损失项,主要的形式有:

  • 0-1损失
  • Log损失
  • Hinge损失
  • 指数损失
  • 感知损失

2. 0-1损失函数

在分类问题中,可以使用函数的正负号来进行模式判断,函数值本身的大小并不是很重要,0-1损失函数比较的是预测值机器学习模型中的损失函数loss function_Hinge损失_10与真实值机器学习模型中的损失函数loss function_Hinge损失_11的符号是否相同,0-1损失的具体形式如下:

机器学习模型中的损失函数loss function_损失函数_12

以上的函数等价于下述的函数:

机器学习模型中的损失函数loss function_Log损失_13

0-1损失并不依赖机器学习模型中的损失函数loss function_0-1损失_14值的大小,只取决于机器学习模型中的损失函数loss function_0-1损失_14的正负号。0-1损失是一个非凸的函数,在求解的过程中,存在很多的不足,通常在实际的使用中将0-1损失函数作为一个标准,选择0-1损失函数的代理函数作为损失函数。

3. Log损失函数

3.1. Log损失

Log损失是0-1损失函数的一种代理函数,Log损失的具体形式如下:

机器学习模型中的损失函数loss function_Log损失_16

运用Log损失的典型分类器是Logistic回归算法。

3.2. Logistic回归算法的损失函数

对于Logistic回归算法,分类器可以表示为:

机器学习模型中的损失函数loss function_损失函数_17

其中,机器学习模型中的损失函数loss function_Log损失_18。为了求解其中的参数$ \mathbf{w}$,通常使用极大似然估计的方法,具体的过程如下:

1、似然函数

机器学习模型中的损失函数loss function_0-1损失_19

其中,

机器学习模型中的损失函数loss function_Hinge损失_20

2、log似然

机器学习模型中的损失函数loss function_损失函数_21

3、需要求解的是使得log似然取得最大值的$ \mathbf{w}$,可以转换为求最小值:

机器学习模型中的损失函数loss function_Hinge损失_22

这便是交叉熵的具体形式。

3.3. 两者的等价

由于Log损失的具体形式为:

机器学习模型中的损失函数loss function_Log损失_16

其中,机器学习模型中的损失函数loss function_0-1损失_24机器学习模型中的损失函数loss function_Log损失_25,Log损失函数的具体形式为:

机器学习模型中的损失函数loss function_Log损失_26

Logistic回归与Log损失具有相同的形式,故两者是等价的。Log损失与0-1损失的关系可见下图。

4. Hinge损失函数

4.1. Hinge损失

Hinge损失是0-1损失函数的一种代理函数,Hinge损失的具体形式如下:

机器学习模型中的损失函数loss function_0-1损失_27

运用Hinge损失的典型分类器是SVM算法。

4.2. SVM的损失函数

对于软间隔支持向量机,允许在间隔的计算中出现少许的误差机器学习模型中的损失函数loss function_Hinge损失_28,其优化的目标为:

机器学习模型中的损失函数loss function_损失函数_29

约束条件为:

机器学习模型中的损失函数loss function_Log损失_30

4.3. 两者的等价

对于Hinge损失:

机器学习模型中的损失函数loss function_0-1损失_27

优化的目标是要求:

机器学习模型中的损失函数loss function_指数损失_32

在上述的函数机器学习模型中的损失函数loss function_Hinge损失_10中引入截距$\gamma $,即:

机器学习模型中的损失函数loss function_0-1损失_34

并在上述的最优化问题中增加机器学习模型中的损失函数loss function_Hinge损失_35正则,即变成:

机器学习模型中的损失函数loss function_损失函数_36

至此,令下面的不等式成立:

机器学习模型中的损失函数loss function_指数损失_37

约束条件为:

机器学习模型中的损失函数loss function_损失函数_38

则Hinge最小化问题变成:

机器学习模型中的损失函数loss function_Hinge损失_39

约束条件为:

机器学习模型中的损失函数loss function_指数损失_40

这与软间隔的SVM是一致的,说明软间隔SVM是在Hinge损失的基础上增加了机器学习模型中的损失函数loss function_Hinge损失_35正则。

5. 指数损失

5.1. 指数损失

指数损失是0-1损失函数的一种代理函数,指数损失的具体形式如下:

机器学习模型中的损失函数loss function_Log损失_42

运用指数损失的典型分类器是AdaBoost算法。

5.2. AdaBoost基本原理

AdaBoost算法是对每一个弱分类器以及每一个样本都分配了权重,对于弱分类器机器学习模型中的损失函数loss function_Log损失_43的权重为:

机器学习模型中的损失函数loss function_损失函数_44

其中,机器学习模型中的损失函数loss function_损失函数_45表示的是误分类率。对于每一个样本的权重为:

机器学习模型中的损失函数loss function_指数损失_46

最终通过对所有分类器加权得到最终的输出。

5.3. 两者的等价

对于指数损失函数:

机器学习模型中的损失函数loss function_Log损失_42

可以得到需要优化的损失函数:

机器学习模型中的损失函数loss function_Hinge损失_48

假设机器学习模型中的损失函数loss function_Log损失_49表示已经学习好的函数,则有:

机器学习模型中的损失函数loss function_Hinge损失_50

机器学习模型中的损失函数loss function_Log损失_51

而:

机器学习模型中的损失函数loss function_损失函数_52

通过最小化$\varphi $,可以得到:

机器学习模型中的损失函数loss function_Log损失_53

将其代入上式,进而对$\theta $求最优解,得:

机器学习模型中的损失函数loss function_0-1损失_54

其中,

机器学习模型中的损失函数loss function_0-1损失_55

可以发现,其与AdaBoost是等价的。

6. 感知损失

6.1. 感知损失

感知损失是Hinge损失的一个变种,感知损失的具体形式如下:

机器学习模型中的损失函数loss function_0-1损失_56

运用感知损失的典型分类器是感知机算法。

6.2. 感知机算法的损失函数

感知机算法只需要对每个样本判断其是否分类正确,只记录分类错误的样本,其损失函数为:

机器学习模型中的损失函数loss function_Hinge损失_57

5.3. 两者的等价

对于感知损失:

机器学习模型中的损失函数loss function_0-1损失_56

优化的目标为:

机器学习模型中的损失函数loss function_指数损失_59

在上述的函数机器学习模型中的损失函数loss function_Hinge损失_10中引入截距机器学习模型中的损失函数loss function_指数损失_61,即:

机器学习模型中的损失函数loss function_0-1损失_62

上述的形式转变为:

机器学习模型中的损失函数loss function_指数损失_63

对于max函数中的内容,可知:

机器学习模型中的损失函数loss function_指数损失_64

对于错误的样本,有:

机器学习模型中的损失函数loss function_0-1损失_65

类似于Hinge损失,令下式成立:

机器学习模型中的损失函数loss function_指数损失_66

约束条件为:

机器学习模型中的损失函数loss function_Log损失_67

则感知损失变成:

机器学习模型中的损失函数loss function_指数损失_68

即为:

机器学习模型中的损失函数loss function_Hinge损失_57

Hinge损失对于判定边界附近的点的惩罚力度较高,而感知损失只要样本的类别判定正确即可,而不需要其离判定边界的距离,这样的变化使得其比Hinge损失简单,但是泛化能力没有Hinge损失强。

机器学习模型中的损失函数loss function_Log损失_70

import matplotlib.pyplot as plt
import numpy as np

xmin, xmax = -4, 4
xx = np.linspace(xmin, xmax, 100)
plt.plot([xmin, 0, 0, xmax], [1, 1, 0, 0], 'k-', label="Zero-one loss")
plt.plot(xx, np.where(xx < 1, 1 - xx, 0), 'g-', label="Hinge loss")
plt.plot(xx, np.log2(1 + np.exp(-xx)), 'r-', label="Log loss")
plt.plot(xx, np.exp(-xx), 'c-', label="Exponential loss")
plt.plot(xx, -np.minimum(xx, 0), 'm-', label="Perceptron loss")

plt.ylim((0, 8))
plt.legend(loc="upper right")
plt.xlabel(r"Decision function $f(x)$")
plt.ylabel("$L(y, f(x))$")
plt.show()

参考文章

[1] Advice for applying Machine Learning

[2] 损失函数(Loss Function)

[3] Schroff F , Kalenichenko D , Philbin J . FaceNet: A Unified Embedding for Face Recognition and Clustering[J]. IEEE, 2015.


标签:function,loss,plt,函数,损失,Hinge,xx,Log
From: https://blog.51cto.com/u_16161414/6480434

相关文章

  • python基础知识——函数
    函数其实就是一段可以多次调用的代码。1、函数的定义格式def函数名(参数1[=默认值1],参数2[=默认值2],...):...return表达式函数名的命名规则:函数名可以是字母、数字或下划线组成的字符串,但是不能以数字开头。例如加法操作:defaddFunc(x,y):returnx+......
  • [C++/PTA] 计算点到直线的距离一一友元函数的应用
    题目要求计算点到直线的距离。首先设计一个点类Point,它有2个私有数据成员x和y,表示点的坐标。另一个类为直线类Line,它有3个私有数据成员a,b和c,表示直线方程ax+by+c=0。这两个类中都说明了一个友元函数dist,用于计算一个点到直线的距离。点(x.y)到直线ax+by+c=0的距离d的计算......
  • [C++/PTA] 虚函数的应用
    题目要求补充下列代码,使得程序的输出为:A:3A:15B:53155类和函数接口定义:参见裁判测试程序样例中的类和函数接口。裁判测试程序样例:#include<iostream>usingnamespacestd;classCMyClassA{intval;public:CMyClassA(int);voidvirtualprint();......
  • python装饰器函数学习笔记
    函数也是一个对象,并且这个对象可以被赋值给变量,所以,我们可以通过变量调用该函数defnow():...print('2015-3-25')...f=nowf()2015-3-25函数对象有一个__name__属性,可以拿到函数名字:now.name'now'f.name'now'现在如果我们要增强now()函数的功能,比如,在......
  • python返回函数学习笔记
    内部函数sum可以引用外部函数lazy_sum的参数和局部变量,当lazy_sum返回函数sum时,相关参数和变量都保存在返回的函数中,这种称为“闭包(Closure)”的程序结构拥有极大的威力deflazy_sum(*args):defsum():ax=0forninargs:ax=ax+nreturnaxreturn......
  • 关于函数指针的一些问题小结
    最近接到一个需求,使用sdk提供的消息回调,一般我们是继承sdk的消息类,然后sdk的消息回调(虚函数)会在有消息的时候调用回调指针,从而触发回调不过因为sdk那边又对该消息类二次封装了并提供了一些接口,所以在研究二次封装的方法时,遇到了一些有意思的问题,故记录下typedefvoid(_......
  • MATLAB技巧——sort和sortrows函数
    1、sort函数sort函数用于对数据进行排序,通过helpsort命令,可以查找到sort函数的具体用法:Y=SORT(X,DIM,MODE)hastwooptionalparameters.DIMselectsadimensionalongwhichtosort.MODEselectsthedirectionofthesort'ascend'resultsinascendingorder......
  • python偏函数学习笔记
    Python的functools模块提供了很多有用的功能,其中一个就是偏函数(Partialfunction)比如,int函数默认十进制转换,若提供其它base参数,就可以进行n进制转换int('12345',base=8)5349int('12345',16)74565定义一个int2()的函数,默认把base=2传进去defint2(x,base=2):retu......
  • python高阶函数filter、sorted学习笔记
    filterPython内建的filter()函数用于过滤序列。和map()类似,filter()也接收一个函数和一个序列。和map()不同的是,filter()把传入的函数依次作用于每个元素,然后根据返回值是True还是False决定保留还是丢弃该元素。e.g在一个list中,删掉偶数,只保留奇数,可以这么写:点击查看代码de......
  • 数学 多元函数微分学 复合函数的情况
    复合函数求导法则多元函数的复合函数有两种情况,与一元函数复合或者与多元函数复合在计算复合多元函数的导数时,要注意各个导数之间什么时候用乘号连接,什么时候用加号连接<h4>多元复合函数的微分</h4>以及全微分形式不变性多元复合函数的微分公式,直接将一般的微分公式代入多......