首页 > 其他分享 >选修-5-Logistic Regression

选修-5-Logistic Regression

时间:2023-06-04 22:34:06浏览次数:45  
标签:function Training 交叉 Logistic 选修 data Regression

1. 逻辑回归

  下面是这位大佬的Click.逻辑回归是用于分类的算法,它是在线性回归的基础上添加了一层映射.
image
  这里的\(w\)和\(x\)都是\(vector\),两者的乘积是inner product,从上式中我们可以看出,现在这个\(model\)(\(function\) \(set\))是受\(w\)和\(b\)控制的,因此我们不必要再去像前面一样计算一大堆东西,而是用这个全新的由\(w\)和\(b\)决定的\(model\)——\(Logistic\) \(Regression\)(逻辑回归).也就是之前将几个式子的乘积视为\(w\),而现在逻辑回归我们直接求\(w\).

2. Three Steps of machine learning

  介绍一个新的算法,从三步开始.

2.1 Step 1: function set

  这里的function set就是Logistic Regression——逻辑回归
image

2.2 Step 2:Goodness of a function

  衡量好坏的函数.假设现在我们有N笔Training data,每一笔data都要标注它是属于哪一个class.
  假设这些Training data是从我们定义的posterior Probability中产生的(后置概率,某种意义上就是概率密度函数),而w和b就决定了这个posterior Probability,那我们就可以去计算某一组w和b去产生这N笔Training data的概率,利用极大似然估计的思想,最好的那组参数就是有最大可能性产生当前N笔Training data分布的\(w\)和\(b\)
  似然函数只需要将每一个点产生的概率相乘即可.注意,这里假定是二元分类,class 2的概率为1减去class 1的概率.
image
  因为我们平时最小化处理比较多,因此将\(L\)取负再取\(Log\)也能达到同样的效果.但是我们可以发现\(ln(1-f_{w,b}(x^3))\)和之前的很难统一.因此Logistic Regression里的所有Training data都打上\(0\)和\(1\)的标签,即\(\hat y = 1\)表示第\(1\)类,\(\hat y = 0\)表示第\(2\)类.于是式子可以改为:
image
  这里有兴趣可以了解一下损失函数的来源,介绍了这个形式的\(loss\) \(function\)是怎么来的,和伯努利分布有关.
image
  现在已经有了统一的格式,我们就可以把要minimize的对象写成一个summation的形式:
image
  下图中蓝色下划线实际上代表的是两个伯努利分布(0-1分布,两点分布)的 cross entropy(交叉熵).
image
  cross entropy什么意思呢?假设有两个分布\(p\)、\(q\),都服从两点分布.它们的交叉熵就是上图\(H(p,q)\).交叉熵代表的含义是这两个分布有多接近,如果两个分布是一模一样的,那计算出的交叉熵就是0.这也就是之前的推导中在\(−lnL(w,b)\)前加一个负号的原因.而这里\(f(x^n)\)表示\(function\)的output,\(y^n\)表示预期的\(target\),因此交叉熵实际上表达的是希望这个\(function\)的\(output\)和它的\(target\)越接近越好.
  这实际上也是我们的损失函数.
image

2.3 step 3:Find the best function

  实际上就是去找到使loss function即交叉熵之和最小的那组参数\(w\)和\(b\).这里用gradient descent的方法进行运算就ok.假设求\(w_i\)的偏微分,步骤如下:
image

标签:function,Training,交叉,Logistic,选修,data,Regression
From: https://www.cnblogs.com/newblg/p/17456350.html

相关文章

  • 使用 TensorFlow 自动微分和神经网络功能估算线性回归的参数(Estimate parameters for
    大多数的深度学习框架至少都会具备以下功能:(1)张量运算(2)自动微分(3)神经网络及各种神经层TensorFlow框架亦是如此。在《深度学习全书公式+推导+代码+TensorFlow全程案例》——洪锦魁主编清华大学出版社ISBN978-7-302-61030-4这本书第3章《TensorFlow架构与主要功能》这一......
  • [学习笔记] Mplus实现(多分类)Logistic回归
    [学习笔记]Mplus实现(多分类)Logistic回归废话少说版Logistic回归是适用于用连续变量或类别变量作为预测变量,类别变量作为结果变量的回归模型。对结果变量采取logit变换,若结果变量为二分变量,变换形式为\(ln\frac{P}{1-P}\),若结果变量为多分类变量,变换形式为\(ln\frac{P(A)}......
  • week11_logistic_regression_stock_customer_churn
    逻辑回归模型-案例股票客户流失预警模型#1.读取数据importpandasaspddf=pd.read_excel('stock_customer_churn.xlsx')df账户资金(元)最后一次交易距今时间(天)上月交易佣金(元)累计交易佣金(元)本券商使用时长(年)是否流失022686.5297149.252029.8500......
  • logistic_regression
    逻辑回归模型算法原理逻辑回归模型的数学原理知识点:Sigmoid函数绘制importmatplotlib.pyplotaspltimportnumpyasnpx=np.linspace(-6,6)#通过linspace()函数生成-6到6的等差数列,默认50个数y=1.0/(1.0+np.exp(-x))#Sigmoid函数计算公式,exp()函数表示指......
  • 蝴蝶优化算法(BOA)文章复现(Logistic混沌扰动+自适应权重w+完整PSO算法融合)——HPSBA
    蝴蝶优化算法(BOA)文章复现(Logistic混沌扰动+自适应权重w+完整PSO算法融合)——HPSBA复现内容包括:文章改进BOA算法实现、23个基准测试函数、文中相关因子分析、文中混沌特性分析、与BOA对比等。代码基本上每一步都有注释,非常易懂,代码质量极高,便于新手学习和理解。ID:53......
  • 麻雀搜索算法(SSA)文章复现:《基于Logistic回归麻雀算法的图像分割_陈刚》
    麻雀搜索算法(SSA)文章复现:《基于Logistic回归麻雀算法的图像分割_陈刚》策略为:小孔成像反向学习策略改进发现者策略+Logistic模型动态调节安全阈值——MSSA。代码基本上每一步都有注释,非常易懂,代码质量极高,便于新手学习和理解。ID:3159669427179745......
  • 基于线性二项分布回归模型(logistic)的时间序列预测 matlab代码
    基于线性二项分布回归模型(logistic)的时间序列预测matlab代码ID:5129665933564536......
  • R语言用局部加权回归(Lowess)对logistic逻辑回归诊断和残差分析|附代码数据
    全文链接:http://tecdat.cn/?p=22328最近我们被客户要求撰写关于局部加权回归的研究报告,包括一些图形和统计输出。目前,回归诊断不仅用于一般线性模型的诊断,还被逐步推广应用于广义线性模型领域(如用于logistic回归模型),但由于一般线性模型与广义线性模型在残差分布的假定等方面有所......
  • Logistic 回归测试代码
    简单概念Logistic回归是一种经典的分类方法,多用于二分类的问题。通过寻找合适的分类函数,用以对输入的数据进行预测,并给出判断结果。使用sigmoid函数(逻辑函数)将线性模型的结果压缩到[0,1]之间,使输出的结果具有概率意义,实现输入值到输出概率的转换。sigmoid函数:$g(z)=\f......
  • 机器学习之——回归(regression)、梯度下降(gradient descent)
      本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言:  上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两......