首页 > 其他分享 >【小白学机器学习26】 极大似然估计,K2检验,logit逻辑回归(对数回归)(未完成----)

【小白学机器学习26】 极大似然估计,K2检验,logit逻辑回归(对数回归)(未完成----)

时间:2024-10-31 18:47:06浏览次数:8  
标签:似然 logit 概率 发生率 回归 检验 K2

目录

1 先从一个例题出来,预期值和现实值的差异怎么评价?

1.1 这样一个问题

1.2 我们的一般分析

1.3 用到的关键点1

1.4 但是差距多远,算是远呢?

2 极大似然估计

2.1 极大似然估计的目的

2.1.1 极大似然估计要解决什么问题?

2.1.2 极大似然估计的原则:

2.2 什么是极大似然估计?

2.2.1 定义

2.2.2  似然率,likehood

2.3 如何理解

2.4 如何落地?具体用什么来验证极大似然估计? K2检验

3 K2检验 (K^2检验,K^2显著度检验)

3.1 K2检验

3.2 K2值de公式

3.3 K2值de判断逻辑

3.4 具体步骤

3.5 K2值表

3.5.1 K2分布表

3.5.2 特点

3.6 K2分布的曲线

3.6.1 曲线图形

3.6.2 特点

3.7 K2检验有2个要素

3.8 K2检验的过程

3.8.1 K2值独立检验

4 对数回归

4.1 什么叫对数回归 logit regression

4.1.1 似然率,likehood

4.1.2 从概率到→发生率

4.1.3 发生率的对然对数回归

5 为什么要用对数回归?

5.1 线性回归的局限性

5.1.1 具体举个例子

5.2 什么原因引起的?

5.3 怎么解决? 

5.3.1 解决办法

5.3.2 对数回归的方法 logit regression

5.3.3 概率转化为发生率后,发生率的变化不对称

6 和机器学习的sigmoid函数(也叫逻辑函数)的关系(待完善)


1 先从一个例题出来,预期值和现实值的差异怎么评价?

1.1 这样一个问题

SPSS,还有戏说统计那本数上都有

一个关于员工其实的数据例子,其中假设有这么一些数据
整体员工里,黑人和白人的比例,60:40
经理员工里,黑人和白人的比例,4:20

那么我们简单一看,就知道这两者比例不一样,那么这两者差距够大吗?是否可以作为黑人被歧视的证据之一呢?

1.2 我们的一般分析

  • 第1:我们先有现在的这个现实数据了,但是我们不知道是否合理
  • 第2:我们假设每个人都是平等的有成为经理的可能性。
  • 先假设前提55开,也就是每个黑人和白人都是50%可能成为经理
  • 那么假设员工人数里,就是合理现状,往下推论
  1. 现实的世界:SUM=24, 经理的现状4/20
  2. 按50%推测世界:(60*0.5=30) / (20*0.5=10)=3:1 ,SUM里应该分布是18/6
  • 实际的和我们推测的数据差异很大,从而说明有问题,应然和实然差距太远

1.3 用到的关键点1

现实值,和预期值的差异,就是关键!

  1. 现实值VS预期值,对比
  2. 现实的世界 / 实然的世界:
  3. 按50%推测世界/ 应然的世界:

1.4 但是差距多远,算是远呢?

  • 这就需要用到假设检验了
  • 假设检验的方法就是,一般设定原假设,两者没差异H0。
  • 然后给定一个我们能接受的显著度比如5%,双边检验。如果我们检验出来的值对应的概率,大于5%,我们就接受原接受。
  • 如果对应的概率小于我们设定的显著度,那我们认为:在H0的假设下,现实已经发生的是小概率事件,不应该发生,从而拒绝原假设。

2 极大似然估计

2.1 极大似然估计的目的

上面引出的问题:预期值和现实值的差异怎么评价,就是极大似然估计要解决的问题

2.1.1 极大似然估计要解决什么问题?

  • 极大似然估计要解决什么问题?:是用来判断预期值和现实值之前的差距,从而去推测过去应该是什么样子!

2.1.2 极大似然估计的原则:

  • 极大似然估计的原则:现实一定是对应过去发生最大的概率的分支!
  • 如果按照H0假设,推测发现已经存在的现实,并不是最大概率(小于显著度),那么就拒绝原假设!

2.2 什么是极大似然估计?

2.2.1 定义

定义:在现实已经发生的基础上,去回溯到过去,推测过去的某个时刻,自然量和因变量是什么样的关系时,现实的发生概率最大?这个推测过程,就是极大似然估计

简单定义:

  • 过去最大概率对应的那个分支,极有可能就是现实!
  • 现实就是,过去发生的各种可能里概率最大的那种情况!

2.2.2  似然率,likehood

  • 现在的可能性—针对是未来,概率,probility
  • 过去的可能性—针对是过去,似然率,likehood

2.3 如何理解

     可以认为是一个类似坐上时光机去回溯,或者就是思想试验的东西
     这个思想试验,是一个模型,就是认为现在往回去倒推,过去自变量和因变量的关系,现实应该是其中发生概率最大的可能对应的那个事件。如果推导不是这也,那就错了。这个就是极大似然估计。

2.4 如何落地?具体用什么来验证极大似然估计? K2检验

见下面


3 K2检验 (K^2检验,K^2显著度检验)

3.1 K2检验

  • chi-square test of independence
  • K2检验和 自由度 高度相关
  • K2就是chi-square,也就是 “ chi 的平方值 ”

3.2 K2值de公式

  • K2=Σ(观察值-预期值)^2/预期值
  • K2=(O1-E1)^2/E1+(O2-E2)^2/E2+…..+ (On-En)^2/En

3.3 K2值de判断逻辑

  • 需要查表,根据当前的df+概率值的 二维交叉表,可以查到当前的K2值,在指定的df下,其发生的概率大多是多大,如果是小概率的事件,就拒绝。因为极大概率不会发生!
  • 这也就是极大似然估计的逻辑。

3.4 具体步骤

  • K2值是作为一个查表数值
  • 去一个 df*概率的二维交叉表里去差K2数值在那一列!(df决定了行,df和K2共同决定了列!)
  • 这样反查概率。
  • 用概率率来判断,如果概率很小,证明是小概率事件,发生可能性很小,拒绝H0假设!

3.5 K2值表

3.5.1 K2分布表

  • 横轴,行:自由度,DF
  • 纵轴,列:概率
  • 表中的值,K2值

3.5.2 特点

  • 自由度df越大,自由的单元格就更多,表里同样概率对应的K2值就会更大
  • 反过来说,也就是出现较大K2值的概率就越大

3.6 K2分布的曲线

3.6.1 曲线图形

  • 横轴表示K2值,x
  • 纵轴表示概率值,f(x)
  • 不同的曲线表示不同df对应的  K2-概率曲线--也就是图上的K参数

  • 看经典的K2的曲线。
  • 自由度比较小的时候,单调下降
  • 自由度比较大之后就开始接近正态分布的钟形曲线了,超过20接近正态

  • T值检验T值也和自由度有关系,但关系比较松散不用太关心。
  • 因为T检验一般检验连续变量,连续变量自由度很容易超过20,一般不考虑这个限制。
  • 但是K2分布,一定要看自由度DF
  • 一般自由度越大的K2曲线,K2的值,均值都会更大。

3.6.2 特点

可以看到变化

  • 1 前面k=1 k=2的事后,是个完全单调下降的曲线,从df=3开始就开始接近正态分布,
  • 2 自由度越大,越接近于正态分布
  • 3 在自由度比较大时,比如df大于8,大于20,都可以比较多条曲线,就是同样的K2值(平行于纵轴的竖线)与对应的不同曲线的相交点,DF越大的曲线对应的概率越大
  • 反过来说,就是比较不同的自由度,自由度越大的曲线,对应同样的K2值,其对应的纵轴的概率会越大!

3.7 K2检验有2个要素

  • 自由度
  • K2值

3.8 K2检验的过程

3.8.1 K2值独立检验

  • 先检验,算出来了确定的K2值的结果下,来判断,
  •  如果自由度小,K2一般越大,越表示发生的概率小。
  • 因而根据最大似然估计,推测 现在不可能是小概率发生,从而用K2检验拒绝了原来的假设。
  • 极大似然估计认为,现在一定是 在过去那个事件点发生的概率最大!

4 对数回归

4.1 什么叫对数回归 logit regression

  • 对数回归,即发生率的自然对数回归.
  • 是以过去的可能性/概率为因变量(/结果)的回归分析

这里面有很多子概念,下面逐个拆解

  • 过去的可能性/概率probility=似然率 likehood
  • 发生率
  • 发生率的对然对数回归
  • 为什么要用对数回归

4.1.1 似然率,likehood

  • 现在的可能性—针对是未来,概率,probility
  • 过去的可能性—针对是过去,似然率,likehood

4.1.2 从概率到→发生率

  • 我们这里不直接衡量,过去事情的发生率α,而是衡量其发生率
  • 发生率=某个事件发生的概率/此事件不发生的概率
  • α/(1-α)

4.1.3 发生率的对然对数回归

  • 发生率的对然对数回归
  • Ln(α/(1-α))
  • 这个才是对数回归中,概率的测量单位: 发生率的自然对数。


5 为什么要用对数回归?

因为线性回归经常会遇到问题

5.1 线性回归的局限性

有时候用线性回归会出现 负数系数,负数截距等,而这是逻辑上不可能的情况

  • 比如上学年数是收入的负相关系数,截距也为负等等
  • 还会出现概率超过1情况
  • 等等逻辑上很怪异的情况

5.1.1 具体举个例子

比如现实中的成绩只有 合格,不合格两档次,而且又没有具体的分数,我们需要分析人们及格的概率,需要怎么做呢?如果我们这么设计

5.2 什么原因引起的?

线性回归遇到问题的原因

  • 原因1:如果纯都是定量数据就没问题,但是一旦里面混入了定性/定类数据,就有了问题
  •            比如分析模型里有,年龄,成绩,这种定比数据,还有男女,是否经理这种定类数据都作为自变量时就有可能出现这样的情况
  • 原因2:本身变量之间的关系就很复杂,不适合用线性关系来描述
  • 原因3:其他

5.3 怎么解决? 

5.3.1 解决办法

1 对数回归是方法之一:用对数函数处理后,结果还可以用线性表示

2 其他方法

5.3.2 对数回归的方法 logit regression

  • 其实还是用的线性回归,只是用对数函数做了中转。
  • 因为必须改成曲线回归
  • 如何做曲线回归,很难
  • 而用对数,可以变换成其他直线回归

5.3.3 概率转化为发生率后,发生率的变化不对称


概率转化为发生率后,发生率的变化不对称。但是发生率的自然对数。Log of  it =p/(1-p) 却是对称的,正是利用了对数函数的这一效果。

  • 概率,转化为发生率后,发生率的变化不对称。
  • 发生率不对称,因为是比率,分母分子变化不对等
  • 0.9/0.1=9            变化大,发生率变化小
  • 0.99/0.01=99
  • 0.999/0.001=999
  • 0.9999/0.0001=9999  微量变化小,反而发生率变化很大。

  • 转化为发生率的自然对数。
  • Log of  it =ln(p/(1-p))
  • e=2.718
  • 所以用自然对数,变成稳定的-4.5~4.5之间了

6 和机器学习的sigmoid函数(也叫逻辑函数)的关系(待完善)

【机器学习】逻辑回归原理(极大似然估计,逻辑函数Sigmod函数模型详解!!!)-腾讯云开发者社区-腾讯云在KNN算法中直接可以得出预测结果,但是如果想输出预测结果,还要输出预测结果的概率,这时候就需要使用逻辑回归解决问题。icon-default.png?t=O83Ahttps://cloud.tencent.com/developer/article/2450449https://zhuanlan.zhihu.com/p/696212659icon-default.png?t=O83Ahttps://zhuanlan.zhihu.com/p/696212659

标签:似然,logit,概率,发生率,回归,检验,K2
From: https://blog.csdn.net/xuemanqianshan/article/details/143327448

相关文章

  • orange橙现智能回归问题
    实验介绍:橙现智能是一款可视化,无编程,无门槛的免费人工智能软件。机器也可以学习,机器学习可以简单理解成总结经验,发现规律,掌握规则,预测未来。一:软件的安装中文版本下载地址https://pan.baidu.com/s/1TaYQd5rAzbemBW0EFbNNZA?pwd=8ekr 提取码:8ekr概念先按下不表,我们直接从......
  • 【机器学习篇】线性回归和逻辑回归详解
    一、线性回归定义:线性回归是一种利用数理统计中的回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。它试图找到一个最佳的线性方程,以描述自变量(输入特征)和因变量(目标变量)之间的关系。表达式:一元线性回归的表达式为y=mx+c,其中y是因变量,x是自变量,m......
  • 采用线性回归实现训练和预测(Python)
    已知测得某块地,当温度处于15至40度之间时,数得某块草地上小花朵的数量和温度值的数据如下表所示。现在要来找出这些数据中蕴含的规律,用来预测其它未测温度时的小花朵的数量。测得数据如下图所示:importnumpyasnpimportmatplotlib.pyplotaspltfromsklearn.linear_model......
  • 使用最小二乘法进行线性回归(Python)
    已知测得某块地,当温度处于15至40度之间时,数得某块草地上小花朵的数量和温度值的数据如下表所示。现在要来找出这些数据中蕴含的规律,用来预测其它未测温度时的小花朵的数量。测得数据如下图所示:importmatplotlib.pyplotaspltimportnumpyasnptemperatures=[15,20,......
  • 机器学习实战——基于粒子群优化算法(PSO)优化支持向量回归(SVR)模型(附完整代码)
    基于粒子群优化算法优化支持向量回归模型(附完整代码)关于作者作者:小白熊作者简介:精通python、matlab、c#语言,擅长机器学习,深度学习,机器视觉,目标检测,图像分类,姿态识别,语义分割,路径规划,智能优化算法,数据分析,各类创新融合等等。联系邮箱:[email protected]科研辅导、知识付......
  • 《HelloGitHub》第 103 期
    兴趣是最好的老师,HelloGitHub让你对编程感兴趣!简介HelloGitHub分享GitHub上有趣、入门级的开源项目。github.com/521xueweihan/HelloGitHub这里有实战项目、入门教程、黑科技、开源书籍、大厂开源项目等,涵盖多种编程语言Python、Java、Go、C/C++、Swift...让你在短......
  • 人工智能_神经网络103_感知机_感知机工作原理_感知机具备学习能力_在学习过程中自我调
    由于之前一直对神经网络不是特别清楚,尤其是对神经网络中的一些具体的概念,包括循环,神经网络卷积神经网络以及他们具体的作用,都是应用于什么方向不是特别清楚,所以现在我们来做教程来具体明确一下。当然在机器学习之后还有深度学习,然后在深度学习中对各种神经网络的探讨就会比较......
  • 分位数 四分位距 分位数回归
    分位数  四分位距  分位数回归分位数(Quantile),亦称分位点,是指将一个随机变量的概率分布范围分为几个等份的数值点,常用的有中位数(即二分位数)、四分位数、百分位数等。分位数指的就是连续分布函数中的一个点,这个点对应概率p。若概率0<p<1,随机变量X或它的概率分布的分位数Za,是......
  • 似然值最大的那个模型与目标最接近,这个前提假设和softmax选择以e为底这种做基本元素去
    似然值最大的模型与目标的接近性以及选择以e为底的指数函数构造Softmax函数之间有着密切的联系,主要体现在以下几个方面:1.似然函数与概率分布在统计建模中,最大似然估计(MLE)旨在寻找能够最优地解释观察数据的模型。通过最大化似然函数,我们实际上是在寻找一个概率分布,使得在给......
  • LSTM-ANN基于长短期记忆神经网络结合人工神经网络的多变量回归预测Matlab
    LSTM-ANN基于长短期记忆神经网络结合人工神经网络的多变量回归预测Matlab目录LSTM-ANN基于长短期记忆神经网络结合人工神经网络的多变量回归预测Matlab预测结果评价指标基本介绍程序设计参考资料预测结果评价指标训练集数据的R2为:0.99805测试集数据的R2为:0.9......