首页 > 其他分享 >熵权(值)法计算权重原理解释&综合得分纵向对比

熵权(值)法计算权重原理解释&综合得分纵向对比

时间:2024-04-29 13:55:04浏览次数:18  
标签:得分 权重 非负 处理 矩阵 纵向 ln 数据

熵值是不确定性的一种度量。信息量越大,不确定性就越小,熵也就越小;信息量越小,不确定性越大,熵也越大。因而利用熵值携带的信息进行权重计算,结合各项指标的变异程度,利用信息熵这个工具,计算出各项指标的权重,为多指标综合评价提供依据。

权重计算

熵值法的计算公式如下:

参考文献:[1]张晓捷.基于熵权TOPSIS法的长租公寓财务风险评价及防范研究[D].广西大学,2022.DOI:10.27034/d.cnki.ggxiu.2022.001712.

step1:

根据研究者的数据进行构建评价矩阵(其实就是整理好正确的数据格式,一行为一个样本,一列为一个属性);

step2:

根据指标的属性进行数据处理,常用的为正向化处理和逆向化处理,有时财务数据还会进行适度化处理,适度化是指数据越接近某个值越好。

step3:非负处理

除此之外,还需要对step2的矩阵进行非负处理(仅针对数据中有非负数据,为什么进行处理呢?计算中有ln函数,不处理无法计算,可见下方计算公式),至于平移多少,不同的文献,处理不同,以参考的文献为准。常见的有0.0001、0.01、1等。此文献是平移0.001,不管平移多少,其目的最终都是为了数据满足熵值法的计算要求。

平移后的矩阵如下:

step4:

对非负处理后的矩阵进行归一化处理:

①列求和:

②归一化处理

0.0011/1.007=0.001092;0.1465/1.0071=0.145467,以此类推;

step5:求1/ln(n)

有些文献还称1/ln(n)为k,所以在其他文献中看到熵值计算公式里的k其实就是1/ln(n),其中n为样本量,也就是数据中的行数,有几行就除以几;

step6:求数据与对数乘积(p*lnp)

使用的是归一化后的数据,比如0.001092*ln(0.001092)=-0.00745;以此类推;

step7:求熵值

对数据与对数乘积矩阵每一列求和,求和后乘以-k就是对应的每一个属性的熵值;

step8:求差异系数

差异系数=1-熵值;

step9:求权重

对差异系数进行归一化处理;

除此之外,也可以使用spssau进行分析,中间处理过程spssau会默认进行。

结果如下:

综合得分计算:

熵值法得到权重值后,此时数据与对应的权重相乘,并且进行累加,最终得到一列数据即为‘综合得分’。这里的数据指的是非负处理后的矩阵,如果没有进行非负处理,则为量纲化处理后的数据。

纵向对比:

标签:得分,权重,非负,处理,矩阵,纵向,ln,数据
From: https://www.cnblogs.com/spssau/p/18165560

相关文章

  • 力扣-1422. 分割字符串的最大得分
    1.题目题目地址(1422.分割字符串的最大得分-力扣(LeetCode))https://leetcode.cn/problems/maximum-score-after-splitting-a-string/?envType=study-plan-v2&envId=primers-list题目描述给你一个由若干0和1组成的字符串s,请你计算并返回将该字符串分割成两个非空子......
  • 解决加载GPT2(Tensorflow预训练模型)的Linear权重到PyTorch的Linear权重 形状不匹配(互为
    解决报错内容:RuntimeError:Error(s)inloadingstate_dictforPyTorchBasedGPT2:sizemismatchfortransformer.h.0.attn.c_attn.weight:copyingaparamwithshapetorch.Size([768,2304])fromcheckpoint,theshapeincurrentmodelistorch.Size([2304,768]).........
  • [深度学习]L2正则化和权重衰退(Weight Decay)
    L2正则化和权重衰退(WeightDecay)一、权重衰退介绍1.什么是权重衰减/权重衰退——weight_decayL2正则化主要作用是:解决过拟合,在损失函数中加入L2正则化项2.L2范数L2范数,也被称作欧几里得范数或者Frobenius范数(当应用于矩阵时),是最常用的向量范数之一,用于衡量向量元......
  • atcgis反距离权重插值
    前面导入盟市界、旗县界shp,还有站点经纬度、PA等级什么的我就不说了站点经纬度数据内容: 主要想做的事情是插值PA_class的内容。第一步:自定义-扩展模块-勾选这两个第二步:自定义-工具条-geostatisticalanalyst 点击geostatisticalanalyst里的  地统计向导-反距离权......
  • PiSSA :将模型原始权重进行奇异值分解的一种新的微调方法
    我们开始看4月的新论文了,这是来自北京大学人工智能研究所、北京大学智能科学与技术学院的研究人员发布的PrincipalSingularValuesandSingularVectorsAdaptation(PiSSA)方法。PiSSA和LoRA一样,都是基于这样的前提:对模型参数的改变会形成一个低秩矩阵。这种方法通过将模型中的......
  • 1039. 多边形三角剖分的最低得分
    题目链接:实现一、记忆化搜索classSolution{public:intminScoreTriangulation(vector<int>&values){intn=values.size();intmemo[n][n];memset(memo,-1,sizeofmemo);//-1表示还没有计算过function<int(int,int)>df......
  • 在Blender中,重新调整已经绑定权重的骨骼位置而不影响绑定的顶点位置
    在Blender中,重新调整已经绑定权重的骨骼位置而不影响绑定的顶点位置,是一个比较特殊的需求。这通常涉及到调整骨骼的“RestPose”(休息姿势),而不是它的“PosePosition”(姿势位置),以保持顶点相对于骨骼的位置不变。下面是详细的步骤和一些建议,以达到这个目的:1. 准备工作确保你的......
  • R语言主成分分析(PCA)葡萄酒可视化:主成分得分散点图和载荷图
    原文链接:http://tecdat.cn/?p=22492 原文出处:拓端数据部落公众号  我们将使用葡萄酒数据集进行主成分分析。数据数据包含177个样本和13个变量的数据框;vintages包含类标签。这些数据是对生长在意大利同一地区但来自三个不同栽培品种的葡萄酒进行化学分析的结果:内比奥罗、......
  • PyTorch学习(5):并行训练模型权重的本地化与加载
    1.并行训练与非并行训练        在训练深度神经网络时,我们一般会采用CPU或GPU来完成。得益于开源传统,许多算法都提供了完整的开源代码工程,便于学习和使用。随着GPU的普及,GPGPU已经占据了大部分的训练场景。        我们在这里仅以GPU训练场景做一些说明。......
  • DIjkstra进阶模板 路径记录 按权重(结点数最小等)记录
    structDIJ{usingi64=longlong;usingPII=pair<i64,i64>;vector<i64>dis,path,node;vector<vector<array<int,3>>>G;intn;DIJ(){}DIJ(intn):n(n){node.resize(n+1,1);......