首页 > 其他分享 >常见LOSS函数之Cross Entropy(交叉熵)

常见LOSS函数之Cross Entropy(交叉熵)

时间:2023-05-30 20:55:05浏览次数:42  
标签:LOSS 交叉 散度 Cross Entropy Softmax

常见LOSS函数之Cross Entropy(交叉熵)

交叉熵是分类问题常用的损失函数。

熵表示稳定性或者说惊喜度,熵越高表示越稳定,其惊喜度就越低。

image-20230530203221815

示例

image-20230530203309433

一般用H(p)表示熵

交叉熵

image-20230530203537195

交叉熵=熵+散度

散度代表分布的重叠程度,散度越高重合度越少。

image-20230530203831219

当两个分布p和q相等时,散度等于0,此时交叉熵等于熵值。

image-20230530204034767

二分类问题

image-20230530204340837

示例

image-20230530204448250

Softmax与交叉熵

在一般的情况下,Softmax和交叉熵是一起使用的,单独使用会出现数据不稳定的情况。在pytorch中使用时,Softmax被内置在了CrossEntropy中。

image-20230528152648141

标签:LOSS,交叉,散度,Cross,Entropy,Softmax
From: https://www.cnblogs.com/dxmstudy/p/17444460.html

相关文章

  • [论文阅读] GAS-NeXt@Few-Shot Cross-Lingual Font Generator
    Pretitle:GAS-NeXt:Few-ShotCross-LingualFontGeneratoraccepted:arxiv2022paper:https://arxiv.org/abs/2212.02886code:https://github.com/cmu-11785-F22-55/GAS-NeXt关键词:few-shot,cross-lingual,fontgeneration阅读理由:新作,有代码,简单易读(快速应对组会),......
  • 使用SpringMVC 拦截器导致出现@CrossOrigin失效问题解决办法
    非简单请求会发起一个OPTIONS方法的预检请求,这个请求会被拦截器拦截,但是服务器没有给浏览器返回必要的跨域指示信息(比如:“Access-Control-Allow-Origin”----允许哪些请求访问),浏览器没收到指示信息,就认为服务器不允许跨域请求,就会报错。所以需要在拦截器拦截OPTIONS方法的预......
  • 常见LOSS函数之MSE
    MSE及其梯度MSE(meansquarederror均方差)pytorch实现方法一:autograd方法二:backwardcrossentropyloss......
  • nodeJs 常用库之 cross-env
    楔子为什么会注意到这个库呢?起因是因为,在公司的项目package.json看到启动或者编译的命令是这样写的"start":"cross-envNODE_ENV=developmentSERVICE_NAME=testServerneststart","start:dev":"cross-envNODE_ENV=developmentSERVICE_NAME=testServerneststart--......
  • Jan 2023-Prioritizing Samples in Reinforcement Learning with Reducible Loss
    1Introduction本文建议根据样本的可学习性进行抽样,而不是从经验回放中随机抽样。如果有可能减少代理对该样本的损失,则认为该样本是可学习的。我们将可以减少样本损失的数量称为其可减少损失(ReLo)。这与Schaul等人[2016]的vanilla优先级不同,后者只是对具有高损失的样本给予高优......
  • Robust Deep Reinforcement Learning through Adversarial Loss
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!35thConferenceonNeuralInformationProcessingSystems(NeurIPS2021)  Abstract最近的研究表明,深度强化学习智能体很容易受到智能体输入上的小对抗性扰动的影响,这引发了人们对在现实世界中部署此类代理的担......
  • Handling Information Loss of Graph Neural Networks for Session-based Recommendat
    目录概符号说明存在的问题LossysessionencodingproblemIneffectivelong-rangedependencycapturingproblemLESSRS2MGS2SG模型EOPA(Edge-OrderPreservingAggregation)SGAT(ShortcutGraphAttention)叠加代码ChenT.andWongR.C.Handlinginformationlossofgrap......
  • 穷穷穷孩子如何体验ColossalAI SFT(Kaggle篇)
    KaggleNotebook每周会提供30小时的GPU免费使用额度。这为一些想先小小熟悉一下语言模型、但是手里没有资源可用、暂时还不想租用服务器的小伙伴来说,可能带来了一丝安慰。这篇教程以能够运行ColossalAI的“RLHFTrainingStage1-Supervisedinstructstuning”部分为主线,附带罗......
  • 向量点积dot,叉积cross product
    点积概括地说,向量的内积(点乘/数量积)。对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,点乘的结果是一个标量(数量而不是向量)点积(点乘)的几何意义包括:表征或计算两个向量之间的夹角b向量在a向量方向上的投影叉积两个向量的外积,又叫叉乘、叉积向量积,其运......
  • Exercises 1 in Statistical mechanics: entropy, order parameters, and complexity
    这里记录一下一些在《Statisticalmechanics:entropy,orderparameters,andcomplexity》这本书的第一章中的一些比较有趣的题目。Q1ThereareMdiceeachwithNsides(labeledbyintegers)andateachturneverydiceisthrownindependentlyoneafteranother,and......