首页 > 其他分享 >【PaddlePaddle】动手实现Focal Loss

【PaddlePaddle】动手实现Focal Loss

时间:2022-11-20 15:06:33浏览次数:37  
标签:__ Loss index self PaddlePaddle ignore Focal alpha gamma


最近发现有人问Focal loss怎么实现,我这里分享一下代码,可以自行调节,进行少许的改进,比如给label加上weights,也可以直接使用。

class FocalLoss(nn.Layer):
def __init__(self, alpha=0.5, gamma=2, weight=None, ignore_index=255):
super().__init__()
self.alpha = alpha
self.gamma = gamma
# 参数可调
# self.weight = paddle.to_tensor(np.array([1.063, 4.468, 1.021]))
self.ignore_index = ignore_index
self.ce_fn = nn.CrossEntropyLoss(soft_label=False)

def forward(self, preds, labels):
logpt = -self.ce_fn(preds, labels)
pt = paddle.exp(logpt)
loss = -((1 - pt) ** self.gamma) * self.alpha * logpt
return loss


标签:__,Loss,index,self,PaddlePaddle,ignore,Focal,alpha,gamma
From: https://blog.51cto.com/u_9453611/5871439

相关文章

  • caffe 根据log画图 train-loss
    importmatplotlib.pyplotaspltimportnumpyasnppath_log="/media/algo/data_1/project/lenet/logs/logs/20221020-123.log"withopen(path_log,"r")asfr:......
  • cv-画loss图
    用loss.txt画loss图importmatplotlib.pyplotaspltdefplot_loss(fileName):print('Starttoplotlossline')allData=[]file=open(fileName,'r......
  • 【caffe解读】 caffe从数学公式到代码实现4-认识caffe自带的7大loss
    文章首发于微信公众号《与有三学AI》​本节说caffe中常见loss的推导,具体包含下面的cpp。multinomial_logistic_loss_layer.cppsoftmax_loss_layer.cppeuclidean_loss_laye......
  • zk api连接超时问题 org.apache.zookeeper.KeeperException$ConnectionLossException:
    遇到org.apache.zookeeper.KeeperException$ConnectionLossException:KeeperErrorCode=ConnectionLossfor/的问题首先让我想到的是,zk所在服务器是开启了防火墙吗?......
  • 【项目实战课】基于Pytorch的MTCNN与Centerloss人脸识别实战
    欢迎大家来到我们的项目实战课,本期内容是《基于Pytorch的MTCNN与Centerloss人脸识别实战》。所谓项目实战课,就是以简单的原理回顾+详细的项目实战的模式,针对具体的某一个主......
  • focal loss
    首先focalloss解决了正负样本不均衡问题,增加了对难样本的权重。​​(3条消息)focalloss详解_为了写博客,要取一个好的名字的博客​​    这个公式中,at对负样本给予比......
  • 用收缩损失(Shrinkage Loss)进行深度回归跟踪
    Winteriscoming!看过冰与火的你应该很熟悉这句,有兴趣的可以去好好观赏一番。但是今天我和大家说的是目标跟踪的内容,如果在这部美剧使用了目标跟踪的技术,又是另一个结局。言......
  • focal loss
    首先focalloss解决了正负样本不均衡问题,增加了对难样本的权重。(3条消息)focalloss详解_为了写博客,要取一个好的名字的博客-CSDN博客_focalloss    这个公式......
  • Hinge Loss
    https://blog.csdn.net/qq_36758914/article/details/103546383HingeLoss表达式为:Li=∑j≠yimax(0,sj−syi+1)L_{i}=\sum_{j\ney_{i}}max(0,s_......
  • torch.nn.KLDivLoss
    KL散度KL散度,又叫相对熵,用于衡量两个分布之间的距离。设$p(x),q(x)$是关于随机变量$x$的两个分布,则$p$相对于$q$的KL散度为:信息论中,熵$H(P)$表示对来自$P$的随机变量进......