• 2023-03-08pifpaf的关键点确定
    因为创建场的时候加了padding,所以关键点也要加padding   
  • 2023-03-07pifpaf的scale损失
    torch.nn.Softplus默认公式为log(1+exp(x))importtorchimportnumpyasnpm=torch.nn.Softplus()print(m(torch.Tensor([4])))  对x作软relu处理然后跟target进
  • 2023-03-07pifpaf的回归损失
    首先把输出和表情需要计算的数值提取出来然后用regression_loss去计算损失值。  调用的location_loss就是把x,y坐标图的差和bmin做了l2范式。后矩阵除以b再加上logb。