- 2023-03-08pifpaf的关键点确定
因为创建场的时候加了padding,所以关键点也要加padding
- 2023-03-07pifpaf的scale损失
torch.nn.Softplus默认公式为log(1+exp(x))importtorchimportnumpyasnpm=torch.nn.Softplus()print(m(torch.Tensor([4]))) 对x作软relu处理然后跟target进
- 2023-03-07pifpaf的回归损失
首先把输出和表情需要计算的数值提取出来然后用regression_loss去计算损失值。 调用的location_loss就是把x,y坐标图的差和bmin做了l2范式。后矩阵除以b再加上logb。