测试
从图中我们可以发现,随着训练次数的增加,Loss越来越小,准确率也是越来越高·。但是在到达某个节点后,随着训练次数的增多Loss反而不稳定起来,准确率也发生波动。所以说明模型的训练并不是次数越多越好。这是因为对于同一个训练集,不断地训练会让模型记住这些样本的一些表面属性,使其在新的数据集上泛化能力很弱。这种现象叫做过拟合。
为了解决这一现象,我们在训练时就要做测试,在达到合适的效果后停止训练,保存此时的参数。
logits是离散的值,在经过softmax后变成了概率。而argmax就是用来获取概率最大的预测标签。这里对logits和pred做argmax是一样的。
torch.eq( )是比较两个tensor,相同的标1,不同的标0,结果的shape和这两个tensor是一样的。
标签:Loss,tensor,训练,argmax,测试,logits From: https://www.cnblogs.com/dxmstudy/p/17447402.html