Error系列的指标及loss损失函数,该系列有:
- 均方误差(Mean Square Error,MSE)
- 平均绝对误差(Mean Absolute Error,MAE)
- 均方根误差(Root Mean Square Error,RMSE)
- 均方对数误差(Mean Squared Log Error)
- 平均相对误差(Mean Relative Error,MAE)
这次讲一下平均绝对误差(Mean Absolute Error,MAE)的原理介绍及MindSpore的实现代码。
一. 平均绝对误差(Mean Absolute Error,MAE)介绍
平均绝对误差指的就是模型预测值 f(x) 与样本真实值 y 之间距离的平均值。其公式如下所示:
为了简化讨论,忽略下标 i,m = 1,以 y-f(x) 为横坐标,MAE 为纵坐标,绘制其损失函数的图形:
直观上来看,MAE 的曲线呈 V 字型,连续但在 y-f(x)=0 处不可导,计算机求解导数比较困难。而且 MAE 大部分情况下梯度都是相等的,这意味着即使对于小的损失值,其梯度也是大的。这不利于函数的收敛和模型的学习。
值得一提的是,MAE 相比 MSE 有个优点就是 MAE 对离群点不那么敏感,更有包容性。因为 MAE 计算的是误差 y-f(x) 的绝对值,无论是 y-f(x)>1 还是 y-f(x)<1,没有平方项的作用,惩罚力度都是一样的,所占权重一样。针对 MSE 中的例子,我们来使用 MAE 进行求解,看下拟合直线有什么不同。(我们先用numpy举一下例子。)
X = np.vstack((np.ones_like(x),x)) # 引入常数项 1 m = X.shape[1] # 参数初始化 W = np.zeros((1,2)) # 迭代训练 num_iter = 20 lr = 0.01 J = [] for i in range(num_iter): y_pred = W.dot(X) loss = 1/m * np.sum(np.abs(y-y_pred)) J.append(loss) mask = (y-y_pred).copy() mask[y-y_pred > 0] = 1 mask[mask <= 0] = -1 W = W + lr * 1/m * mask.dot(X.T) # 作图 y1 = W[0,0] + W[0,1]*1 y2 = W[0,0] + W[0,1]*20 plt.scatter(x, y) plt.plot([1,20],[y1,y2],'r--') plt.xlabel('x') plt.ylabel('y') plt.title('MAE') plt.show()
注意上述代码中对 MAE 计算梯度的部分。
拟合结果如下图所示:
显然,使用 MAE 损失函数,受离群点的影响较小,拟合直线能够较好地表征正常数据的分布情况。这一点,MAE 要优于 MSE。二者的对比图如下:
- 选择 MSE 还是 MAE 呢?
实际应用中,我们应该选择 MSE 还是 MAE 呢?从计算机求解梯度的复杂度来说,MSE 要优于 MAE,而且梯度也是动态变化的,能较快准确达到收敛。但是从离群点角度来看,如果离群点是实际数据或重要数据,而且是应该被检测到的异常值,那么我们应该使用MSE。另一方面,离群点仅仅代表数据损坏或者错误采样,无须给予过多关注,那么我们应该选择MAE作为损失。
二. Mean Absolute Error的MindSpore代码实现
好了,原理已经讲完,话不多说,我们开始上代码。使用的是MindSpore框架实现的代码。
Mean Absolute Error的Metric代码实现
"""Error.""" import numpy as np from .metric import Metric class MAE(Metric): def __init__(self): super(MAE, self).__init__() self.clear() def clear(self): """清除历史数据""" self._abs_error_sum = 0 self._samples_num = 0 def update(self, *inputs): # 检验输入个数 if len(inputs) != 2: raise ValueError('Mean absolute error need 2 inputs (y_pred, y), but got {}'.format(len(inputs))) y_pred = self._convert_data(inputs[0]) y = self._convert_data(inputs[1]) # 复现公式计算 abs_error_sum = np.abs(y.reshape(y_pred.shape) - y_pred) # 多组数据进行累加 self._abs_error_sum += abs_error_sum.sum() # 统计数据的个数,方便后面求均值 self._samples_num += y.shape[0] def eval(self): """ 返回值是一个float的标量。 """ if self._samples_num == 0: raise RuntimeError('Total samples num must not be 0.') return self._abs_error_sum / self._samples_num
import numpy as np import mindspore from mindspore import Tensor from mindspore.nn.metrics import MAE x = Tensor(np.array([0.1, 0.2, 0.6, 0.9]), mindspore.float32) y = Tensor(np.array([0.1, 0.25, 0.7, 0.9]), mindspore.float32) error = MAE() error.clear() error.update(x, y) result = error.eval() print(result) 0.037499990314245224
每个batch(比如两组数据)进行计算的时候如下:
import numpy as np from mindspore import Tensor from mindspore.nn.metrics import MAE error = MAE() error.clear() x = Tensor(np.array([0.1, 0.2, 0.6, 0.9])) y = Tensor(np.array([0.1, 0.25, 0.7, 0.9])) error.update(x, y) x1 = Tensor(np.array([0.1, 0.2, 0.6, 0.9])) y1 = Tensor(np.array([0.1, 0.25, 0.7, 0.9])) error.update(x1, y1) result = metric.eval() print(result)
Mean Squared Error的Loss代码实现
import mindspore import mindspore.common.dtype as mstype from mindspore.common.tensor import Tensor from mindspore.common.parameter import Parameter from mindspore.ops import operations as P from mindspore.ops import functional as F from mindspore import nn class MAELoss(_Loss): def construct(self, logits, label): _check_shape(logits.shape, label.shape) x = F.absolute(logits - label) return self.get_loss(x)
使用方法如下:
import numpy as np from mindspore import nn import mindspore from mindspore import Tensor loss = nn.MAELoss() input_data = Tensor(np.array([1, 2, 3]), mindspore.float32) target_data = Tensor(np.array([1, 2, 2]), mindspore.float32) output = loss(input_data, target_data) print(output) 0.33333334
参考:https://zhuanlan.zhihu.com/p/353125247
https://gitee.com/mindspore/mindspore
https://www.mindspore.cn/
标签:函数,Metric,error,MAE,import,np,评价,self,mindspore From: https://www.cnblogs.com/liuwd/p/16869979.html