看这一节前最好先移动至--动手学深度学习(预备知识),把基础知识打牢,使后续理解代码和原理更加容易
因为这里是第三章的内容了,所以笔者的目录就从3开始咯。
目录
3.线性神经网络
3.1线性回归
3.11线性回归的基本元素
学基本元素之前,我们需要先理解回归和分类的区别
相同点:两者都是对输入的特征,判断并预测类别。
不同点:
1.输出不同。 分类问题是输出物体所属类别,回归问题是输出值。
比如说:南阳最近下暴雨,分类问题就会输出过几天是下雨,还是多云,还是晴天。回归问题,就会判断过几天的温度是多少到多少摄氏度。
分类问题是定性的,离散的,回归问题是定量的,连续的。
2.目的不同。
分类的目的是为了寻找决策边界,即分类算法得到是一个决策面,用于对数据集中的数据进行分类。
回归的目的是为了找到最优拟合,通过回归算法得到是一个最优拟合线,这个线条可以最好的接近数据集中的各个点。
3.结果不同。
分类的结果说一不二,回归可以有逼近,损失很小就是很不错的回归了。
接下来就是基本元素了,这里我们用一款皮肤的价格来进行举例。
我们根据英雄的出场率和平台中英雄的热度以及之前发售皮肤的品质收割的利润来预测这个英雄该出多少价格区间的皮肤。
研制这个模型需要以下方面:
训练数据集:英雄的出场率和平台中英雄的热度以及之前发售皮肤的品质。
样本:每一次发售的皮肤相对应的数据。(每行数据)
标签或目标:预测的皮肤价格
自变量:出场率和销量等等。
线性是可以用一个方程式来表示
这个式子其实是一个仿射变换。通过(加权和)对特征进行线性变换,并通过偏置进行平移。
(仿射变换变化包括缩放(Scale、平移(transform)、旋转(rotate)、反射(reflection,对图形照镜子)、错切(shear mapping,感觉像是一个图形的倒影),原来的直线仿射变换后还是直线,原来的平行线经过仿射变换之后还是平行线,这就是仿射)
特征比较多的时候我们就会有多个w权重,但后面b是一个
3.12损失函数
在我们开始考虑如何用模型拟合数据之前,我们需要确定一个拟合程度的度量。
损失函数(loss function)能够量化目标的实际值与预测值之间的差距.
通常我们会选择非负数作为损失,且数值越小表示损失越小,完美预测时的损失为0。
回归问题中最常用的损失函数是平方误差函数:
第一个y代表预测,第二个y代表真实
y可以用wx+b来表示
训练模型时我们需要不断更新w和b使在所有样本中有最小损失
3.13解析解
预测问题是最小化||y-Xw||
这在损失平面上只有一个临界点,这个临界点对应于整个区域的损失极小点。
将损失关于
标签:return,函数,self,torch,batch,动手,神经网络,线性,data From: https://blog.csdn.net/Q268191051011/article/details/140512270