四、机器学习
1 深度学习
1.1 线性回归与逻辑回归
1.1.1 线性回归
1.1.1.1 线性回归——二维线性回归方程
1)原理讲述
- 这个应该上过高中的小伙伴都听过,也都用过,那是在高中必修3中出现的知识点,考试也是会考的,可能你想不起那个公式了,但你肯定依稀的记得$\hat{a},\hat{b}$这两个东西,还有这个方程 $\hat{y}=\hat{b}x+\hat{a}$,通过这个方程来预测y的值,$\hat{a},\hat{b}$都有它们的计算方式,但是公式有点复杂,老师可能也说过一般试卷上会给,让我们在脑海来重温一下那个知识,这里先给出计算公式:
$$
\begin{cases} \displaystyle \hat{b}=\frac{\displaystyle \sum_{i=1}^n{(x_i-\bar{x})(y_i-\bar{y})}} {\displaystyle \sum_{i=1}n{(x_i-\bar{x})2}} =\frac{\displaystyle \sum_{i=1}^n{x_iy_i-n\bar{x}\bar{y}}} {\displaystyle \sum_{i=1}n{x_i2-n\bar{x}^2}} \ \displaystyle \hat{a}=\bar{y}-\hat{b}\bar{x}\end{cases} \ \hat{y}=\hat{b}x+\hat{a}
$$
公式够复杂,但是看着公式里面需要的参数来说其实也没有什么难度,其中公式中最重要的两个参数就是$\bar{x},\bar{y}$也就分别是x,和y的平均值,计算很简单.我们要学习一个东西既要知其然也要知其所以然,不妨我们从头来推导出这个公式: