一、机器学习的应用
1.监督学习(回归与分类)
2.无监督学习(聚类、异常检测、降维)
3.线性回归模型
f(x)=wx+b
代价函数
cost function:
objective minimize J(w,b)
4.梯度下降
w=w-@ d/dw J(w,b)
b=b-@ d/db J(w,b)
学习率@的影响
too small
too big
4.线性回归中的梯度下降
平方误差函数(凸壳)
5.多类特征、向量化
多类特征线性回归的梯度下降
6.特征缩放、特征工程、多项式回归
7.logistic、决策边界
8.logistic代价函数
9.梯度下降
10.欠拟合、过拟合、正则化
Addressing overfitting
I.collect more data
II.select features
- Feature selection
III.reduce size of parameters
- "Regularization"
二、高级学习算法
1.神经网络
2.神经网络中的层、前向传播
3.TensorFlow
4.前向传播~实现
5.Is there a path to AGI ?
人脑拥有神奇的学习能力
6.矩阵乘法与神经网络
7.TensorFlow实现
8.sigmod的替代,放弃激活函数?
如果对所有隐藏层使用线性函数,相当于只使用一次线性函数
9.多类、softmax、改进、多输出分类
10.高级优化方法(Adam)
11.Deciding what to try next、模型评估、CV
Get more training examples over
Try samller sets of features over
Try getting additional features In fact, I think this can be over
Try adding polynomial featrues(x*x,x1*x2,etc)
Try decreasing -
Try increasing - over
12.偏差与方差、表现基准、with神经网络
13.机器学习的迭代过程、误差分析、数据增强、迁移学习、机器学习项目完整周期、公平偏见与伦理
14.倾斜数据集的误差指标、精确率与召回率
15.决策树、学习过程
16.纯度、递归、One-Hot、连续价值特征、回归树
17.决策树森林、放回抽样、随机森林算法、XGBoost、决策树与神经网络对比
三、无监督学习、推荐算法和强化学习
标签:学习,吴恩达,机器,函数,over,2024,线性,神经网络,Try From: https://www.cnblogs.com/buleeyes/p/18383658