【Coursera版本学习目录】 https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes
(一)监督学习(线性回归、逻辑回归、神经网络、支持向量机SVM)。
(二)无监督学习:聚类K-meas算法、主成分分析PCA,异常检测(主要用于无监督,某些角度又类似监督学习),推荐系统(基于内容的推荐、协同过滤—基于用户喜好的推荐)。
(三)在机器学习的最佳实践(偏差/方差理论;误差分析;偏差/方差权衡)
- Cost Function代价函数
- 概念区别
- Hypothesis Function:h代表学习算法的解决方案或函数也称为假设(hypothesis),或称为假设函数
- 损失函数(Loss Function )是定义在单个样本上的,算的是一个样本的误差。
- 代价函数(Cost Function )是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。
- 目标函数(Object Function)定义为:最终需要优化的函数。等于经验风险+结构风险(也就是代价函数 + 正则化项)。代价函数最小化,降低经验风险,正则化项最小化降低
1. 监督学习
1.1 线性回归
1.2 逻辑回归
1.2.1 逻辑回归
1.2.2 正则化
1.2.3 决策树
1.2.4 生成学习算法(高斯判别、朴素贝叶斯)
1.2.5 集成学习(随机森林)
1.3 神经网络
1.3.1 直观理解
1.3.2 反向传播算法
1.4 支持向量机SVM
2. 应用机器学习的建议
10.1 决定下一步做什么 参考视频: 10 - 1 - Deciding What to Try Next (6 min).mkv
10.2 评估一个假设 (数据洗牌,分为训练集和测试集) 参考视频: 10 - 2 - Evaluating a Hypothesis (8 min).mkv
10.3 模型选择和交叉验证集 参考视频: 10 - 3 - Model Selection and Train_Validation_Test Sets (12 min).mkv
10.4 诊断偏差和方差(多项式维度d和偏差 方差的关系) 参考视频: 10 - 4 - Diagnosing Bias vs. Variance (8 min).mkv
10.5 正则化和偏差/方差 (正则化参数
标签:10,偏差,机器,min,方差,学习,mkv From: https://www.cnblogs.com/wxdlut/p/18031088