首页 > 其他分享 >Task0-机器学习综述 笔记1

Task0-机器学习综述 笔记1

时间:2022-12-25 21:00:33浏览次数:57  
标签:Task0 机器 函数 综述 模型 笔记 学习 https com


文章目录

  • ​​Task0-机器学习综述​​
  • ​​机器学习的发展​​
  • ​​机器学习分类​​
  • ​​机器学习模型​​
  • ​​机器学习损失函数​​
  • ​​机器学习优化方法​​
  • ​​机器学习的评价指标​​
  • ​​机器学习模型选择​​
  • ​​机器学习参数调优​​
  • ​​参考文献​​

Task0-机器学习综述

2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜. 深度学习开始进行大众的视野中. 深度学习其实是机器学习的一个分支,我们今天来看看机器学习是什么. 机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径.

机器学习的发展

其中,机器学习(Machine Learning)的各个阶段发展历程列表如下。

时间段

机器学习理论

代表性成果

二十世纪五十年代初

人工智能研究处于推理期

A. Newell和H. Simon的“逻辑理论家”(Logic Theorist)程序证明了数学原理,以及此后的“通用问题求解”(General Problem Solving)程序。

已出现机器学习的相关研究

1952年,阿瑟·萨缪尔(Arthur Samuel)在IBM公司研制了一个西洋跳棋程序,这是人工智能下棋问题的由来。

二十世纪五十年代中后期

开始出现基于神经网络的“连接主义”(Connectionism)学习

F. Rosenblatt提出了感知机(Perceptron),但该感知机只能处理线性分类问题,处理不了“异或”逻辑。还有B. Widrow提出的Adaline。

二十世纪六七十年代

基于逻辑表示的“符号主义”(Symbolism)学习技术蓬勃发展

P. Winston的结构学习系统,R. S. Michalski的基于逻辑的归纳学习系统,以及E. B. Hunt的概念学习系统。

以决策理论为基础的学习技术

 

强化学习技术

N. J. Nilson的“学习机器”。

统计学习理论的一些奠基性成果

支持向量,VC维,结构风险最小化原则。

二十世纪八十年代至九十年代中期

机械学习(死记硬背式学习)

示教学习(从指令中学习)

类比学习(通过观察和发现学习)

归纳学习(从样例中学习)

学习方式分类

从样例中学习的主流技术之一:(1)符号主义学习

(2)基于逻辑的学习

(1)决策树(decision tree)。

(2)归纳逻辑程序设计(Inductive Logic Programming, ILP)具有很强的知识表示能力,可以较容易地表达出复杂的数据关系,但会导致学习过程面临的假设空间太大,复杂度极高,因此,问题规模稍大就难以有效地进行学习。

从样例中学习的主流技术之二:基于神经网络的连接主义学习

1983年,J. J. Hopfield利用神经网络求解“流动推销员问题”这个NP难题。1986年,D. E. Rumelhart等人重新发明了BP算法,BP算法一直是被应用得最广泛的机器学习算法之一。

二十世纪八十年代是机器学习成为一个独立的学科领域,各种机器学习技术百花初绽的时期

连接主义学习的最大局限是“试错性”,学习过程涉及大量参数,而参数的设置缺乏理论指导,主要靠手工“调参”,参数调节失之毫厘,学习结果可能谬以千里。

二十世纪九十年代中期

统计学习(Statistical Learning)

支持向量机(Support Vector Machine,SVM),核方法(Kernel Methods)。

二十一世纪初至今

深度学习(Deep Learning)

深度学习兴起的原因有二:数据量大,机器计算能力强。

机器学习分类

  1. 监督学习
    监督学习是指利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习。在监督学习的过程中会提供对错指示,通过不断地重复训练,使其找到给定的训练数据集中的某种模式或规律,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集要求包括输入和输出,主要应用于分类和预测。
  2. 非监督学习
    与监督学习不同,在非监督学习中,无须对数据集进行标记,即没有输出。其需要从数据集中发现隐含的某种结构,从而获得样本数据的结构特征,判断哪些数据比较相似。因此,非监督学习目标不是告诉计算机怎么做,而是让它去学习怎样做事情。
  3. 半监督学习
    半监督学习是监督学习和非监督学习的结合,其在训练阶段使用的是未标记的数据和已标记的数据,不仅要学习属性之间的结构关系,也要输出分类模型进行预测。
  4. 强化学习
    强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题.

机器学习模型

机器学习 = 数据(data) + 模型(model) + 优化方法(optimal strategy)

机器学习的算法导图


Task0-机器学习综述  笔记1_机器学习

机器学习的注意事项[来源网络]

常见的机器学习算法

  1. Linear Algorithms 线性算法
  1. Linear Regression 线性回归
  2. Lasso Regression 套索回归
  3. Ridge Regression 岭回归
  4. Logistic Regression 逻辑回归
  1. Decision Tree 决策树
  1. ID3
  2. C4.5
  3. CART
  1. SVM 支持向量机
  2. Naive Bayes Algorithms 朴素贝叶斯算法
  1. Naive Bayes 朴素贝叶斯
  2. Gaussian Naive Bayes 高斯朴素贝叶斯
  3. Multinomial Naive Bayes 多项式朴素贝叶斯
  4. Bayesian Belief Network (BBN) 贝叶斯信念网络
  5. Bayesian Network (BN) 贝叶斯网络
  1. kNN
  2. Clustering Algorithms 聚类算法
  1. k-Means
  2. k-Medians
  3. Expectation Maximisation (EM) 期望最大化
  4. Hierarchical Clustering 层次聚类
  1. K-Means
  2. Random Forest 随机森林
  3. Dimensionality Reduction Algorithms 降维算法
  4. Gradient Boosting algorithms 梯度增强算法
  1. GBM
  2. XGBoost
  3. LightGBM
  4. CatBoost
  1. Deep Learning Algorithms 深度学习算法
  1. Convolutional Neural Network (CNN) 卷积神经网络
  2. Recurrent Neural Networks (RNNs) 递归神经网络
  3. Long Short-Term Memory Networks (LSTMs) 长-短期记忆网络(LSTM)
  4. Stacked Auto-Encoders 堆叠式自动编码器
  5. Deep Boltzmann Machine (DBM) 深玻耳兹曼机
  6. Deep Belief Networks (DBN) 深层信念网络(DBN)

机器学习损失函数

损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。

  1. 0-1损失函数
    Task0-机器学习综述  笔记1_机器学习_02
  2. 绝对值损失函数
    Task0-机器学习综述  笔记1_损失函数_03
  3. 平方损失函数
    Task0-机器学习综述  笔记1_监督学习_04
  4. log对数损失函数
    Task0-机器学习综述  笔记1_损失函数_05
  5. 指数损失函数
  6. Hinge损失函数
    Task0-机器学习综述  笔记1_机器学习_06

机器学习优化方法

梯度下降是最常用的优化方法之一,它使用梯度的反方向Task0-机器学习综述  笔记1_机器学习_07更新参数Task0-机器学习综述  笔记1_机器学习_08,使得目标函数Task0-机器学习综述  笔记1_机器学习_09达到最小化的一种优化方法,这种方法我们叫做梯度更新.

  1. (全量)梯度下降
    Task0-机器学习综述  笔记1_损失函数_10
  2. 随机梯度下降
    Task0-机器学习综述  笔记1_监督学习_11
  3. 小批量梯度下降
    Task0-机器学习综述  笔记1_监督学习_12
  4. 引入动量的梯度下降
    Task0-机器学习综述  笔记1_损失函数_13
  5. 自适应学习率的Adagrad算法
    Task0-机器学习综述  笔记1_损失函数_14
  6. 牛顿法
    Task0-机器学习综述  笔记1_机器学习_15
    其中:
    Task0-机器学习综述  笔记1_机器学习_16: 迭代的轮数

Task0-机器学习综述  笔记1_监督学习_17: 学习率

Task0-机器学习综述  笔记1_机器学习_18: 前t次迭代的梯度和

Task0-机器学习综述  笔记1_机器学习_19很小的数,防止除0错误

Task0-机器学习综述  笔记1_监督学习_20: 损失函数相当于Task0-机器学习综述  笔记1_机器学习_08的Hession矩阵在Task0-机器学习综述  笔记1_监督学习_22处的估计

机器学习的评价指标

  1. MSE(Mean Squared Error)
    Task0-机器学习综述  笔记1_监督学习_23
  2. MAE(Mean Absolute Error)
    Task0-机器学习综述  笔记1_机器学习_24
  3. RMSE(Root Mean Squard Error)
    Task0-机器学习综述  笔记1_损失函数_25
  4. Top-k准确率
    Task0-机器学习综述  笔记1_监督学习_26
  5. 混淆矩阵
  • 真正例(True Positive, TP):真实类别为正例, 预测类别为正例
  • 假负例(False Negative, FN): 真实类别为正例, 预测类别为负例
  • 假正例(False Positive, FP): 真实类别为负例, 预测类别为正例
  • 真负例(True Negative, TN): 真实类别为负例, 预测类别为负例
  • 真正率(True Positive Rate, TPR): 被预测为正的正样本数 / 正样本实际数
    Task0-机器学习综述  笔记1_损失函数_27
  • 假负率(False Negative Rate, FNR): 被预测为负的正样本数/正样本实际数
    Task0-机器学习综述  笔记1_机器学习_28
  • 假正率(False Positive Rate, FPR): 被预测为正的负样本数/负样本实际数,
    Task0-机器学习综述  笔记1_机器学习_29
  • 真负率(True Negative Rate, TNR): 被预测为负的负样本数/负样本实际数,
    Task0-机器学习综述  笔记1_机器学习_30
  • 准确率(Accuracy)
    Task0-机器学习综述  笔记1_监督学习_31
  • 精准率
    Task0-机器学习综述  笔记1_监督学习_32
  • 召回率
    Task0-机器学习综述  笔记1_机器学习_33
  • F1-Score
    Task0-机器学习综述  笔记1_损失函数_34
  • ROC

ROC曲线的横轴为“假正例率”,纵轴为“真正例率”. 以FPR为横坐标,TPR为纵坐标,那么ROC曲线就是改变各种阈值后得到的所有坐标点 (FPR,TPR) 的连线,画出来如下。红线是随机乱猜情况下的ROC,曲线越靠左上角,分类器越佳.

  • AUC(Area Under Curve)

AUC就是ROC曲线下的面积. 真实情况下,由于数据是一个一个的,阈值被离散化,呈现的曲线便是锯齿状的,当然数据越多,阈值分的越细,”曲线”越光滑.


用AUC判断分类器(预测模型)优劣的标准:

  • AUC = 1 是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器.
  • 0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值.
  • AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测.

机器学习模型选择

  1. 交叉验证

所有数据分为三部分:训练集、交叉验证集和测试集。交叉验证集不仅在选择模型时有用,在超参数选择、正则项参数 [公式] 和评价模型中也很有用。

  1. k-折叠交叉验证
  • 假设训练集为S ,将训练集等分为k份:Task0-机器学习综述  笔记1_机器学习_35.
  • 然后每次从集合中拿出k-1份进行训练
  • 利用集合中剩下的那一份来进行测试并计算损失值
  • 最后得到k次测试得到的损失值,并选择平均损失值最小的模型
  1. Bias与Variance,欠拟合与过拟合

欠拟合一般表示模型对数据的表现能力不足,通常是模型的复杂度不够,并且Bias高,训练集的损失值高,测试集的损失值也高.

过拟合一般表示模型对数据的表现能力过好,通常是模型的复杂度过高,并且Variance高,训练集的损失值低,测试集的损失值高.


Task0-机器学习综述  笔记1_机器学习_36

Task0-机器学习综述  笔记1_监督学习_37

  1. 解决方法
  • 增加训练样本: 解决高Variance情况
  • 减少特征维数: 解决高Variance情况
  • 增加特征维数: 解决高Bias情况
  • 增加模型复杂度: 解决高Bias情况
  • 减小模型复杂度: 解决高Variance情况

机器学习参数调优

  1. 网格搜索

一种调参手段;穷举搜索:在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果

  1. 随机搜索

与网格搜索相比,随机搜索并未尝试所有参数值,而是从指定的分布中采样固定数量的参数设置。它的理论依据是,如果随即样本点集足够大,那么也可以找到全局的最大或最小值,或它们的近似值。通过对搜索范围的随机取样,随机搜索一般会比网格搜索要快一些。

  1. 贝叶斯优化算法

贝叶斯优化用于机器学习调参由J. Snoek(2012)提出,主要思想是,给定优化的目标函数(广义的函数,只需指定输入和输出即可,无需知道内部结构以及数学性质),通过不断地添加样本点来更新目标函数的后验分布(高斯过程,直到后验分布基本贴合于真实分布。简单的说,就是考虑了上一次参数的信息,从而更好的调整当前的参数。

参考文献

  1. ​https://www.jianshu.com/p/a95d33fea777​
  2. ​https://baike.baidu.com/item/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/217599?fr=aladdin​
  3. ​https://baike.baidu.com/item/%E5%BC%BA%E5%8C%96%E5%AD%A6%E4%B9%A0/2971075?fr=aladdin​
  4. ​https://www.analyticsvidhya.com/blog/2017/09/common-machine-learning-algorithms/​
  5. ​https://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/​
  6. ​https://www.kaggle.com/getting-started/83518​
  7. ​https://www.jianshu.com/p/b0f56b7d7ee8​
  8. ​https://baike.baidu.com/item/AUC/19282953?fr=aladdin​
  9. ​https://zhuanlan.zhihu.com/p/30844838​
  10. ​https://www.jianshu.com/p/55b9f2ea283b​
  11. ​https://www.jianshu.com/p/5378ef009cae​
  12. ​https://www.jianshu.com/p/5378ef009cae​


标签:Task0,机器,函数,综述,模型,笔记,学习,https,com
From: https://blog.51cto.com/u_15796263/5968365

相关文章

  • 宏碁笔记本重装系统(没有legacy boot,没有sata mode)
    宏碁笔记本像是定制的,重装系统很麻烦,BIOS没有satamode,默认UEFIBOOT,灰色的无法修改。1、安装UEFI模式的PE,我这里用的是胖爪装机大师,http://zj.xitongcheng.com/2、开机,......
  • 【企业数字化转型】数字化转型的本质(学习笔记)
    摘要:数字化转型的本质是:在“数据+算法”定义的世界中,以智能数据服务的流动,化解复杂系统的不确定性,优化资源配置效率,构建企业新型竞争优势。我们要换一个视角,我们从一种静......
  • Elasticsearch全文检索引擎复习笔记
    Elasticsearch全文检索引擎复习笔记Elasticsearch是一个基于Lucene的搜索引擎。它提供了一个分布式、多租户的全文搜索引擎,能够为应用程序提供实时的、结构化和非结构......
  • CMU15-445:Lecture #04 笔记
    Lecture#04:DatabaseStorage(PartII)本文是对CMU15-445课程第4节笔记的一个粗略总结和翻译。仅供个人(M1kanN)复习使用。1.Log-StructuredStorage(也叫Append-o......
  • Python学习笔记--SQL数据
    SQL本人受到Java的影响,数据库的话,就不按照教程走了,我就直接使用的是Navicat软件的数据库啦!SQL支持注释:两种单行注释(--和#),和一种多行注释(/**/)基础的使用语法:使......
  • ssh 使用笔记
    SSH连接 ssh是连接远程服务器非常方便的一种方式,可以使用本地的XShell与Xftp快速地连接。例如,服务器租界平台提供的ssh指令:ssh-p14xxxroot@xxxxxxxxxxxx其......
  • Segment Tree Beats 学习笔记
    chkmin线段树、历史值问题。CF1290E将题意转化为求\(\sum\limits_{i=1}^n(suf_i-pre_i-1)\),其中\(suf_i\)表示\(i\)后第一个比\(i\)大的数的位置,\(pre_i\)表示......
  • CMU15-445:Lecture #03 笔记
    Lecture#03:DatabaseStorage(PartI)本文是对CMU15-445课程第三节笔记的一个粗略总结和翻译。仅供个人(M1kanN)复习使用。1.Storage存储我们将关注一个"面向......
  • 初步了解学习Rust中traits-学习笔记
    在Rust中Traits:定义可共享的行为比较类似其他语言中的接口TraitsAtraitdefinesfunctionalityaparticulartypehasandcansharewithothertypes.Wecanus......
  • (1综述)从零开始的嵌入式图像图像处理(PI+QT+OpenCV)实战演练
    从零开始的嵌入式图像图像处理(PI+QT+OpenCV)实战演练1综述2环境架设3两个例子4程序框架5编译使用最新opencv6综合实验7拾遗一、PI的综述   树莓派(Raspber......