首页 > 其他分享 >机器学习:详解迁移学习(Transfer learning)

机器学习:详解迁移学习(Transfer learning)

时间:2024-07-18 09:56:32浏览次数:8  
标签:训练 放射科 Transfer 神经网络 学习 任务 learning 迁移

详解迁移学习

深度学习中,最强大的理念之一就是,有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中。所以例如,也许已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读x射线扫描图,这就是所谓的迁移学习。

来看看,假设已经训练好一个图像识别神经网络,所以首先用一个神经网络,并在\((x,y)\)对上训练,其中\(x\)是图像,\(y\)是某些对象,图像是猫、狗、鸟或其他东西。如果把这个神经网络拿来,然后让它适应或者说迁移,在不同任务中学到的知识,比如放射科诊断,就是说阅读\(X\)射线扫描图。可以做的是把神经网络最后的输出层拿走,就把它删掉,还有进入到最后一层的权重删掉,然后为最后一层重新赋予随机权重,然后让它在放射诊断数据上训练。

具体来说,在第一阶段训练过程中,当进行图像识别任务训练时,可以训练神经网络的所有常用参数,所有的权重,所有的层,然后就得到了一个能够做图像识别预测的网络。在训练了这个神经网络后,要实现迁移学习,现在要做的是,把数据集换成新的\((x,y)\)对,现在这些变成放射科图像,而\(y\)是想要预测的诊断,要做的是初始化最后一层的权重,让称之为\(w^{[L]}\)和\(b^{[L]}\)随机初始化。

现在,在这个新数据集上重新训练网络,在新的放射科数据集上训练网络。要用放射科数据集重新训练神经网络有几种做法。可能,如果的放射科数据集很小,可能只需要重新训练最后一层的权重,就是\(w^{[L]}\)和\(b^{[L]}\)并保持其他参数不变。如果有足够多的数据,可以重新训练神经网络中剩下的所有层。经验规则是,如果有一个小数据集,就只训练输出层前的最后一层,或者也许是最后一两层。但是如果有很多数据,那么也许可以重新训练网络中的所有参数。如果重新训练神经网络中的所有参数,那么这个在图像识别数据的初期训练阶段,有时称为预训练(pre-training),因为在用图像识别数据去预先初始化,或者预训练神经网络的权重。然后,如果以后更新所有权重,然后在放射科数据上训练,有时这个过程叫微调(fine tuning)。如果在深度学习文献中看到预训练和微调,就知道它们说的是这个意思,预训练和微调的权重来源于迁移学习。

在这个例子中做的是,把图像识别中学到的知识应用或迁移到放射科诊断上来,为什么这样做有效果呢?有很多低层次特征,比如说边缘检测、曲线检测、阳性对象检测(positive objects),从非常大的图像识别数据库中习得这些能力可能有助于的学习算法在放射科诊断中做得更好,算法学到了很多结构信息,图像形状的信息,其中一些知识可能会很有用,所以学会了图像识别,它就可能学到足够多的信息,可以了解不同图像的组成部分是怎样的,学到线条、点、曲线这些知识,也许对象的一小部分,这些知识有可能帮助的放射科诊断网络学习更快一些,或者需要更少的学习数据。

这里是另一个例子,假设已经训练出一个语音识别系统,现在\(x\)是音频或音频片段输入,而\(y\)是听写文本,所以已经训练了语音识别系统,让它输出听写文本。现在说想搭建一个“唤醒词”或“触发词”检测系统,所谓唤醒词或触发词就是说的一句话,可以唤醒家里的语音控制设备,比如说“Alexa”可以唤醒一个亚马逊Echo设备,或用“OK Google”来唤醒Google设备,用"Hey Siri"来唤醒苹果设备,用"好百度"唤醒一个百度设备。要做到这点,可能需要去掉神经网络的最后一层,然后加入新的输出节点,但有时可以不只加入一个新节点,或者甚至往的神经网络加入几个新层,然后把唤醒词检测问题的标签\(y\)喂进去训练。再次,这取决于有多少数据,可能只需要重新训练网络的新层,也许需要重新训练神经网络中更多的层。

那么迁移学习什么时候是有意义的呢?迁移学习起作用的场合是,在迁移来源问题中有很多数据,但迁移目标问题没有那么多数据。例如,假设图像识别任务中有1百万个样本,所以这里数据相当多。可以学习低层次特征,可以在神经网络的前面几层学到如何识别很多有用的特征。但是对于放射科任务,也许只有一百个样本,所以的放射学诊断问题数据很少,也许只有100次\(X\)射线扫描,所以从图像识别训练中学到的很多知识可以迁移,并且真正帮加强放射科识别任务的性能,即使的放射科数据很少。

对于语音识别,也许已经用10,000小时数据训练过的语言识别系统,所以从这10,000小时数据学到了很多人类声音的特征,这数据量其实很多了。但对于触发字检测,也许只有1小时数据,所以这数据太小,不能用来拟合很多参数。所以在这种情况下,预先学到很多人类声音的特征人类语言的组成部分等等知识,可以帮建立一个很好的唤醒字检测器,即使的数据集相对较小。对于唤醒词任务来说,至少数据集要小得多。

所以在这两种情况下,从数据量很多的问题迁移到数据量相对小的问题。然后反过来的话,迁移学习可能就没有意义了。比如,用100张图训练图像识别系统,然后有100甚至1000张图用于训练放射科诊断系统,人们可能会想,为了提升放射科诊断的性能,假设真的希望这个放射科诊断系统做得好,那么用放射科图像训练可能比使用猫和狗的图像更有价值,所以这里(100甚至1000张图用于训练放射科诊断系统)的每个样本价值比这里(100张图训练图像识别系统)要大得多,至少就建立性能良好的放射科系统而言是这样。所以,如果的放射科数据更多,那么这100张猫猫狗狗或者随机物体的图片肯定不会有太大帮助,因为来自猫狗识别任务中,每一张图的价值肯定不如一张\(X\)射线扫描图有价值,对于建立良好的放射科诊断系统而言是这样。

所以,这是其中一个例子,说明迁移学习可能不会有害,但也别指望这么做可以带来有意义的增益。同样,如果用10小时数据训练出一个语音识别系统。然后实际上有10个小时甚至更多,比如说50个小时唤醒字检测的数据,知道迁移学习有可能会有帮助,也可能不会,也许把这10小时数据迁移学习不会有太大坏处,但是也别指望会得到有意义的增益。

所以总结一下,什么时候迁移学习是有意义的?如果想从任务\(A\)学习并迁移一些知识到任务\(B\),那么当任务\(A\)和任务\(B\)都有同样的输入\(x\)时,迁移学习是有意义的。在第一个例子中,\(A\)和\(B\)的输入都是图像,在第二个例子中,两者输入都是音频。当任务\(A\)的数据比任务\(B\)多得多时,迁移学习意义更大。所有这些假设的前提都是,希望提高任务\(B\)的性能,因为任务\(B\)每个数据更有价值,对任务\(B\)来说通常任务\(A\)的数据量必须大得多,才有帮助,因为任务\(A\)里单个样本的价值没有比任务\(B\)单个样本价值大。然后如果觉得任务\(A\)的低层次特征,可以帮助任务\(B\)的学习,那迁移学习更有意义一些。

而在这两个前面的例子中,也许学习图像识别教给系统足够多图像相关的知识,让它可以进行放射科诊断,也许学习语音识别教给系统足够多人类语言信息,能帮助开发触发字或唤醒字检测器。

所以总结一下,迁移学习最有用的场合是,如果尝试优化任务B的性能,通常这个任务数据相对较少,例如,在放射科中知道很难收集很多\(X\)射线扫描图来搭建一个性能良好的放射科诊断系统,所以在这种情况下,可能会找一个相关但不同的任务,如图像识别,其中可能用1百万张图片训练过了,并从中学到很多低层次特征,所以那也许能帮助网络在任务\(B\)在放射科任务上做得更好,尽管任务\(B\)没有这么多数据。迁移学习什么时候是有意义的?它确实可以显著提高的学习任务的性能,但有时候也见过有些场合使用迁移学习时,任务\(A\)实际上数据量比任务\(B\)要少,这种情况下增益可能不多。

标签:训练,放射科,Transfer,神经网络,学习,任务,learning,迁移
From: https://www.cnblogs.com/oten/p/18308811

相关文章

  • Nodify学习 二:添加节点
    Nodify学习一:介绍与使用-可乐_加冰-博客园(cnblogs.com)Nodify学习二:添加节点-可乐_加冰-博客园(cnblogs.com)添加节点(nodes)通过上一篇我们已经创建好了编辑器实例现在我们为编辑器添加一个节点添加model和viewmodel并将它们绑定到视图publicclassNodeViewMod......
  • 【CAN通讯系列3】如何学习CAN通讯?
    对于汽车行业从业者,如何学习CAN通讯,最重要的是取决于你的岗位职责。一方面岗位职责的定义决定你所能获得的资源,另一方面敢岗位职责基本框定了你所使用的CAN通讯内容范围。比如你不是做底层软件开发,那么你很难切身地深入理解CAN通讯的控制流和数据流,因为你没法像底层软件工程师......
  • 小白学习微信小程序开发中的图片和音频处理
    微信小程序开发中,图片和音频的处理是非常常见的功能之一。在本文中,我将详细介绍如何在小程序中进行图片和音频的处理,并提供相关的代码案例。一、图片处理图片的选择和上传在小程序中,用户可以选择图片并上传。首先需要在app.json中注册chooseImage和uploadFile的相关权限。然......
  • 【python学习】第三方库之tensorflow的定义、功能、使用场景、代码示例和解释
    引言tensorFlow是一个开源的软件库,最初由GoogleBrain团队的研究员和工程师开发,用于数值计算和大规模机器学习tensorFlow提供了丰富的API来支持各种计算任务,并且能够轻松地在多种计算设备上进行部署,包括CPU、GPU和TPU文章目录引言一、安装`tensorflow`第三方......
  • Java学习日历(String,StringBuilder,Stringjoiner)
     金额转换packageme.JavaStudy;importjava.util.Scanner;//币值转换publicclassCaptial{publicstaticvoidmain(String[]args){Scannersc=newScanner(System.in);System.out.println("请输入一个数字");intnumber=sc.ne......
  • 机械学习—零基础学习日志(高数04——函数概念与特性)
    零基础为了学人工智能,真的开始复习高数然后开始学习复合函数,主要掌握复合的方法。求解复合函数,先稍微百度百科一下,什么是因式分解:因式分解:​把一个多项式在一个范围(如实数范围内分解,即所有项均为实数)化为几个整式的积的形式,这种式子变形叫做这个多项式的因式分解,也叫作把......
  • pytorch学习(四)绘制loss和correct曲线
    这一次学习的时候静态绘制loss和correct曲线,也就是在模型训练完成后,对统计的数据进行绘制。以minist数据训练为例子importtorchfromtorchimportnnfromtorch.utils.dataimportDataLoaderfromtorchvisionimportdatasetsfromtorchvision.transformsimportToTen......
  • 数据仓库建模工具之一——Hive学习第三天
    1、Hive的基本操作1.1 Hive库操作1.1.1 创建数据库1)创建一个数据库,数据库在HDFS上的默认存储路径是/hive/warehouse/*.db。createdatabasetestdb;2)避免要创建的数据库已经存在错误,增加ifnotexists判断。(标准写法)--中括号表示可以省略的内容createdatabase[if......
  • Datawhale AI 夏令营——电力需求挑战赛——Task2学习笔记
    一、实先准备importnumpyasnpimportpandasaspdimportlightgbmaslgbfromsklearn.metricsimportmean_squared_log_error,mean_absolute_error,mean_squared_errorimporttqdmimportsysimportosimportgcimportargparseimportwarningswarnings.filter......
  • Datawhale AI 夏令营--NLP自然语言学习过程
    Task1:首先我们先无脑跑通本次学习的第一个baseline1.本次我们使用的是魔塔社区提供的GPU进行项目推进:2.在Notebook中启用由魔塔提供的编译服务,我们运行Task1代码,随后将生成的txt文档上传到评分的NLP竞赛平台,最后会得到本次学习的第一个分数。(可能到这里很多初学者都不明白......