首页 > 其他分享 >迁移学习Transfer learning 与 元学习Meta-learning,二者的联系和差异

迁移学习Transfer learning 与 元学习Meta-learning,二者的联系和差异

时间:2024-07-21 17:08:36浏览次数:8  
标签:set 训练 Transfer 学习 任务 Meta learning 迁移

基本概念:

迁移学习tansfer learning

迁移学习(tansfer learning):运用已有领域学到的知识来辅助新环境中的学习任务。新兴领域往往缺少大量训练数据,直接从头训练成本太高,而相关领域的知识学习是相似的,因此我们可以运用已有的相关知识(source domain)迁移到新的学习任务(target domain)上。比如一个人学了java,那么可以类比着尽快学会python。这里迁移是指迁移网络模型和网络预训练的权重。

元学习meta learning

元学习(meta learning):learn to learn”,学习如何去学习,目的是成为一个拥有学习能力的学霸,而不是背题家。元学习不直接学\(f^*\),而是根据数据学一个函数\(F\),函数 \(F\) 能寻找到对某任务最佳的函数\(f^*\)。训练集和测试集被分为一个个task,一个task内划分了训练数据(support set)和测试数据(query set,并非真实test set),元学习在内循环利用support set更新临时参数,在外循环用query set更新模型参数,即更关注在测试数据上的效果,这也是我们真正关心的。

相似之处

两者都是利用了相似任务帮助提升泛化能力。殊途同归,并无大的区别。名字不一样而已,玩的都是文字游戏。

  • 你可以说元学习是强调从不同的若干小任务小样本来学习一个对未知样本未知类别都有好的判别和泛化能力的模型,但其实你想想,难道这不就是知识迁移吗?
  • 从迁移上来看,你可以说学习一个可迁移的特征或模型,可以从A迁移到B。但这些可以被迁移过提纯的东西,难道不能被叫做元知识吗?

鉴于目前的情况,这两部分看似是两个分支,各自也都发展出了很多的方法。但是千万不要认为是两个领域,我觉得最多也就算1.5个吧。

不同之处

但是更细致的说,两者的关注点有所区别。
迁移学习要求已有的相关知识(source domain)和新的学习任务(target domain)具有相关性,否则可能会出现“negative transfer”的现象,将在电影上学到文学知识迁移到物理的学习上显然不妥。

而元学习和它的相比有个区别:

  1. 任务粒度更细;
  2. loss的设计更关注未来的”潜力“,而不是当前在训练数据上的表现。李宏毅老师用两张直观的图说明了迁移学习中model pre-training和meta learning的区别。
    image

可以看出,用预训练的参数初始化后续模型,难以使所有task的loss都达到最低点,当下训练好并不保证后续表现仍好;若用元学习,虽然它学到的参数在当前训练任务不是最佳,在子任务上微调后,都达到了各自任务的局部最优,有更强潜力。

还有一些形式上的区别,如下图:
image

原文

作者:梦渔lmx,链接:https://www.zhihu.com/question/299020462/answer/2506333733 ,来源:知乎
作者:王晋东不在家,链接:https://www.zhihu.com/question/299020462/answer/1061686901 ,来源:知乎
作者:Jinjie Ni倪瑾杰,链接:https://www.zhihu.com/question/299020462/answer/2191238619 ,来源:知乎

标签:set,训练,Transfer,学习,任务,Meta,learning,迁移
From: https://www.cnblogs.com/kingwz/p/18314677

相关文章

  • Chameleon:Meta推出的图文混合多模态开源模型
    目录引言一、Chameleon模型概述1、早期融合和基于token的混合模态模型1)早期融合的优势2)基于token的方法2、端到端训练二、技术挑战与解决方案1、优化稳定性问题2、扩展性问题3、架构创新4、训练技术5、稳定性和扩展性的优化6、混合模态数据的表示学习三、模型架构与优......
  • pySerialTransfer 双向通信问题
    我编写了一个最小的双向python和串行通信脚本,将整数发送到arduino。然后,arduino递增整数并通过串行将其发送回。comm.pyfromtimeimportsleepfrompySerialTransferimportpySerialTransferastxferclassstruct:control=0classreceivestruct:s......
  • 论文阅读:DQ-LoRe:Dual Queries with Low Rank Approximation Re-ranking for In-Contex
    大型语言模型(LLMs)展示了其基于上下文学习的卓越能力,在错综复杂的推理任务中,利用思维链(CoT)范式中的中间推理步骤来引导大型语言模型的一个很有前景的途径。然而,核心挑战在于如何有效选择范例来促进上下文学习。先前的很多工作都是围绕添加思维链,例如一致性CoT、思维树以及......
  • D. Learning to Paint
    原题链接题解dp+多次优先队列设\(dp[i]\)为\([1,i]\)区间内,前\(k\)个最大值(有可能不足k个)(注意\(dp[i]\)是一个序列)则\(dp[i]=\{dp[j][t]+a[j+2][i],j\in[0,i-2],t\in[0,top_j]\},\sumt=k\)code#include<bits/stdc++.h>#definelllonglongusingnamespace......
  • FedNAS: Federated Deep Learning via Neural Architecture Search-_BaseLine-FedNAS
    背景与挑战:介绍FL,引出数据异构问题和数据不可见性,因此需要大量的人力来定制更好的模型架构,因为设备异构性,边缘设备需要更高的计算负担和通信成本。介绍解决数据异构的相关工作,指出这些工作需要强大的先验假设。预定义的模型不一定是最优的贡献:1.提出FedNAS方法,在边缘设备之间......
  • FINCH: Enhancing Federated Learning With Hierarchical Neural Architecture Search
    背景与挑战:介绍FL联邦学习,指出两个联邦学习的缺点::::danger1.预定义的架构容易使模型训练陷入局部次优解,导致训练性能低下2.开发一个足够精确和小的模型来部署在客户端是很复杂的,这需要在迭代的试错过程中付出大量的人力:::(手动设计更高效的体系结构在很大程度上依赖于人类......
  • Peaches: Personalized Federated Learning with Neural Architecture Search in Edge
    背景:介绍联邦学习,参数服务器和workers之间的关系挑战:1.预定义模型:太大的架构可能会导致过度拟合问题和workers不必要的计算开销,而太小的架构可能会导致低训练性能2.数据不可访问:数据不可访问导致不能设计出真正高效的架构在边缘计算中使用FL。需要考虑三种挑战:1.异构数据2......
  • Arena Learning: 构建大语言模型的数据飞轮
    大语言模型(LLMs)正在快速发展,但如何有效评估和持续改进这些模型仍面临巨大挑战。本文提出了一种名为ArenaLearning的创新方法,通过模拟聊天机器人竞技场来构建高效的数据飞轮,从而实现LLMs的持续优化。让我们深入了解这种方法的核心思想和关键技术。1.背景与挑战近年......
  • Self-Supervised Learning for Point Clouds Data: A Survey
    摘要综述了自监督学习(SSL)在3D点云数据处理领域的最新进展,对现有SSL方法进行了细致的分类和评估,并在多个基准数据集上对代表性方法进行了性能比较。同时指出了现有研究的局限性,提出了未来研究的方向。Introduction文章主要是针对自监督学习的(SSL),详细阐述了3D点云数据由于其......
  • Self-supervised Learning for Pre-Training 3D Point Clouds: A Survey
    Abstract点云数据由于其紧凑的形式和表示复杂3D结构的灵活性而被广泛研究。点云数据准确捕获和表示复杂3D几何形状的能力使其成为广泛应用的理想选择,包括计算机视觉,机器人技术和自动驾驶,所有这些都需要了解底层空间结构。这种方法旨在从未标记的数据中学习通用和有用的点云表......