首页 > 其他分享 >论文研读_大规模多目标优化问题的两阶段多任务转换框架

论文研读_大规模多目标优化问题的两阶段多任务转换框架

时间:2023-09-14 09:55:06浏览次数:29  
标签:研读 论文 目标 问题 多样性 优化 多任务 变量

本文的创新点在哪里

  • 采用两阶段框架的方式来处理大规模多目标优化问题

  • 第一阶段,采用多任务优化策略双向搜索策略,它将多目标问题改编为决策空间中的多任务问题,以增强收敛性

    利用双向搜索策略与 MFEA 相结合,将多目标问题转化为多任务问题

  • 第二阶段,提出的算法将多任务优化应用到基于目标空间中的参考点的一系列子问题上 (?)

    提高多样性,将多任务处理应用于多目标优化问题的许多子问题

处理大规模多目标优化问题的方法

可以分为以下三个不同的类别

  1. 决策变量分析方法,用于减少大规模的搜索空间

    • MOEA/DVA:将决策变量分为三组:收敛相关变量、多样性相关变量和与收敛和多样性都有关的变量。收敛和多样性相关的变量分别用不同的策略进行优化。
    • LMEA:

    这两种方法的区别在于,MOEA/DVA转化为一组子多目标优化问题,而LMEA则针对原始问题进行搜索。

  2. 基于性能指标

    • IBEA
    • SMS-EMOA
    • HypE

    SMS-EMOA和HypE采用超体积测量方法

  3. 将帕雷托优势准则与其他与收敛性相关的度量结合起来

    首先根据帕雷托优势选择解决方案,然后根据与收敛性相关的度量选择。这些代表性的方法包括:grid-based evolutionary algorithm (GrEA) [12], preference-inspired coevolutionary algorithm (PICEA-g) [13], knee point driven evolutionary algorithm (KnEA) [14], fuzzy dominance[15],preference order ranking [16] ε-dominance[17], [18],L-optimality [19], θ-dominance [20], many-objective evolution-ary algorithm based on directional diversity and favorable convergence (MaOEA-DDFC)[21].(只是这类算法的名称)

多任务优化和多目标优化

多任务优化的目的是并行地找到所有问题的最优解,单个个体只需要关心它最擅长的任务,而多目标优化则是寻找一个面向所有问题的折衷的解(Pareto最优解)

在多目标优化中认为【2、3、4、5】会优于【1、6】,但在多任务优化中会认为【1、2、5、6】优于【3、4】。因为【5、6】在任务1上表现很好,【1、2】在任务1上表现很好,不关心它们在其他任务上的表现如何

算法是怎么运行的

  • 行1:初始化

  • 行3:计算每个任务的任务排名,以及每个个体 Pi 的标量适应度、技能因子

  • 行1:Pa和Pb是从总体中随机选择的,并产生随机数q1
  • 行2:Pa和Pb具有相同的技能因子,并且q1>mt
  • 行3:OcOd−执行交叉Pa和Pb,它们各自生成一个随机数q2
  • 行5:它只计算与pa的技能因子i相对应的Ti,其余任务的适应度设置为无穷大。

在MFEA中,父代之间的交配并不随机,它们会倾向与技能因子相同的进行交配,而对于技能因子不同的两个个体,它们之间交配的概率由变异概率mt决定

  • 此处第5行代码和第8行代码为什么要把其他的适应度设置为无穷大?

    对于那些未对应到当前个体技能因子的任务,它们的解决方案效率被认为是最差的。为了防止这个个体在未来的进化过程中被选中来对那些非对应任务进行优化

  • 算法2有什么用?

    实现更高效的搜索和优化

  • 行3:问题重新表述(?)
  • 行4:多任务优化得到的最优权重(T1)
  • 行5:在决策空间中变换 W1
  • 行8:多样性改进后的R2点

第一阶段:双向权重变量关联多任务策略

  • 通过减少搜索空间的维数来找到更好的个体
  • 先确定一个范围,同时向前沿方向推进

第二阶段:通过多任务策略提高多样性

本人水平不够,仅仅粗略讲了一下这篇论文,关于MFEA有不懂的地方可以看看这篇文章https://www.cnblogs.com/liuhuilin/p/14524026.html

参考文献:
Lu Chen, Handing Wang & Wenping Ma,"Two-stage multi-tasking transform framework for large-scale many-objective optimization problems",Original Article,Open Access,Published:17 February 2021,volume 7, pages1499–1513,2021

标签:研读,论文,目标,问题,多样性,优化,多任务,变量
From: https://www.cnblogs.com/CKM1377214/p/17701419.html

相关文章

  • 个人项目:Java实现论文查重
    Github地址:https://github.com/SLkHs/3121004696Java实现简易论文查重软件工程https://edu.cnblogs.com/campus/gdgy/CSGrade21-12作业要求https://edu.cnblogs.com/campus/gdgy/CSGrade21-12/homework/13014作业目标实现个人项目:论文查重PSPPSP2.1Perso......
  • [论文阅读] Anomaly Detection with Score Distribution Discrimination
    AnomalyDetectionwithScoreDistributionDiscrimination1Introduction如图1所示。Fig1a~1c。这些方法基于学习到的输入数据的特征转换(如重构误差或embedding距离),生成异常分数。然而,在表示空间中的优化会导致数据效率低下的学习和次优异常评分。Fig1d~1e使用端到端的异常......
  • Java实现简易论文查重
    https://github.com/stopyc/3121005018Java实现简易论文查重软件工程https://edu.cnblogs.com/campus/gdgy/CSGrade21-12作业要求https://edu.cnblogs.com/campus/gdgy/CSGrade21-12/homework/13014作业目标学习使用Java建立工程项目,学会论文查重的具体实现步骤......
  • 技术文档 | 免下载、0配置、多任务并发,在Docker Image中使用OpenSCA
    想跳过下载步骤快速使用OpenSCA检测代码风险?想实现多个项目并发扫描?在DockerImage中使用OpenSCA即可轻松实现。一起来looklook目的方便用户使用最新版本的 OpenSCA-cli保证环境的一致性,消除不同操作系统对结果的影响可以方便在本地维护不同版本的 OpenSCA-cli方便在特定情况下......
  • Seeing What You Said: Talking Face Generation Guided by a Lip Reading Expert 论
    最近一直在看虚拟人像. 最关键的论文就是wav2lip.目前项目中也是用的这个.一个视频加一个语音,就可以生成用视频里面的头,加语音的新视频.现在看这篇论文SeeingWhatYouSaid:TalkingFaceGenerationGuidedbyaLipReadingExpert.主要是搜了没有相关论文,所以就自己......
  • 论文解读(LR2E)《Learning to Reweight Examples for Robust Deep Learning》
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:LearningtoReweightExamplesforRobustDeepLearning论文作者:MengyeRen、WenyuanZeng、BinYang、RaquelUrtasun论文来源:2021 论文地址:download 论文代码:download视屏讲解:click......
  • 查论文的网站
    查论文的网站前言今天看知乎的时候看到一个内容,感觉不错,对我有用。记录一下。《你写论文时发现了哪些非常神的网站?》用网页打开知乎的时候如果弹出登录弹窗,且不能叉掉,可以先刷新一下,然后不断按esc键就可以。或者F12找到那个元素删掉即可。文章目录查论文的网站前言笔记文献类文献查......
  • 论文解读 | 基于中心的三维对象检测与跟踪
    原创|文BFT机器人CenterPoint与传统基于框的3D物体检测器和跟踪器不同之处在于,它将3D物体表示、检测和跟踪为点,而不是使用边界框。这种方法具有几个优点,包括减少物体检测器的搜索空间,简化下游任务(如跟踪),并使设计比以前的方法快得多的有效的两阶段细化模块成为可能。此外,CenterPo......
  • 《PROMPT2MODEL: Generating Deployable Models from Natural Language Instructions
    一、Introduction传统上,从零开始构建一个自然语言处理(NLP)模型是一项重大任务。一个寻求解决新问题的NLP从业者需要定义他们的任务范围,找到或创建目标任务领域的行为数据,选择合适的模型架构,训练模型,通过评估评估其性能,然后将其部署到实际应用中。Prompt2Modelisaframeworkfo......
  • 论文解读(CST)《Cycle Self-Training for Domain Adaptation》
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:CycleSelf-TrainingforDomainAdaptation论文作者:HongLiu,JianminWang,MingshengLong论文来源:2021 论文地址:download 论文代码:download视屏讲解:click......