本文的创新点在哪里
-
采用两阶段框架的方式来处理大规模多目标优化问题
-
第一阶段,采用多任务优化策略和双向搜索策略,它将多目标问题改编为决策空间中的多任务问题,以增强收敛性
利用双向搜索策略与 MFEA 相结合,将多目标问题转化为多任务问题
-
第二阶段,提出的算法将多任务优化应用到基于目标空间中的参考点的一系列子问题上 (?)
提高多样性,将多任务处理应用于多目标优化问题的许多子问题
处理大规模多目标优化问题的方法
可以分为以下三个不同的类别
-
决策变量分析方法,用于减少大规模的搜索空间
- MOEA/DVA:将决策变量分为三组:收敛相关变量、多样性相关变量和与收敛和多样性都有关的变量。收敛和多样性相关的变量分别用不同的策略进行优化。
- LMEA:
这两种方法的区别在于,MOEA/DVA转化为一组子多目标优化问题,而LMEA则针对原始问题进行搜索。
-
基于性能指标
- IBEA
- SMS-EMOA
- HypE
SMS-EMOA和HypE采用超体积测量方法
-
将帕雷托优势准则与其他与收敛性相关的度量结合起来
首先根据帕雷托优势选择解决方案,然后根据与收敛性相关的度量选择。这些代表性的方法包括:grid-based evolutionary algorithm (GrEA) [12], preference-inspired coevolutionary algorithm (PICEA-g) [13], knee point driven evolutionary algorithm (KnEA) [14], fuzzy dominance[15],preference order ranking [16] ε-dominance[17], [18],L-optimality [19], θ-dominance [20], many-objective evolution-ary algorithm based on directional diversity and favorable convergence (MaOEA-DDFC)[21].(只是这类算法的名称)
多任务优化和多目标优化
多任务优化的目的是并行地找到所有问题的最优解,单个个体只需要关心它最擅长的任务,而多目标优化则是寻找一个面向所有问题的折衷的解(Pareto最优解)
在多目标优化中认为【2、3、4、5】会优于【1、6】,但在多任务优化中会认为【1、2、5、6】优于【3、4】。因为【5、6】在任务1上表现很好,【1、2】在任务1上表现很好,不关心它们在其他任务上的表现如何。
算法是怎么运行的
-
行1:初始化
-
行3:计算每个任务的任务排名,以及每个个体 Pi 的标量适应度、技能因子
- 行1:Pa和Pb是从总体中随机选择的,并产生随机数q1
- 行2:Pa和Pb具有相同的技能因子,并且q1>mt
- 行3:OcOd−执行交叉Pa和Pb,它们各自生成一个随机数q2
- 行5:它只计算与pa的技能因子i相对应的Ti,其余任务的适应度设置为无穷大。
在MFEA中,父代之间的交配并不随机,它们会倾向与技能因子相同的进行交配,而对于技能因子不同的两个个体,它们之间交配的概率由变异概率mt决定
-
此处第5行代码和第8行代码为什么要把其他的适应度设置为无穷大?
对于那些未对应到当前个体技能因子的任务,它们的解决方案效率被认为是最差的。为了防止这个个体在未来的进化过程中被选中来对那些非对应任务进行优化
-
算法2有什么用?
实现更高效的搜索和优化
- 行3:问题重新表述(?)
- 行4:多任务优化得到的最优权重(T1)
- 行5:在决策空间中变换 W1
- 行8:多样性改进后的R2点
第一阶段:双向权重变量关联多任务策略
- 通过减少搜索空间的维数来找到更好的个体
- 先确定一个范围,同时向前沿方向推进
第二阶段:通过多任务策略提高多样性
本人水平不够,仅仅粗略讲了一下这篇论文,关于MFEA有不懂的地方可以看看这篇文章https://www.cnblogs.com/liuhuilin/p/14524026.html
参考文献:
Lu Chen, Handing Wang & Wenping Ma,"Two-stage multi-tasking transform framework for large-scale many-objective optimization problems",Original Article,Open Access,Published:17 February 2021,volume 7, pages1499–1513,2021