首页 > 编程语言 >智能优化算法之灰狼优化算法(GWO)

智能优化算法之灰狼优化算法(GWO)

时间:2024-07-20 11:30:08浏览次数:12  
标签:self 灰狼 算法 np 优化 population

图片

智能优化算法是一类基于自然界中生物、物理或社会现象的优化技术。这些算法通过模拟自然界中的一些智能行为,如遗传学、蚁群觅食、粒子群体运动等,来解决复杂的优化问题。智能优化算法广泛应用于各种工程和科学领域,因其具有全局搜索能力、鲁棒性强以及易于实现等优点。

灰狼优化算法(GWO)

图片

灰狼优化算法(Grey Wolf Optimizer, GWO)是一种新兴的智能优化算法,灵感来源于灰狼的捕猎行为。该算法由Seyedali Mirjalili等人在2014年提出,模拟了灰狼的社会层次结构和合作狩猎的策略。

GWO算法自2014年提出以来,受到了广泛关注和研究。它不仅在学术界被广泛研究和引用,而且在工程优化、机器学习、图像处理等多个领域得到了成功应用。GWO最初只是作者在研究其他优化算法时的灵感,但最终却发展成为一个独立且强大的优化工具。

灰狼被认为是顶级捕食者,位于食物链的顶端。灰狼喜欢群居,每群平均有5至12只灰狼。如附图所示,群体中的所有个体都具有非常严格的社会支配等级。

图片

图2 灰狼的社会等级*

Alpha (α) 狼被视为狼群中的主导狼,狼群成员必须服从它的命令。
Beta (β) 是从属狼,帮助 Alpha 做出决策,被视为成为 Alpha 的最佳候选人。
Delta(δ)狼必须服从 Alpha 和 Beta,但它们主宰 Omega。δ 狼有不同的类别,如侦察兵、哨兵、长老、猎人、看守者等。
Omega (ω) 狼被视为狼群中的替罪羊,是狼群中最不重要的个体,只能在最后才被允许进食。

灰狼狩猎的主要阶段:
  1. 追踪、追逐并接近猎物。

  2. 追逐、包围、骚扰猎物,直到其停止移动。

  3. 向猎物发起攻击。

通过数学建模来设计灰狼的社会等级和狩猎行为,以设计 GWO。

数学模型与算法
社会等级
  • 最适合的解决方案是Alpha狼(α)

  • 第二最佳解决方案是 Beta 狼(β)

  • 第三最佳解决方案是 Delta 狼(δ)

  • 其余候选解决方案为 Omega 狼(ω)

数学模型

灰狼优化算法的数学模型描述了某个目标函的优化方法(寻找最优值,即猎物)

图片

(1)需要优化的函数

其中是维向量。首先,随机生成个解

图片

(2)初始化解决方案

其中,对应于特定维度分量,从和向量中返回随机值,这些向量是所有的下限和上限。根据狼的等级制度,三个最佳(达到最低值)解决方案α、β和δ(通常为)分别映射到 α、β 和 δ 狼。我们假设领导者对猎物的位置有最丰富的经验,因此他们会指挥其他狼。猎物位置(由领导者确定)与狼群其他成员之间的距离计算为

图片

(3)距离计算

其中是每个领导者的位置分量(与猎物位置大致相同),是每个解决方案的分量,是 来自 [0, 2] 的特殊随机参数。此参数指定“随机性”——在猎物邻域中搜索。在计算与领导者相关的三个距离后,我们应该计算他们的新位置,如下所示(这里的与分量不同,它只是另一个变量)

图片

(4)领导职位

最后一个等式意味着我们通过距离值乘以某个随机因子来接近猎物。值和是算法的关键参数。第一个等式增加了特殊的随机性,即如果(探索阶段),它允许狼通过偏离

来寻找更好的猎物。否则,如果,那么狼的新位置可以位于先前位置和猎物位置之间的任何区域。这意味着狼开始攻击猎物。在迭代过程中,该值通过以下公式进行更改

图片

(5)计算

这里是从 2(初始值)下降到 0 的递减(通常是线性的)因子

图片

(6)递减因子计算

其中是当前迭代次数,是预先定义的总迭代次数,是 中的随机值。

参数(也是 中的随机值*)

图片

(7)C_p计算

可以看作是狼在野外接近猎物时遇到的障碍物的影响。在自然界中,这些障碍物通常表现为狼狩猎路线上的障碍物,有效地阻碍了它们迅速轻松地接近猎物的能力。换句话说,它可能会随机为猎物分配一个难度或距离等级,使狼要么更难接近猎物,要么更难接近猎物,或者相反,更容易接近猎物。迫使狼进行探索而不是开发,并有助于避免局部最小值。

生成值后,可以计算出狼的新位置,作为的平均值

图片

(8)计算新解

所描述的过程如下所示。

图片

img

算法详见:https://doi.org/10.1016/j.knosys.2019.01.018IF: 7.2 Q1

GWO 算法的伪代码
1. 初始化解的数量 N、总迭代次数T和边界向量 x^{ub}, x^{lb};
2. 使用公式 (2) 随机生成 N 个解;
3. 确定三个最佳解 (领导者) X^p,p=1..3;
3. 对于 t=1..N(迭代循环):
4. 通过 (6) 计算值 a;
5. 对于每个第 i 个解:
6. 对于每个第 j 个维度:
7. 使用 (5) 和 (7) 计算 A_p 和 C_p;
8. 通过 (3) 计算三个距离 D_p;
9. 通过 (4) 计算三个 x^p;
10. 通过 (8) 生成新的解分量 x^{new}_{i,j};
11. 如果 x^{new}_{i,j} 位于 x^{ub} 或 x^{lb} 之外,
              则将相应的 x^{ub} 或 x^{lb} 分配给 x^{new}_{i,j};
12. 如果 f(x^{new}_i)>f(x_i),则丢弃 x^{new}_i,保留前一个
         x_i,即 x^{new}_i = x_i (与 x_i(t+1) = x_i(t) 相同);
13. 更新三个最佳解(领导者)X^p,p=1..3。

详情参见:https://www.sciencedirect.com/science/article/pii/S0965997813001853

应用领域和场景

灰狼优化算法因其简单、高效和全局搜索能力强,广泛应用于:

  • 多层感知器的训练算法

  • 训练 q-高斯径向基函数链接网络

  • 经济调度问题

  • 特征子集选择

  • 电力系统电网

  • 进化种群动态

  • 优化关键值

图片

网址:https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0287405

参考资料:https://medium.com/@deneb.acyg/grey-wolf-optimizer-in-c-part-1-intuition-232be414f4ad

https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0287405

https://transpireonline.blog/2019/08/09/behavior-of-grey-wolf-optimization-gwo-algorithm-using-meta-heuristics-method/

基于Python的可视化算法实例

下面是一个基于Python实现的GWO算法实例,并通过可视化展示其优化过程:

import numpy as np  # 导入NumPy库,用于数值计算
import matplotlib.pyplot as plt  # 导入matplotlib的pyplot模块,用于绘图

# 定义一个灰狼优化器类
class GreyWolfOptimizer:
    # 初始化方法
    def __init__(self, objective_function, dimension, lower_bound, upper_bound, population_size, iterations):
        self.objective_function = objective_function  # 目标函数
        self.dimension = dimension  # 问题的维度
        self.lower_bound = np.array(lower_bound)  # 参数的下界
        self.upper_bound = np.array(upper_bound)  # 参数的上界
        self.population_size = population_size  # 群体大小
        self.iterations = iterations  # 迭代次数
        # 初始化种群
        self.population = np.random.rand(population_size, dimension) * (self.upper_bound - self.lower_bound) + self.lower_bound
        self.alpha = self.population[0]  # 初始化alpha狼
        self.beta = self.population[1]  # 初始化beta狼
        self.delta = self.population[2]  # 初始化delta狼

    # 优化方法
    def optimize(self):
        for _ in range(self.iterations):  # 对每一代进行迭代
            for i in range(self.population_size):  # 遍历种群中的每一个个体
                # 计算每个维度的系数A, C和距离D
                A = 2 * np.random.rand(self.dimension) - 1
                C = 2 * np.random.rand()
                D_alpha = np.abs(C * self.alpha - self.population[i])
                X1 = self.alpha - A * D_alpha

                A = 2 * np.random.rand(self.dimension) - 1
                C = 2 * np.random.rand()
                D_beta = np.abs(C * self.beta - self.population[i])
                X2 = self.beta - A * D_beta

                A = 2 * np.random.rand(self.dimension) - 1
                C = 2 * np.random.rand()
                D_delta = np.abs(C * self.delta - self.population[i])
                X3 = self.delta - A * D_delta

                self.population[i] = (X1 + X2 + X3) / 3  # 更新个体位置

            # 计算种群的适应度
            fitness = np.array([self.objective_function(ind) for ind in self.population])
            # 根据适应度排序并更新alpha, beta, delta
            best_indexes = np.argsort(fitness)[:3]
            self.alpha, self.beta, self.delta = self.population[best_indexes]

# 定义电网优化的目标函数
def power_system_optimization(x):
    return np.sum(x**2)  # 返回所有参数的平方和

# 初始化优化器参数
dimension = 5
lower_bound = [0]*dimension
upper_bound = [100]*dimension
population_size = 30
iterations = 50

# 创建灰狼优化器实例
gwo = GreyWolfOptimizer(power_system_optimization, dimension, lower_bound, upper_bound, population_size, iterations)
gwo.optimize()  # 进行优化

# 可视化优化过程中Alpha, Beta, Delta的变化
plt.plot(gwo.alpha, label='Alpha')
plt.plot(gwo.beta, label='Beta')
plt.plot(gwo.delta, label='Delta')
plt.xlabel('Iteration')
plt.ylabel('Value')
plt.legend()
plt.title('GWO Optimization Process')
plt.show()  # 显示图表

图片

在上面的示例中,GWO算法被用于优化一个简化的电力系统模型,其中目标函数定义为所有变量的平方和,代表了一个假设的优化目标。代码初始化一个包含随机值的种群,然后通过迭代过程不断更新种群中个体的位置,以寻找最小化目标函数的解。这个过程中,算法更新了三个最优解,即 Alpha、Beta 和 Delta,它们代表了种群中的最优个体。

以上内容总结自网络,如有帮助欢迎关注与转发,我们下次再见!

标签:self,灰狼,算法,np,优化,population
From: https://blog.csdn.net/Argulo/article/details/140543649

相关文章

  • 常见的排序算法——堆排序(二)
    本文记述了针对堆排序微小改动的基本思想和一份参考实现代码,并在说明了算法的性能后用随机数据进行了验证。◆思想堆的下沉操作中用到了昂贵的数据交换操作,此改动参考无交换的插入排序的思想,实现了减少数据交换的下沉操作。先将要下沉的元素存放在临时空间中,再将下降过程中遇......
  • 「代码随想录算法训练营」第十六天 | 二叉树 part6
    530.二叉搜索树的最小绝对差题目链接:https://leetcode.cn/problems/minimum-absolute-difference-in-bst/题目难度:简单文章讲解:https://programmercarl.com/0530.二叉搜索树的最小绝对差.html视频讲解:https://www.bilibili.com/video/BV1DD4y11779题目状态:通过思路:将二......
  • Flood Fill(洪水算法)通俗讲解
    ......
  • 算法第十一天:leetcode707.设计链表
    一、设计链表的题目描述与链接  707.设计链表的链接如下表所示,您可直接复制下面网址进入力扣学习,在观看下面的内容之前一定要先做一遍哦,这样才能印象深刻!https://leetcode.cn/problems/design-linked-list/https://leetcode.cn/problems/design-linked-list/题目描述:你......
  • 循环位移(2024“钉耙编程”中国大学生算法设计超级联赛(1))
    #include<bits/stdc++.h>#defineendl'\n'usingll=longlong;typedefunsignedlonglongull;usingnamespacestd;voidGordenGhost();constintN=4e6+7;constintP=131;ullp[N],an[N],bn[N];intn;voidinit(stringa,stringb){......
  • Legacy(线段树优化建图)
    CF786B-Legacy线段树优化建图板子题。。。。。。暴力建边\(\mathcalO(n^2)\))肯定会\(TLE\)但仔细分析可以发现,题面中有一个我们非常熟悉的字眼“区间”,这启示我们,可不可以以此作为解题的突破口呢?答案是肯定的。想到区间我们可以联想到各种我们很熟悉的\(trick\),如前缀和、......
  • SciTech-BigDataAIML-Algorithm: Github的Hello 算法项目
    先记录一下,好不好再读:https://github.com/krahets/hello-algo关于本书本项目旨在打造一本开源免费、新手友好的数据结构与算法入门教程。全书采用动画图解,内容清晰易懂、学习曲线平滑,引导初学者探索数据结构与算法的知识地图。源代码可一键运行,帮助读者在练习中提升编程技能......
  • 2024“钉耙编程”中国大学生算法设计超级联赛(1)
    Preface唐完了的一集,被前中期题花式腐乳以至于中期一度被同校队伍打出\(n+3\)最后4h时堪堪写完8个题,最后1h冲刺众数那个题然后写一半方法假了直接下班当然还有个难绷的是传送那个题和我今年给新生拉的数据结构专题的一个题几乎一样,把代码拉来改下输入输入就过了,12min抢......
  • 线段树优化建图
    线段树优化建图用途:处理区间连边做法:建两颗线段树,一颗处理区间的入边,另一颗处理出边(如果用一颗线段树的话,边权就都为0了)例题:Legacy板子题,直接看代码点此查看代码#include<bits/stdc++.h>#include<bits/extc++.h>//usingnamespace__gnu_pbds;//usingnamespa......
  • 聚类优化:Scikit-Learn中的数据标签分配艺术
    聚类优化:Scikit-Learn中的数据标签分配艺术在聚类分析中,标签分配是一个关键步骤,它直接影响聚类的解释性和实用性。Scikit-Learn(简称sklearn),作为Python中广受欢迎的机器学习库,提供了多种工具和方法来优化聚类标签的分配。本文将详细介绍这些方法,并提供详细的解释和代码示例......