1.算法描述
PSO算法是一种随机的、并行的优化算法。它的优点是:不要求被优化函数具有可微、可导、连续等性质,收敛速度较快,算法简单,容易编程实现。然而,PSO算法的缺点在于:(1)对于有多个局部极值点的函数,容易陷入到局部极值点中,得不到正确的结果。造成这种现象的原因有两种,其一是由于待优化函数的性质;其二是由于微粒群算法中微粒的多样性迅速消失,造成早熟收敛。这两个因素通常密不可分地纠缠在一起。(2)由于缺乏精密搜索方法的配合,PSO算法往往不能得到精确的结果。造成这种问题的原因是PSO算法并没有很充分地利用计算过程中获得的信息,在每一步迭代中,仅仅利用了群体最优和个体最优的信息。(3)PSO算法虽然提供了全局搜索的可能,但是并不能保证收敛到全局最优点上。(4)PSO算法是一种启发式的仿生优化算法,当前还没有严格的理论基础,仅仅是通过对某种群体搜索现象的简化模拟而设计的,但并没有从原理上说明这种算法为什么有效,以及它适用的范围。因此,PSO算法一般适用于一类高维的、存在多个局部极值点而并不需要得到很高精度解的优化问题。
当前针对PSO算法开展的研究工作种类繁多,经归纳整理分为如下八个大类:(1)对PSO算法进行理论分析,试图理解其工作机理;(2)改变PSO算法的结构,试图获得性能更好的算法;(3)研究各种参数配置对PSO算法的影响;(4)研究各种拓扑结构对PSO算法的影响;(5)研究离散版本的PSO算法;(6)研究PSO算法的并行算法;(7)利用PSO算法对多种情况下的优化问题进行求解;(8)将PSO算法应用到各个不同的工程领域。以下从这八大类别着手,对PSO算法的研究现状作一梳理。由于文献太多,无法面面俱到,仅捡有代表性的加以综述。
PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个“极值(pbest和gbest)”来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。
对于公式(1):
公式(1)中的第一部分称为记忆项,表示上次速度大小和方向的影响;
公式(1)中的第二部分称为自身认知项,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;
公式(1)中的第三部分称为群体认知项,是一个从当前点指向种群最好点的矢量,反映了粒子间的协调合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。
综上所述,标准PSO算法流程:
初始化一群微粒(群体规模为N),包括随机位置和速度;
评价每个微粒的适应度;
对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;
对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest;
根据公式(2)、(3)调整微粒的速度和位置;
未达到结束条件则转到第二步。
迭代终止条件根据具体问题一般选为最大迭代次数Gk或微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。
2.matlab算法仿真效果
matlab2022a仿真结果如下:
3.MATLAB核心程序
global Ri; global Pij; global Si; %导入excel数据 dat1 = xlsread('alpha_beta.xlsx'); dat2 = xlsread('project_correlation.xlsx'); alpha = dat1(:,1); beta = dat1(:,2); Rm = dat1(:,3); Ri = [alpha + beta.*Rm]'; Pij = dat2(1:30,1:30); for i = 1:30 for j = 1:30 if isnan(Pij(i,j)) == 1 Pij(i,j) = 0; end end end Si = dat2(1:30,34); %粒子初始化 %粒子群算法中的两个参数 c1 = 1.5; c2 = 1.5; %最大最小权值 wmax = 0.9; wmin = 0.1; %最大最小速度 Vmax = 1.5; Vmin = -1.5; %最大最小个体 popmax = 1; popmin = 0; maxgen = 280; %进化次数 sizepop= 500; %种群规模 LE = 30; %随机产生一个种群 for i=1:sizepop pop(i,:) = 0.6*rand(1,LE); %个体编码 pop(i,:) = pop(i,:)/sum(pop(i,:)); fitness1(i)= func_object1(pop(i,:));%染色体的适应度 fitness2(i)= func_object2(pop(i,:));%染色体的适应度 V(i,:) = 0.03*rands(1,LE); %初始化速度 fitness(i) =(0.5*fitness1(i)+0.5*fitness2(i)); end %初始种群极值 %找最好的染色体 [bestfitness,bestindex] = min(fitness); [bestfitness1,bestindex1] = min(fitness1); [bestfitness2,bestindex2] = min(fitness2); %全局最佳 zbest = pop(bestindex,:); %个体最佳 gbest = pop; %个体最佳适应度值 fitnessgbest = fitness; fitnessgbest1 = fitness1; fitnessgbest2 = fitness2; %全局最佳适应度值 fitnesszbest = bestfitness; fitnesszbest1 = bestfitness; fitnesszbest2 = bestfitness; %迭代寻优 for i=1:maxgen i for j=1:sizepop %变权值 w =(wmax-wmin)*(i-1)/(maxgen)+wmin; % %固定权值 % w = 0.1; %速度更新 V(j,:) = w*V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:)); V(j,find(V(j,:)>Vmax)) = Vmax; %小于最大速度 V(j,find(V(j,:)<Vmin)) = Vmin; %大于最小速度 %种群更新 pop(j,:) = pop(j,:)+0.9*V(j,:); %适应度值 pop(j,:) = pop(j,:)/sum(pop(j,:)); %小于个体最大值 pop(j,find(pop(j,:)>popmax)) = popmax; %大于个体最小值 pop(j,find(pop(j,:)<popmin)) = popmin; %适应度值 pop(j,:) = pop(j,:)/sum(pop(j,:)); fitness1(j) = func_object1(pop(j,:)); fitness2(j) = func_object2(pop(j,:)); fitness(j) = (0.5*fitness1(j)+0.5*fitness2(j)); end for j=1:sizepop %个体极值更新 if fitness(j)>fitnessgbest(j) gbest(j,:) = pop(j,:); fitnessgbest(j) = fitness(j); fitnessgbest1(j) = fitness1(j); fitnessgbest2(j) = fitness2(j); end %全局极值更新 if fitness(j)>fitnesszbest zbest = pop(j,:); fitnesszbest = fitness(j); fitnesszbest1 = fitness1(j); fitnesszbest2 = fitness2(j); end end %记录最优适应度值 yy(i) = fitnesszbest; E(i) = fitnesszbest1; F(i) = fitnesszbest2; %保存数据 SAVES(1,i) = E(i); SAVES(2,i) = F(i); SAVES(3:32,i) = zbest'; end figure; plot(F,E,'linewidth',2); title('风险收益曲线图'); xlabel('RISK'); ylabel('RETURN,E(Ri)'); grid on 02_037m
标签:仿真,end,PSO,pop,算法,matlab,粒子,微粒 From: https://www.cnblogs.com/51matlab/p/17067227.html