首页 > 编程语言 >m基于PSO粒子群优化算法的最优样本组合策略分析matlab仿真

m基于PSO粒子群优化算法的最优样本组合策略分析matlab仿真

时间:2023-01-25 20:11:08浏览次数:53  
标签:仿真 end PSO pop 算法 matlab 粒子 微粒

 

1.算法描述

 

       PSO算法是一种随机的、并行的优化算法。它的优点是:不要求被优化函数具有可微、可导、连续等性质,收敛速度较快,算法简单,容易编程实现。然而,PSO算法的缺点在于:(1)对于有多个局部极值点的函数,容易陷入到局部极值点中,得不到正确的结果。造成这种现象的原因有两种,其一是由于待优化函数的性质;其二是由于微粒群算法中微粒的多样性迅速消失,造成早熟收敛。这两个因素通常密不可分地纠缠在一起。(2)由于缺乏精密搜索方法的配合,PSO算法往往不能得到精确的结果。造成这种问题的原因是PSO算法并没有很充分地利用计算过程中获得的信息,在每一步迭代中,仅仅利用了群体最优和个体最优的信息。(3)PSO算法虽然提供了全局搜索的可能,但是并不能保证收敛到全局最优点上。(4)PSO算法是一种启发式的仿生优化算法,当前还没有严格的理论基础,仅仅是通过对某种群体搜索现象的简化模拟而设计的,但并没有从原理上说明这种算法为什么有效,以及它适用的范围。因此,PSO算法一般适用于一类高维的、存在多个局部极值点而并不需要得到很高精度解的优化问题。

 

        当前针对PSO算法开展的研究工作种类繁多,经归纳整理分为如下八个大类:(1)对PSO算法进行理论分析,试图理解其工作机理;(2)改变PSO算法的结构,试图获得性能更好的算法;(3)研究各种参数配置对PSO算法的影响;(4)研究各种拓扑结构对PSO算法的影响;(5)研究离散版本的PSO算法;(6)研究PSO算法的并行算法;(7)利用PSO算法对多种情况下的优化问题进行求解;(8)将PSO算法应用到各个不同的工程领域。以下从这八大类别着手,对PSO算法的研究现状作一梳理。由于文献太多,无法面面俱到,仅捡有代表性的加以综述。

 

 

 

       PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个“极值(pbest和gbest)”来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。

 

 

 

 对于公式(1):

 

 

 

公式(1)中的第一部分称为记忆项,表示上次速度大小和方向的影响;

 

公式(1)中的第二部分称为自身认知项,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;

 

公式(1)中的第三部分称为群体认知项,是一个从当前点指向种群最好点的矢量,反映了粒子间的协调合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。

 

 

 

 

 

 

 

 综上所述,标准PSO算法流程:

 

初始化一群微粒(群体规模为N),包括随机位置和速度;

 

评价每个微粒的适应度;

 

对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;

 

对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest;

 

根据公式(2)、(3)调整微粒的速度和位置;

 

未达到结束条件则转到第二步。

 

迭代终止条件根据具体问题一般选为最大迭代次数Gk或微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。

 

 

 

2.matlab算法仿真效果

 

matlab2022a仿真结果如下:

 

 

 

3.MATLAB核心程序

 

global Ri;
global Pij;
global Si;
 
%导入excel数据
dat1 = xlsread('alpha_beta.xlsx');
dat2 = xlsread('project_correlation.xlsx');
 
 
alpha = dat1(:,1);
beta  = dat1(:,2);
Rm    = dat1(:,3);
 
Ri    = [alpha + beta.*Rm]';
 
Pij   =  dat2(1:30,1:30);
for i = 1:30
    for j = 1:30
        if isnan(Pij(i,j)) == 1
           Pij(i,j) = 0;
        end
    end
end
 
Si    = dat2(1:30,34);
 
 
 
%粒子初始化
%粒子群算法中的两个参数
c1     = 1.5;
c2     = 1.5;
%最大最小权值
wmax   = 0.9;
wmin   = 0.1;
%最大最小速度
Vmax   = 1.5;
Vmin   = -1.5;
%最大最小个体
popmax = 1;
popmin = 0;
 
maxgen = 280;   %进化次数  
sizepop= 500;   %种群规模
 
LE     = 30;
%随机产生一个种群
for i=1:sizepop   
    pop(i,:)   = 0.6*rand(1,LE);      %个体编码
    pop(i,:)   = pop(i,:)/sum(pop(i,:));
    fitness1(i)= func_object1(pop(i,:));%染色体的适应度
    fitness2(i)= func_object2(pop(i,:));%染色体的适应度
    V(i,:)     = 0.03*rands(1,LE);    %初始化速度
    fitness(i) =(0.5*fitness1(i)+0.5*fitness2(i));
end
 
%初始种群极值
%找最好的染色体
[bestfitness,bestindex]   = min(fitness);
[bestfitness1,bestindex1] = min(fitness1);
[bestfitness2,bestindex2] = min(fitness2);
%全局最佳
zbest                   = pop(bestindex,:);   
%个体最佳
gbest                   = pop;    
%个体最佳适应度值
fitnessgbest            = fitness;   
fitnessgbest1           = fitness1;  
fitnessgbest2           = fitness2;  
%全局最佳适应度值
fitnesszbest            = bestfitness;   
fitnesszbest1           = bestfitness; 
fitnesszbest2           = bestfitness; 
%迭代寻优
for i=1:maxgen
    i
    for j=1:sizepop
        %变权值
       w        =(wmax-wmin)*(i-1)/(maxgen)+wmin;  
%         %固定权值
        % w        = 0.1;
        
        %速度更新
        V(j,:)   = w*V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:));   
        V(j,find(V(j,:)>Vmax)) = Vmax;   %小于最大速度
        V(j,find(V(j,:)<Vmin)) = Vmin;   %大于最小速度
        %种群更新
        pop(j,:) = pop(j,:)+0.9*V(j,:);
 
        %适应度值
        pop(j,:)                     = pop(j,:)/sum(pop(j,:));
        %小于个体最大值
        pop(j,find(pop(j,:)>popmax)) = popmax;       
        
        %大于个体最小值
        pop(j,find(pop(j,:)<popmin)) = popmin;       
 
        %适应度值
        pop(j,:)                     = pop(j,:)/sum(pop(j,:));
        fitness1(j)                  = func_object1(pop(j,:));
        fitness2(j)                  = func_object2(pop(j,:));
        fitness(j)                   = (0.5*fitness1(j)+0.5*fitness2(j));
    end
    
    for j=1:sizepop
        %个体极值更新
        if fitness(j)>fitnessgbest(j)
           gbest(j,:)       = pop(j,:);
           fitnessgbest(j)  = fitness(j);
           fitnessgbest1(j) = fitness1(j);
           fitnessgbest2(j) = fitness2(j);
        end
        %全局极值更新
        if fitness(j)>fitnesszbest
           zbest            = pop(j,:);
           fitnesszbest     = fitness(j);
           fitnesszbest1    = fitness1(j);
           fitnesszbest2    = fitness2(j);
        end
    end
    
    %记录最优适应度值
    yy(i) = fitnesszbest;
    E(i)  = fitnesszbest1;
    F(i)  = fitnesszbest2;
    
    %保存数据
    SAVES(1,i)    = E(i);
    SAVES(2,i)    = F(i);
    SAVES(3:32,i) = zbest';
 
end
figure;
plot(F,E,'linewidth',2);
title('风险收益曲线图');
xlabel('RISK');
ylabel('RETURN,E(Ri)');
grid on
02_037m

 

  

 

 

标签:仿真,end,PSO,pop,算法,matlab,粒子,微粒
From: https://www.cnblogs.com/51matlab/p/17067227.html

相关文章