一种智能算法,其思想就是在一个粒子群中,利用历史最优和当前种群的最优值来在一定程度上影响当前种群的决策
对于每个粒子,有2个参数:位置X和速度V
每次更新:X = X + V;V = V + r1 * (pbest - X) + r2 * (gbest - X)
引入评判解是否更优的数值:适应值 fitness
其中 pbest 为种群中的最优解,每次迭代的时候重新取;gbest 为历史最优解,每次迭代的时候看能否更新
r1 r2 为选定的参数,0 ~ 1 之间
如果存在约束该怎么做?引入一个惩罚值,比如有一个限制 x + y <= 6 ,惩罚值就可以即为 e1 = x+y - 6,注意需要归一化!变成0~1的数
然后每次更新的时候,分为4中情况,当前有/无惩罚值 & pbest gbest 有/无惩罚值
此外,注意每个粒子不一定是数,例如在TSP问题中,每个粒子代表的就是一个1~city_num的排列
有约束PSO
import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
mpl.rcParams['font.sans-serif'] = ['SimHei'] # 指定默认字体
mpl.rcParams['axes.unicode_minus'] = False # 解决保存图像是负号'-'显示为方块的问题
# PSO的参数
w = 1 # 惯性因子,一般取1
c1 = 2 # 学习因子,一般取2
c2 = 2 #
r1 = None # 为两个(0,1)之间的随机数
r2 = None
dim = 2 # 维度的维度
size = 100 # 种群大小,即种群中小鸟的个数
iter_num = 1000 # 算法最大迭代次数
max_vel = 0.5 # 限制粒子的最大速度为0.5
fitneess_value_list = [] # 记录每次迭代过程中的种群适应度值变化
def calc_f(X):
"""计算粒子的的适应度值,也就是目标函数值,X 的维度是 size * 2 """
A = 10
pi = np.pi
x = X[0]
y = X[1]
return 2 * A + x ** 2 - A * np.cos(2 * pi * x) + y ** 2 - A * np.cos(2 * pi * y)
def calc_e1(X):
"""计算第一个约束的惩罚项"""
e = X[0] + X[1] - 6
return max(0, e)
def calc_e2(X):
"""计算第二个约束的惩罚项"""
e = 3 * X[0] - 2 * X[1] - 5
return max(0, e)
def calc_Lj(e1, e2):
"""根据每个粒子的约束惩罚项计算Lj权重值,e1, e2列向量,表示每个粒子的第1个第2个约束的惩罚项值"""
# 注意防止分母为零的情况
if (e1.sum() + e2.sum()) <= 0:
return 0, 0
else:
L1 = e1.sum() / (e1.sum() + e2.sum())
L2 = e2.sum() / (e1.sum() + e2.sum())
return L1, L2
def velocity_update(V, X, pbest, gbest):
"""
根据速度更新公式更新每个粒子的速度
:param V: 粒子当前的速度矩阵,20*2 的矩阵
:param X: 粒子当前的位置矩阵,20*2 的矩阵
:param pbest: 每个粒子历史最优位置,20*2 的矩阵
:param gbest: 种群历史最优位置,1*2 的矩阵
"""
r1 = np.random.random((size, 1))
r2 = np.random.random((size, 1))
V = w * V + c1 * r1 * (pbest - X) + c2 * r2 * (gbest - X) # 直接对照公式写就好了
# 防止越界处理
V[V < -max_vel] = -max_vel
V[V > max_vel] = max_vel
return V
def position_update(X, V):
"""
根据公式更新粒子的位置
:param X: 粒子当前的位置矩阵,维度是 20*2
:param V: 粒子当前的速度举着,维度是 20*2
"""
return X + V
def update_pbest(pbest, pbest_fitness, pbest_e, xi, xi_fitness, xi_e):
"""
判断是否需要更新粒子的历史最优位置
:param pbest: 历史最优位置
:param pbest_fitness: 历史最优位置对应的适应度值
:param pbest_e: 历史最优位置对应的约束惩罚项
:param xi: 当前位置
:param xi_fitness: 当前位置的适应度函数值
:param xi_e: 当前位置的约束惩罚项
:return:
"""
# 下面的 0.0000001 是考虑到计算机的数值精度位置,值等同于0
# 规则1,如果 pbest 和 xi 都没有违反约束,则取适应度小的
if pbest_e <= 0.0000001 and xi_e <= 0.0000001:
if pbest_fitness <= xi_fitness:
return pbest, pbest_fitness, pbest_e
else:
return xi, xi_fitness, xi_e
# 规则2,如果当前位置违反约束而历史最优没有违反约束,则取历史最优
if pbest_e < 0.0000001 and xi_e >= 0.0000001:
return pbest, pbest_fitness, pbest_e
# 规则3,如果历史位置违反约束而当前位置没有违反约束,则取当前位置
if pbest_e >= 0.0000001 and xi_e < 0.0000001:
return xi, xi_fitness, xi_e
# 规则4,如果两个都违反约束,则取适应度值小的
if pbest_fitness <= xi_fitness:
return pbest, pbest_fitness, pbest_e
else:
return xi, xi_fitness, xi_e
def update_gbest(gbest, gbest_fitness, gbest_e, pbest, pbest_fitness, pbest_e):
"""
更新全局最优位置
:param gbest: 上一次迭代的全局最优位置
:param gbest_fitness: 上一次迭代的全局最优位置的适应度值
:param gbest_e:上一次迭代的全局最优位置的约束惩罚项
:param pbest:当前迭代种群的最优位置
:param pbest_fitness:当前迭代的种群的最优位置的适应度值
:param pbest_e:当前迭代的种群的最优位置的约束惩罚项
:return:
"""
# 先对种群,寻找约束惩罚项=0的最优个体,如果每个个体的约束惩罚项都大于0,就找适应度最小的个体
pbest2 = np.concatenate([pbest, pbest_fitness.reshape(-1, 1), pbest_e.reshape(-1, 1)], axis=1) # 将几个矩阵拼接成矩阵
pbest2_1 = pbest2[pbest2[:, -1] <= 0.0000001] # 找出没有违反约束的个体
if len(pbest2_1) > 0:
pbest2_1 = pbest2_1[pbest2_1[:, 2].argsort()] # 根据适应度值排序
else:
pbest2_1 = pbest2[pbest2[:, 2].argsort()] # 如果所有个体都违反约束,直接找出适应度值最小的
# 当前迭代的最优个体
pbesti, pbesti_fitness, pbesti_e = pbest2_1[0, :2], pbest2_1[0, 2], pbest2_1[0, 3]
# 当前最优和全局最优比较
# 如果两者都没有约束
if gbest_e <= 0.0000001 and pbesti_e <= 0.0000001:
if gbest_fitness < pbesti_fitness:
return gbest, gbest_fitness, gbest_e
else:
return pbesti, pbesti_fitness, pbesti_e
# 有一个违反约束而另一个没有违反约束
if gbest_e <= 0.0000001 and pbesti_e > 0.0000001:
return gbest, gbest_fitness, gbest_e
if gbest_e > 0.0000001 and pbesti_e <= 0.0000001:
return pbesti, pbesti_fitness, pbesti_e
# 如果都违反约束,直接取适应度小的
if gbest_fitness < pbesti_fitness:
return gbest, gbest_fitness, gbest_e
else:
return pbesti, pbesti_fitness, pbesti_e
# 初始化一个矩阵 info, 记录:
# 1、种群每个粒子的历史最优位置对应的适应度,
# 2、历史最优位置对应的惩罚项,
# 3、当前适应度,
# 4、当前目标函数值,
# 5、约束1惩罚项,
# 6、约束2惩罚项,
# 7、惩罚项的和
# 所以列的维度是7
info = np.zeros((size, 7))
# 初始化种群的各个粒子的位置
# 用一个 20*2 的矩阵表示种群,每行表示一个粒子
X = np.random.uniform(-5, 5, size=(size, dim))
# 初始化种群的各个粒子的速度
V = np.random.uniform(-0.5, 0.5, size=(size, dim))
# 初始化粒子历史最优位置为当当前位置
pbest = X
# 计算每个粒子的适应度
for i in range(size):
info[i, 3] = calc_f(X[i]) # 目标函数值
info[i, 4] = calc_e1(X[i]) # 第一个约束的惩罚项
info[i, 5] = calc_e2(X[i]) # 第二个约束的惩罚项
# 计算惩罚项的权重,及适应度值
L1, L2 = calc_Lj(info[i, 4], info[i, 5])
info[:, 2] = info[:, 3] + L1 * info[:, 4] + L2 * info[:, 5] # 适应度值
info[:, 6] = L1 * info[:, 4] + L2 * info[:, 5] # 惩罚项的加权求和
# 历史最优
info[:, 0] = info[:, 2] # 粒子的历史最优位置对应的适应度值
info[:, 1] = info[:, 6] # 粒子的历史最优位置对应的惩罚项值
# 全局最优
gbest_i = info[:, 0].argmin() # 全局最优对应的粒子编号
gbest = X[gbest_i] # 全局最优粒子的位置
gbest_fitness = info[gbest_i, 0] # 全局最优位置对应的适应度值
gbest_e = info[gbest_i, 1] # 全局最优位置对应的惩罚项
# 记录迭代过程的最优适应度值
fitneess_value_list.append(gbest_fitness)
# 接下来开始迭代
for j in range(iter_num):
# 更新速度
V = velocity_update(V, X, pbest=pbest, gbest=gbest)
# 更新位置
X = position_update(X, V)
# 计算每个粒子的目标函数和约束惩罚项
for i in range(size):
info[i, 3] = calc_f(X[i]) # 目标函数值
info[i, 4] = calc_e1(X[i]) # 第一个约束的惩罚项
info[i, 5] = calc_e2(X[i]) # 第二个约束的惩罚项
# 计算惩罚项的权重,及适应度值
L1, L2 = calc_Lj(info[i, 4], info[i, 5])
info[:, 2] = info[:, 3] + L1 * info[:, 4] + L2 * info[:, 5] # 适应度值
info[:, 6] = L1 * info[:, 4] + L2 * info[:, 5] # 惩罚项的加权求和
# 更新历史最优位置
for i in range(size):
pbesti = pbest[i]
pbest_fitness = info[i, 0]
pbest_e = info[i, 1]
xi = X[i]
xi_fitness = info[i, 2]
xi_e = info[i, 6]
# 计算更新个体历史最优
pbesti, pbest_fitness, pbest_e = \
update_pbest(pbesti, pbest_fitness, pbest_e, xi, xi_fitness, xi_e)
pbest[i] = pbesti
info[i, 0] = pbest_fitness
info[i, 1] = pbest_e
# 更新全局最优
pbest_fitness = info[:, 2]
pbest_e = info[:, 6]
gbest, gbest_fitness, gbest_e = \
update_gbest(gbest, gbest_fitness, gbest_e, pbest, pbest_fitness, pbest_e)
# 记录当前迭代全局之硬度
fitneess_value_list.append(gbest_fitness)
# 最后绘制适应度值曲线
print('迭代最优结果是:%.5f' % calc_f(gbest))
print('迭代最优变量是:x=%.5f, y=%.5f' % (gbest[0], gbest[1]))
print('迭代约束惩罚项是:', gbest_e)
# 迭代最优结果是:0.00000
# 迭代最优变量是:x=-0.00001, y=0.00002
# 迭代约束惩罚项是: 0.0
# 从结果看,有多个不同的解的目标函数值是相同的,多测试几次就发现了
# 绘图
plt.plot(fitneess_value_list[: 30], color='r')
plt.title('迭代过程')
TSP
```python
import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
import seaborn as sns
sns.set_style('whitegrid')
mpl.rcParams['font.sans-serif'] = ['SimHei']
mpl.rcParams['axes.unicode_minus'] = False
np.random.seed(23222)
city_num = 30
size = 50
r1 = 0.7
r2 = 0.8
iter_num = 100
fitness_value_list = []
X = np.random.choice(list(range(1, 100)), size = city_num, replace=False)
Y = np.random.choice(list(range(1, 100)), size = city_num, replace=False)
# 生成城市坐标
def calculate_distance(X, Y):
distance_matrix = np.zeros((city_num, city_num))
for i in range(city_num):
for j in range(city_num):
if i == j:
continue
dis = np.sqrt((X[i] - X[j]) ** 2 + (Y[i] - Y[j]) ** 2)
distance_matrix[i][j] = dis
return distance_matrix
def fitness_func(distance_matrix, xi):
total_dis = 0
for i in range(1, city_num):
start = xi[i-1]
end = xi[i]
total_dis += distance_matrix[start][end]
total_dis += distance_matrix[end][xi[0]]
return total_dis
def plot_tsp(gbest):
plt.scatter(X, Y, color = 'r')
for i in range(1, city_num):
start_x, start_y = X[gbest[i-1]], Y[gbest[i-1]]
end_x, end_y = X[gbest[i]], Y[gbest[i]]
plt.plot([start_x, end_x], [start_y, end_y], color = 'b', alpha = 0.8)
start_x, start_y = X[gbest[0]], Y[gbest[0]]
plt.plot([start_x, end_x], [start_y, end_y], color='b', alpha=0.8)
plt.show()
# 注意这里gbest存的是历史最优,即通过城市的顺序
def get_ss(xbest, xi, r): # 计算交换序列,即 pbest/gbest - x[i] 之后的序列 (粒子)
ve = []
for i in range(len(xi)):
if xi[i] != xbest[i]:
j = np.where(xi == xbest[i])[0][0]
so = (i, j, r)
ve.append(so)
xi[i], xi[j] =xi[j], xi[i]
return ve
def do_ss(xi, ss):
for i, j, r in ss:
rand = np.random.random() # 按某个概率执行交换操作
if rand <= r:
xi[i], xi[j] = xi[j], xi[i]
return xi
distance_matrix = calculate_distance(X, Y)
XX = np.zeros((size, city_num), dtype = np.int) # 生成一个size * city_num 的矩阵XX
for i in range(size):
XX[i] = np.random.choice(list(range(city_num)), size = city_num, replace=False)
pbest = XX # 种群,也就是说有 size 个 1~city_num的排列
pbest_fitness = np.zeros((size, 1))
for i in range(size):
pbest_fitness[i] = fitness_func(distance_matrix, xi = XX[i])
gbest = XX[pbest_fitness.argmin()]
gbest_fitness = pbest_fitness.min()
fitness_value_list.append(gbest_fitness)
for i in range(iter_num):
for j in range(size):
pbesti = pbest[j].copy()
xi = XX[j].copy()
ss1 = get_ss(pbesti, xi, r1)
ss2 = get_ss(gbest, xi, r2)
# r1*ss1 + r2 * ss2 即为速度(当前粒子由一种情况转到另一种情况)
do_ss(xi, ss1 + ss2)
fitness_new = fitness_func(distance_matrix, xi)
fitness_old = pbest_fitness[j]
if fitness_new < fitness_old:
pbest_fitness[j] = fitness_new
pbest[j] = xi
gbest_fitness_new = pbest_fitness.min()
gbest_new = pbest[pbest_fitness.argmin()]
if gbest_fitness_new < gbest_fitness:
gbest_fitness = gbest_fitness_new
gbest = gbest_new
fitness_value_list.append(gbest_fitness)
plot_tsp(gbest)
标签:xi,return,pbest2,pbest,算法,fitness,粒子
From: https://www.cnblogs.com/SkyRainWind/p/16866284.html