1. 简介
粒子群优化算法(PSO)是一种基于群体智能的进化计算技术,其思想来源于人工生命和进化计算理论,最早在1995年由美国的Kennedy教授和Eberhart教授受鸟群觅食行为的启发提出的。它同遗传算法类似,通过个体间的协作和竞争实现全局搜索。系统初始化为一组随机解,称之为粒子。通过粒子在搜索空间的飞行完成寻优,,它没有遗传算法的交叉以及变异算子,而是粒子在解空间追随最优的粒子进行搜索。粒子群算法采用实数求解,并且需要调整的参数较少,易于实现,是一种通用的全局搜索算法。
2. 算法原理
在粒子群优化算法中,每个优化问题的潜在解都可以想象成n维搜索空间上的一个点,称之为“粒子”。粒子在搜索空间中以一定的速度飞行,这个速度是根据自身的飞行经验和同伴的飞行经验来动态调整的,所有的粒子都有一个被目标函数决定的适应度值,并且知道自己到目前为止发现的最好位置和当前位置,这个可以看做是粒子自己的飞行经验,然后每个粒子还知道目前为止整个群体中所有粒子发现的最好位置,这个可以看做是粒子的同伴的飞行经验。
每个粒子使用下列信息改变自己的当前位置:
- 当前位置;
- 当前飞行速度;
- 当前位置与自己最好位置之间的距离;
- 当前位置与群体最好位置之间的距离。
粒子群中粒子的初始位置是在搜索区域内随机产生,每个粒子群的初始速度也是随机给定的,在搜索的过程中,粒子群和每个粒子所经历的最好位置及相应的适应度值分别被记忆下来。粒子群优化算法最基本的概念在于加速每个粒子朝它自己所经历的和群体所经历的最好位置移动。
基本粒子群优化算法中,粒子群有m个粒子组成,每个粒子的位置代表优化问题在n维搜索空间中的潜在解。粒子根据如下3条原则来更新自身状态:1)保持自身惯性;2)按自身的最优位置来改变状态;3)按群体的最优位置来改变状态。
假设在一个n维的搜索空间中,由m个粒子组成的种群,其中第i个粒子位置为
,其速度为
。它的个体极值为
,种群的全局极值为
。粒子找到上述两个极值后,就根据下面的公式来更新自己的速度和位置:
其中,称为学习因子或者加速常数,
是介于(0,1)之间的随机数,
分别是粒子i在第k次迭代中第d维的速度和位置,
是粒子i在第d维的个体极值的位置,
是群体在第d维的全局极值的位置。
调节粒子飞向自身最好位置方向的步长,
调节粒子向全局最好位置飞行的步长。为了减少在优化过程中粒子离开搜索空间,
或者
通常限定于一定范围内。
3. 算法流程
算法流程图如下所示
4. 应用举例-求解非线性函数的最大值(取之于网上,抱歉记不得网址了)
clc;clear all; close all;
tic; % 程序运行计时
E0 = 0.001; % 允许误差
MaxNum = 100; % 粒子最大迭代次数
narvs = 1; % 目标函数的自变量个数
particlesize = 30; % 粒子群规模
c1 = 2; % 个体经验学习因子
c2 = 2; % 社会经验学习因子
w =0.6; % 惯性因子
vmax = 0.8; % 粒子的最大飞翔速度
x = -5 + 10 * rand(particlesize, narvs);% 粒子所在的位置 (rand产生的大小为0,1),规模是 粒子群数和参数需求数 设置了x的取值范围[-5,5]
v = 2*rand(particlesize,narvs); % 粒子的飞翔速度 生成每个粒子的飞翔速度,由于是只有一个变量,所以速度是一维的
%定义函数
fitness = @(x)1/(1+(2.1*(1 - x + 2 * x.^2).*exp(-x.^2/2)));
for i= 1:particlesize
f(i) = fitness(x(i,1));
end
% 完成了对每一个粒子,在各自位置上的适应值
% 粒子开始学习
personalbest_x=x; % 用于存储对于每一个粒子最佳经历点的x值
personalbest_faval=f; % 同时存储对于每一个粒子的最佳经历点的数值,用于更改
[globalbest_faval,i] = min(personalbest_faval); % min函数返回的第一个是最小值,还有一个就是最小值的下标,这里就是告诉了是在哪个粒子上
globalbest_x = personalbest_x(i,:); % 这个是必定是全局最优点的位置
k = 1; % 开始迭代计数
while k <= MaxNum % 当迭代次数达到设定的最大值的时候,就不要再进行迭代了
for i = 1:particlesize % 对于每一个粒子
f(i) = fitness(x(i,1)); % 得到每个粒子的当前位置 在函数上的适应值
if f(i) < personalbest_faval(i) % 如果这个值是小于个人最优解的位置的时候,就更新,我们经过转换,所以只用考虑求最小值的情况
personalbest_faval(i) = f(i); % 将第i个粒子的个人最优解设置为
personalbest_x(i,:) = x(i,:); % 同时更改最有地址的位置
end
end
[globalbest_faval,i] = min(personalbest_faval);
globalbest_x = personalbest_x(i,:); % 更新全局 全局信息由个体信息描述组成
for i = 1:particlesize
v(i,:) = w*v(i,:) + c1*rand*(personalbest_x(i,:) - x(i,:)) + c2*rand*(globalbest_x -x(i,:)); % 由个人和全局的最佳信息数据进行更新移动速度
% 上面中rand会随机生成一个rand(0,1)然后会随机的降低学习因子的比例
for j = 1:narvs % 这个个循环确定了每个自变量上的速度,有没有超过对应的最大值
if v(i,j) > vmax
v(i,j) = vmax;
elseif v(i,j) < -vmax
v(i,j) = -vmax;
end
end
x(i,:) = x(i,:) + v(i,:); % 通过速度更新位置
end
if abs(globalbest_faval) < E0,break,end
k = k + 1;
end
Value1 = 1/globalbest_faval - 1; % 还记得上面做了一个加1,求倒数的操作么?
Value1 = num2str(Value1);
disp(strcat('the maximum value',' = ', Value1)); % 主要是在这进行了展示
Value2 = globalbest_x; % 得到了全局最优解的位置
Value2 = num2str(Value2);
disp(strcat('the maximum x = ', Value2));
% 绘图
x = -5:0.01:5;
y = 2.1*(1 - x + 2 * x.^2).*exp(-x.^2/2);
plot(x,y,'m','linewidth',3); % m表示的是粉红色,-是表示的是连续的曲线线
hold on;
plot(globalbest_x, 1/globalbest_faval-1,'kp','linewidth',4);
legend('目标函数','搜索到的最大值');
xlabel('x'); % 给x轴贴标签
ylabel('y'); % 给y轴贴标签
程序运行结果如上图所示,求得最大值和最大值位置为:the maximum value =5.1985 the maximum x =-1.1617