0
点赞
收藏
分享

微信扫一扫

数学建模(二):优化

月白色的大狒 2022-08-17 阅读 41

目录

✨前言

🔍一、什么是启发式算法?

📚二、简单的优化问题

📓三、启发式算法

💡四、粒子群算法

🗝️五、代码实现

🔍六、代码讲解与分析

🎈写在最后


✨前言

      在数学建模比赛中,优化的问题是再常见不过了,关于一些常见的有约束条件的函数寻优,我们可以用lingo就可以解决,但是对于一些复杂的并且无约束条件的寻优,我们常常无法入手,这个时候启发式算法就是我们求解该类优化问题的一大法宝。

     关于智能优化算法有很多,遗传算法例子群算法模拟退火....,这里我们就先学习掌握“粒子群算法”即可!

🔍一、什么是启发式算法?

启发式算法百度百科上的定义:一个基于直观或经验 构造的算法, 可接受的花费 下给出待解决 优化问题 的一个 可行解

📚二、简单的优化问题

📓三、启发式算法

按照预定的策略实行搜索,在搜索过程中获取的中间信息 不用来 改进策略,称为盲目搜索;

反之 如果利用了中间信息来改进搜索策略则称为启发式搜索。

例如:蒙特卡罗模拟用来求解优化问题就是盲目搜索,

还有大家熟悉的枚举法也是盲目搜索。

关于“启发式”,可以简单总结为下面两点:

(1) 任何有助于找到问题的最优解,但不能保证找到最优解的方法均是启发式方法;

(2) 有助于加速求解过程和找到较优解的方法是启发式方法。

💡四、粒子群算法

1995 年,美国学者 Kennedy和 Eberhart 共同提出了粒子 群算法,其基本思想源于 对鸟类群体行为进行建模 与仿真的研究结果的启发。

🗝️五、代码实现

我们就拿这个题目来举例子 ,求函数f(t,s)的极小值,这道题目的原解法是利用单纯形搜索法实现,那么我们这里用粒子群算法来实现一下,代码如下所示:

1)SOA.m文件

% Seeker Optimition Algorithm for f(x1,x2) optimum
clc % 清屏
clear all; % 删除workplace变量
close all; % 关掉显示图形窗口

format long
% Parameters
%这个地方的迭代次数,可以自己设定
sizepop=50;%种群规模
maxgen=50;%最大迭代次数
%式子中有几个变量x,m就等于多少
%这个地方m=2,则表示f函数中一共有两个变量
m=2;%空间维数
Umax=0.9500;%最大隶属度值
Umin=0.0111;%最小隶属度值
Wmax=0.9;%权重最大值
Wmin=0.1;%权重最小值
popmax=15;
popmin=-15;
% 初始化种群个体
for i=1:sizepop
    pop(i,:)=15*rands(1,m);
    fitness(i)=Sphere(pop(i,:));% 计算适应度
end
%寻找具有最好适应度的个体
[bestfitness bestindex]=min(fitness);
zbest=pop(bestindex,:);   %全局最佳
gbest=pop;    %个体最佳
fitnessgbest=fitness;   %个体最佳适应度值
fitnesszbest=bestfitness;   %全局最佳适应度值
%%迭代寻优
Di=0*rand(sizepop,m);
Di(1,:)=1;
Buchang=0*rand(sizepop,m);
C=0*rand(sizepop,m);
Diego=0*rand(sizepop,m);
Dialt=0*rand(sizepop,m);
Dipro=0*rand(sizepop,m);
yy(1)=fitnesszbest;
for t=2:maxgen
    for i=1:sizepop
        W=Wmax-t*(Wmax-Wmin)/maxgen;
        Diego(i,:)=sign(gbest(i,:) - pop(i,:));%确定利己方向
        Dialt(i,:)=sign(zbest - pop(i,:));%确定利他方向
        if Sphere(gbest(i,:))>=Sphere(pop(i,:))%确定预动方向
            Dipro(i,:)=-Di(i,:);
        else
            Dipro(i,:)=Di(i,:);
        end
        Di(i,:)=sign(W* Dipro(i,:)+rand*Diego(i,:)+rand*Dialt(i,:));%确定经验梯度方向
        [Orderfitnessgbest,Indexfitnessgbest]=sort(fitnessgbest,'descend');
        u=Umax-(sizepop-Indexfitnessgbest(i))*(Umax-Umin)/(sizepop-1);
        U=u+(1-u)*rand;
        H(t)=(maxgen-t)/maxgen;%迭代过程中权重的变化
        C(i,:)=H(t)*abs(zbest-5*rands(1,m));%确定高斯函数的参数
        T=sqrt(-log(U));
        Buchang(i,:)=C(i,:)*T;%确定搜索不长的大小
        Buchang(i,find(Buchang(i,:)>3*max(C(i,:))))=3*max(C(i,:));
        Buchang(i,find(Buchang(i,:)<0))=0;
        %更新位置
        pop(i,:)=pop(i,:)+Di(i,:).*Buchang(i,:);
        pop(i,find(pop(i,:)>popmax))=popmax;
        pop(i,find(pop(i,:)<popmin))=popmin;
        fitness(i)=Sphere(pop(i,:));%计算适应度值
        %个体最优更新
        if fitness(i) < fitnessgbest(i)
            gbest(i,:) = pop(i,:);
            fitnessgbest(i) = fitness(i);
        end
         %群体最优更新
        if fitness(i) < fitnesszbest
            zbest = pop(i,:);
            fitnesszbest = fitness(i);
        end
    end
    yy(t)=fitnesszbest;     
end
%% 结果分析
plot(yy,'LineWidth',4)
title(['适应度曲线  ' '终止代数=' num2str(maxgen)]);
xlabel('进化代数');ylabel('适应度');

zbest
funmin=Sphere(zbest)

2)Sphere.m文件

function y=Sphere(x)
%如果要求最大值的话,前面加一个负号就可以了
%y=-(3*x(1)^2+x(2)^2-2*x(1)*x(2)+4*x(1)+3*x(2));
 y=3*x(1)^2+x(2)^2-x(1)*x(2)+3*x(2)-5;

3)运行结果

4)答案验证

🔍六、代码讲解与分析

关于粒子群算法的各个步骤原理,我这边不做过多赘述,下面我来教大家如何应用并解决问题。

🎈写在最后

数模之路漫漫,其修远兮,以上均为博主个人理解,如有错误,欢迎指正,您的三联就是对俺最大的肯定!

举报

相关推荐

0 条评论