0
点赞
收藏
分享

微信扫一扫

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真


单独的ESN仿真:

        ESN的运行结果如下所示:

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真_ESN

         这个部分的误差为:

         0.0435

         ESN部分就不多做介绍了,你应该了解的,下面我们对ESN和BP改进和极限学习改进分别进行修改和说明,并进行仿真。

ESN+BP的仿真:

        首先,在原始的ESN中,权值的计算是通过pseudoinverse.m这个函数进行计算的,其主要内容就是:

      

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真_开发语言_02

即:

      

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真_ESN_03

        这里,我们的主要方法为:

        将

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真_ELM_04

计算得到的权值作为bp神经网络迭代的初始值,然后以这个初始值为迭代过程的第一个值,不断的训练迭代,最后得到ESN-BP输出的权值,然后进行测试。

         因此,其基本思路就是通过B-1T得到初始权值,然后通过bp网络进行迭代,得到最后优化后的值。

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真_BP_05

 计算后的误差为0.0427

        从上面的对比可知,采用BP神经网络进行权值系数的非线性更新之后,其误差可以进一步降低。但提升性能有限。

ESN+极限学习算法的仿真:

        这个部分的原理和上面的相同,不同的是,我们需要使用极限学习方法对ESN网络的中的权值进行更新。

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真_matlab_06

 误差为:0.1050

下面给出整个算法的流程框图:

【MLPs+ESN】利用多层感知机MLPs对经典ESN(回声状态网络)的输出权值计算进行优化的MATLAB仿真_ELM_07

2.部分核心代码 

clc;
clear;
close all;
warning off;
RandStream.setDefaultStream(RandStream('mt19937ar','seed',1));
addpath 'func\data_process\'
addpath 'func\Initial_ESN\'
addpath 'func\train_esn\'
addpath 'func\test_esn\'

load data.mat
%数据分割
train_fraction = 0.5;
[trainInputSequence, testInputSequence] = split_train_test(inputSequence,train_fraction);
[trainOutputSequence,testOutputSequence] = split_train_test(outputSequence,train_fraction);

%generate an esn
nInputUnits = 2;
nInternalUnits = 32;
nOutputUnits = 1;
esn = generate_esn(nInputUnits,nInternalUnits,nOutputUnits,'spectralRadius',0.5,'inputScaling',[0.1;0.1],'inputShift',[0;0],'teacherScaling',[0.3],'teacherShift',[-0.2],'feedbackScaling',0,'type','plain_esn');
esn.internalWeights = esn.spectralRadius * esn.internalWeights_UnitSR;

%train the ESN
%discard the first 100 points
nForgetPoints = 100;
%这里,就固定设置一种默认的学习方式,其他的就注释掉了
[trainedEsn,stateMatrix] = train_esn(trainInputSequence,trainOutputSequence,esn,nForgetPoints) ;

%test the ESN
nForgetPoints = 100 ;
predictedTrainOutput = test_esn(trainInputSequence, trainedEsn, nForgetPoints);
predictedTestOutput = test_esn(testInputSequence, trainedEsn, nForgetPoints) ;

figure;
plot(testOutputSequence(nForgetPoints+4:end),'b');
hold on
plot(predictedTestOutput,'r');
legend('原数据','预测数据');
title('ESN-ELM:测试数据的预测');


%计算测试数据的预测结果:
estimatedOutput = predictedTestOutput(1:end-3);
correctOutput = testOutputSequence(nForgetPoints+4:end);

nEstimatePoints = length(estimatedOutput) ;
nForgetPoints = length(correctOutput) - nEstimatePoints ;
correctVariance = 1;
meanerror = sum((estimatedOutput - correctOutput).^2)/nEstimatePoints ;
err =(sqrt(meanerror./correctVariance));
err

3.参考文献

A05-22

 

举报

相关推荐

0 条评论