当前位置: 代码网 > it编程>编程语言>C/C++ > BP神经网络预测回归MATLAB代码(代码完整可直接用,注释详细,可供学习)

BP神经网络预测回归MATLAB代码(代码完整可直接用,注释详细,可供学习)

2024年07月28日 C/C++ 我要评论
BP神经网络预测回归MATLAB代码(代码完整可用,复制后即可运行使用,不懂也可直接使用,操作简单)

一、前言

bp神经网络预测回归matlab代码(代码完整可用,复制后即可运行使用,操作简单)
(1)bp神经网络的知识想必不用再过多介绍,本篇文章从实际应用的角度,针对新手应用者,针对不需要过多了解bp,但是需使用matlab进行bp预测使用的童鞋们(就是那些我不需要懂,能用就行的童鞋们),展示了一套完整且注释详细的bp神经网络matlab代码,供各位直接使用。
(2)此代码展示了丰富的结果表现形式,包含了常用的各种结果指标,包括误差平方和sse、平均绝对误差mae、均方误差mse、均方根误差rmse、平均百分比误差mape、预测准确率、相关系数r。此外,本代码还包含了隐含层节点的寻优过程,自动计算出最佳隐含层节点,避免了随意设置导致的误差增大和反复的实验过程。
(3)代码共分为9部分,分别为:初始化、读取数据、设置训练集和测试集、数据归一化、求解最佳隐含层、构建最佳隐含层的bp神经网络、网络训练、网络测试、结果输出。

代码获取:直接点击链接

二、代码部分

2.1 初始化

%% 1.初始化
clear
close all
clc
format short %精确到小数点后4位,format long是精确到小数点后15

2.2 读取数据

(1)此部分采用xlsread函数读取excel中存储的数据集,xlsread(‘数据.xlsx’,‘sheet1’,‘a1:n520’)中的’数据.xlsx’代表excel文件名称,'sheet1’代表文件的第一个表格,'a1:n520’代表数据矩阵,即包括输入和输出全部的数据范围,使用需自行修改;
(2)testnum代表设置测试集样本的数量,根据自己需求设置,剩下的为训练集;
(3)新版本的matlab(好像是2021版本以上)无法使用xlsread函数,可用load函数替代 ,load函数用法可直接百度,很简单。

%% 2.读取数据
data=xlsread('数据.xlsx','sheet1','a1:n520'); % matlab2021版本以上无法使用xlsread函数,可用load函数替代 

% 设置神经网络的输入和输出
input=data(:,1:end-1);    %1列至倒数第2列为输入
output=data(:,end);       %最后1列为输出

n=length(output);         %计算样本数量
testnum=20 ;              %设定测试集样本数量,从数据集后面选取  
trainnum=n-testnum;       %设定训练集样本数量

2.3 设置训练集和测试集

%% 3.设置训练集和测试集
input_train = input(1:trainnum,:)';                   % 训练集输入
output_train =output(1:trainnum)';                    % 训练集输出
input_test =input(trainnum+1:trainnum+testnum,:)';    % 测试集输入
output_test =output(trainnum+1:trainnum+testnum)';    % 测试集输出

2.4 数据归一化

%% 4.数据归一化
[inputn,inputps]=mapminmax(input_train,0,1);         % 训练集输入归一化到[0,1]之间
[outputn,outputps]=mapminmax(output_train);          % 训练集输出归一化到默认区间[-1, 1]
inputn_test=mapminmax('apply',input_test,inputps);   % 测试集输入采用和训练集输入相同的归一化方式

2.5 求解最佳隐含层

(1)计算出输入和输出矩阵的列数,即为输入节点数和输出节点数;
(2)根据输入节点数和输出节点数计算隐含层节点的范围。隐含层节点的范围由公式(1)计算得出,m代表输入层节点数,n代表输出层节点数,a的取值范围为1~10之间的整数,根据公式(1)求出10个可选择的隐含层节点数,依次对bp网络设置这10个隐含层节点并通过计算训练集均方误差mse的方式,最终得出误差最小所对应的隐含层节点,即为最佳隐含层节点。

在这里插入图片描述

%% 5.求解最佳隐含层
inputnum=size(input,2);   %size用来求取矩阵的行数和列数,1代表行数,2代表列数
outputnum=size(output,2);
disp(['输入层节点数:',num2str(inputnum),',  输出层节点数:',num2str(outputnum)])
disp(['隐含层节点数范围为 ',num2str(fix(sqrt(inputnum+outputnum))+1),' 至 ',num2str(fix(sqrt(inputnum+outputnum))+10)])
disp(' ')
disp('最佳隐含层节点的确定...')
 
%根据hiddennum=sqrt(m+n)+a,m为输入层节点数,n为输出层节点数,a取值[1,10]之间的整数
mse=1e+5;                             %误差初始化
transform_func={'tansig','purelin'};  %激活函数采用tan-sigmoid和purelin
train_func='trainlm';                 %训练算法
for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
    
    net=newff(inputn,outputn,hiddennum,transform_func,train_func); %构建bp网络
    
    % 设置网络参数
    net.trainparam.epochs=1000;       % 设置训练次数
    net.trainparam.lr=0.01;           % 设置学习速率
    net.trainparam.goal=0.000001;     % 设置训练目标最小误差
    
    % 进行网络训练
    net=train(net,inputn,outputn);
    an0=sim(net,inputn);     %仿真结果
    mse0=mse(outputn,an0);   %仿真的均方误差
    disp(['当隐含层节点数为',num2str(hiddennum),'时,训练集均方误差为:',num2str(mse0)])
    
    %不断更新最佳隐含层节点
    if mse0<mse
        mse=mse0;
        hiddennum_best=hiddennum;
    end
end
disp(['最佳隐含层节点数为:',num2str(hiddennum_best),',均方误差为:',num2str(mse)])

2.6 构建最佳隐含层的bp神经网络

(1)根据2.5求出来的最佳隐含层节点,重新构建最佳隐含层的bp神经网络;
(2)网络参数可根据自己需求适当修改。

%% 6.构建最佳隐含层的bp神经网络
net=newff(inputn,outputn,hiddennum_best,transform_func,train_func);

% 网络参数
net.trainparam.epochs=1000;         % 训练次数
net.trainparam.lr=0.01;             % 学习速率
net.trainparam.goal=0.000001;       % 训练目标最小误差

2.7 网络训练

%% 7.网络训练
net=train(net,inputn,outputn);      % train函数用于训练神经网络,调用蓝色仿真界面

2.8 网络测试

(1)运行完毕后可查看工作区中最终的权值阈值。

%% 8.网络测试
an=sim(net,inputn_test);                     % 训练完成的模型进行仿真测试
test_simu=mapminmax('reverse',an,outputps);  % 测试结果反归一化
error=test_simu-output_test;                 % 测试值和真实值的误差

% 权值阈值
w1 = net.iw{1, 1};  %输入层到中间层的权值
b1 = net.b{1};      %中间各层神经元阈值
w2 = net.lw{2,1};   %中间层到输出层的权值
b2 = net.b{2};      %输出层各神经元阈值

2.9 结果输出

(1)本部分为结果的输出代码,包括预测值与实际值对比图、预测误差图、计算各项参数指标、显示结果。

%% 9.结果输出
% bp预测值和实际值的对比图
figure
plot(output_test,'bo-','linewidth',1.5)
hold on
plot(test_simu,'rs-','linewidth',1.5)
legend('实际值','预测值')
xlabel('测试样本'),ylabel('指标值')
title('bp预测值和实际值的对比')
set(gca,'fontsize',12)

% bp测试集的预测误差图
figure
plot(error,'bo-','linewidth',1.5)
xlabel('测试样本'),ylabel('预测误差')
title('bp神经网络测试集的预测误差')
set(gca,'fontsize',12)

%计算各项误差参数
[~,len]=size(output_test);            % len获取测试样本个数,数值等于testnum,用于求各指标平均值
sse1=sum(error.^2);                   % 误差平方和
mae1=sum(abs(error))/len;             % 平均绝对误差
mse1=error*error'/len;                % 均方误差
rmse1=mse1^(1/2);                     % 均方根误差
mape1=mean(abs(error./output_test));  % 平均百分比误差
r=corrcoef(output_test,test_simu);    % corrcoef计算相关系数矩阵,包括自相关和互相关系数
r1=r(1,2);    

% 显示各指标结果
disp(' ')
disp('各项误差指标结果:')
disp(['误差平方和sse:',num2str(sse1)])
disp(['平均绝对误差mae:',num2str(mae1)])
disp(['均方误差mse:',num2str(mse1)])
disp(['均方根误差rmse:',num2str(rmse1)])
disp(['平均百分比误差mape:',num2str(mape1*100),'%'])
disp(['预测准确率为:',num2str(100-mape1*100),'%'])
disp(['相关系数r: ',num2str(r1)])

%显示测试集结果
disp(' ')
disp('测试集结果:')
disp('    编号     实际值     bp预测值     误差')
for i=1:len
    disp([i,output_test(i),test_simu(i),error(i)])   % 显示顺序: 样本编号,实际值,预测值,误差
end

三、输出结果展示

(1)最佳隐含层节点的确定过程:

在这里插入图片描述

(2)各项误差指标结果

在这里插入图片描述

(3)打印测试集结果

在这里插入图片描述

(4)bp预测值和实际值的对比以及预测误差

在这里插入图片描述

(5)回归图和误差直方图

在这里插入图片描述

(6)其他训练结果

在这里插入图片描述

四、bp优化模型

bp
布谷鸟算法优化 cs-bp
灰狼算法优化 gwo-bp
鲸鱼算法优化 woa-bp
粒子群算法优化 pso-bp
麻雀算法 ssa-bp
遗传算法 ga-bp

五、结语

(1)本代码可以算作是bp神经网络预测的较为优质的代码,大部分的设置是自动计算,无需手动修改,替换数据集后可直接使用,不懂得小伙伴根据文章也可直接使用,非常便捷;
(2)本代码为多输出单输出神经网络,后续会发布多输出多输出的bp代码,敬请期待。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com