当前位置: 代码网 > it编程>前端脚本>Python > 十一、机器学习进阶知识:模糊神经网络(FNN)的实现(Python,附源码及数据集)

十一、机器学习进阶知识:模糊神经网络(FNN)的实现(Python,附源码及数据集)

2024年07月31日 Python 我要评论
本文对模糊神经网络(FNN)的理论基础及建模步骤进行介绍,之后使用Python实现基于FNN的数据预测,通俗易懂,适合新手学习,附源码及实验数据集。

一、理论基础

模糊神经网络(fuzzy neural network,简称fnn)本质上是一种将模糊理论与人工前向神经网络相结合的多层前向神经网络,在处理信息时,该网络能够具有更大的处理范围以及更快的信息处理速度,因此该网络的自学习能力与映射也相对较高。与反向传播神经网络(bpnn)相似,其训练过程主要分为前向传播与反向传播两个部分。
反向传播神经网络(bpnn)原理参考:
反向传播神经网络(bpnn)的实现(python,附源码及数据集)

1、模糊神经网络结构

模糊神经网络的结构图如下图所示:
在这里插入图片描述

2、前向传播过程

数据输入模糊神经网络总共需要经过五层网络结构,最先是输入层,这一层的节点数量为输入数据的特征维度,即当数据的特征维度为n时,输入层的节点数为n。
然后数据从输入层传递至隶属度函数计算层,在这一层需要使用隶属度函数来计算每个节点的隶属度,每一个节点代表一个隶属度函数,这一层的节点个数为输入变量有可能构成的模糊条件的个数。隶属度函数一般选用高斯函数,公式如下:
在这里插入图片描述

其中u_ij为节点的输出,x_i为输入数据,c_ij为隶属函数的中心点,b_ij为隶属函数的宽度向量,m为对输入进行模糊分级的个数。
之后数据传递至规则生成层,这一层的节点数为模糊规则数,这一层的输出为每条规则的适用度,一般采用下列公式进行计算:
在这里插入图片描述

紧接着在归一化层对规则生成层的节点输出进行归一化处理,这一层的节点与规则生成层相同,使用如下公式进行归一化:
在这里插入图片描述

最后数据在输出层进行加权处理获得最终输出,计算的公式为:
在这里插入图片描述

其中ω_j为输出层的连接权值,上述公式是基于网络的输出变量维度为1时而设定的权值,当输出变量的维度增加时,对权值也将进行相应的调整。

3、反向传播过程

模糊神经网络同bpnn一样,一般使用反向传播算法如随机梯度下降法(sgd)对隶属函数的中心点、宽度向量以及输出层的连接权值进行优化。
以输出层的权值为例,其更新公式如下:
在这里插入图片描述其中e为误差函数,μ为学习率。
损失函数原理参考:

反向传播原理参考:
神经网络之反向传播算法(梯度、误差反向传播算法bp)

4、建模步骤

以使用模糊神经网络进行数据预测为例,可以将模糊神经网络预测模型的建模步骤总结如下:

  1. 根据输入数据的相关特征确定模糊神经网络输入层、隶属度函数计算层、规则生成层、归一化层以及输出层的节点数;
  2. 选择一种参数初始化方法对模糊神经网络隶属度函数计算层中隶属度函数的中心点、宽度向量以及输出层的连接权值、阈值进行随机初始化;
  3. 数据由输入层输入模糊神经网络,依次经过隶属度函数计算层以及规则生成层计算获得输出;
  4. 将规则生成层的输出在归一化层进行归一化处理之后经由输出层的加权处理获得网络的最终前向传播输出;
  5. 传递至隐含层后经径向基函数对数据进行非线性转换;
  6. 选择一种损失函数对网络的前向传播输出以及目标值进行相关计算得到损失值;
  7. 以输出层的损失值计算得到输出层连接权值的梯度,选择一种反向传播算法对它们进行调整;
  8. 损失值传递至隶属度函数计算层,同样使用相同的反向传播算法对隶属度函数的中心点以及宽度向量进行调整;
  9. 获得一个参数得到更新后的模糊神经网络;
  10. 在达到最大迭代次数之前,重复步骤3到步骤9,在达到最大迭代次数后,输出隐含层与输出层参数确定的多层前馈神经网络。

参数初始化方法参考:

二、模糊神经网络的实现

以数据预测为例,下面介绍基于python实现模糊神经网络的过程。
选用某省市的表层土壤重金属元素数据集作为实验数据,该数据集总共96组,随机选择其中的24组作为测试数据集,72组作为训练数据集。选取重金属ti的含量作为待预测的输出特征,选取重金属co、cr、mg、pb作为模型的输入特征。

1、训练过程(fnn.py)

#库的导入
import numpy as np
import pandas as pd


#输入数据的导入
df = pd.read_csv("train.csv")
df.columns = ["co", "cr", "mg", "pb", "ti"]
co = df["co"]
co = np.array(co)
cr = df["cr"]
cr = np.array(cr)
mg=df["mg"]
mg=np.array(mg)
pb = df["pb"]
pb =np.array(pb)
ti = df["ti"]
ti = np.array(ti)
samplein = np.mat([co,cr,mg,pb])
#数据归一化,将输入数据压缩至0到1之间,便于计算,后续通过反归一化恢复原始值
sampleinminmax = np.array([samplein.min(axis=1).t.tolist()[0],samplein.max(axis=1).t.tolist()[0]]).transpose()#对应最大值最小值
#待预测数据为ti
sampleout = np.mat([ti])
sampleoutminmax = np.array([sampleout.min(axis=1).t.tolist()[0],sampleout.max(axis=1).t.tolist()[0]]).transpose()
sampleinnorm = ((np.array(samplein.t)-sampleinminmax.transpose()[0])/(sampleinminmax.transpose()[1]-sampleinminmax.transpose()[0])).transpose()
sampleoutnorm = ((np.array(sampleout.t)-sampleoutminmax.transpose()[0])/(sampleoutminmax.transpose()[1]-sampleoutminmax.transpose()[0])).transpose()

sampleinnorm = sampleinnorm.transpose()
sampleoutnorm = sampleoutnorm.transpose()

s = 2  #模糊分级个数
t = 16  #规则生成层、归一化层节点数
iteration = 500  #迭代训练次数
learningrate = 0.01  #学习率

#c1、b1分别为李隶属度层的中心点与宽度向量、w1为输出层的权值,sampleinnorm.shape[1]代表输入数据的4个类别
c1 = np.random.uniform(low=-1, high=1, size=
(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com