当前位置: X-MOL 学术IEEE Trans. Fuzzy Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
General Type-2 Radial Basis Function Neural Network: A Data-Driven Fuzzy Model
IEEE Transactions on Fuzzy Systems ( IF 11.9 ) Pub Date : 2019-02-01 , DOI: 10.1109/tfuzz.2018.2858740
Adrian Rubio-Solis , Patricia Melin , Uriel Martinez-Hernandez , George Panoutsos

This paper proposes a new General Type-2 Radial Basis Function Neural Network (GT2-RBFNN) that is functionally equivalent to a GT2 Fuzzy Logic System (FLS) of either Takagi-Sugeno-Kang (TSK) or Mamdani type. The neural structure of the GT2-RBFNN is based on the α-planes representation, in which the antecedent and consequent part of each fuzzy rule uses GT2 Fuzzy Sets (FSs). To reduce the iterative nature of the Karnik-Mendel algorithm, the Enhaned-Karnik-Mendel (EKM) type-reduction and three popular direct-defuzzification methods, namely the 1) Nie-Tan approach (NT), the 2) Wu-Mendel uncertain bounds method (WU) and the 3) Biglarbegian-Melek-Mendel algorithm (BMM) are used. Hence, this paper provides four different architectures of the GT2-RBFNN and their parametric optimisation. Such optimisation is a two-stage methodology that first implements an Iterative Information Granulation (IIG) approach to estimate the antecedent parameters of each fuzzy rule. Secondly, each consequent part and the fuzzy rule base of the GT2-RBFNN is optimised using an Adaptive Gradient Descent method (AGD) respectively. A number of popular benchmark data sets, the identification of a nonlinear system and the prediction of chaotic time series are considered. The reported comparative analysis of experimental results is used to evaluate the performance of the suggested GT2 RBFNN with respect to other popular methodologies.

中文翻译:

一般类型 2 径向基函数神经网络:数据驱动的模糊模型

本文提出了一种新的通用 2 类径向基函数神经网络 (GT2-RBFNN),它在功能上等同于 Takagi-Sugeno-Kang (TSK) 或 Mamdani 类型的 GT2 模糊逻辑系统 (FLS)。GT2-RBFNN 的神经结构基于 α 平面表示,其中每个模糊规则的先行和后继部分使用 GT2 模糊集 (FS)。为了减少 Karnik-Mendel 算法的迭代性质,Enhaned-Karnik-Mendel (EKM) 类型归约和三种流行的直接去模糊化方法,即 1) Nie-Tan 方法 (NT),2) Wu-Mendel使用不确定边界方法 (WU) 和 3) Biglarbegian-Melek-Mendel 算法 (BMM)。因此,本文提供了 GT2-RBFNN 的四种不同架构及其参数优化。这种优化是一种两阶段方法,首先实施迭代信息粒化 (IIG) 方法来估计每个模糊规则的先行参数。其次,分别使用自适应梯度下降法 (AGD) 优化 GT2-RBFNN 的每个后续部分和模糊规则库。考虑了许多流行的基准数据集、非线性系统的识别和混沌时间序列的预测。报告的实验结果比较分析用于评估建议的 GT2 RBFNN 相对于其他流行方法的性能。每个后续部分和 GT2-RBFNN 的模糊规则库分别使用自适应梯度下降法 (AGD) 进行优化。考虑了许多流行的基准数据集、非线性系统的识别和混沌时间序列的预测。报告的实验结果比较分析用于评估建议的 GT2 RBFNN 相对于其他流行方法的性能。每个后续部分和 GT2-RBFNN 的模糊规则库分别使用自适应梯度下降法 (AGD) 进行优化。考虑了许多流行的基准数据集、非线性系统的识别和混沌时间序列的预测。报告的实验结果比较分析用于评估建议的 GT2 RBFNN 相对于其他流行方法的性能。
更新日期:2019-02-01
down
wechat
bug