搜索资源列表
1985528BP_RBF
- ADIAL Basis Function (RBF) networks were introduced into the neural network literature by Broomhead and Lowe [1], which are motivated by observation on the local response in biologic neurons. Due to their better approximation capabilities, si
SourceCode
- neural-network模型中,在產生一個輸出值前units轉換它們的net-input數值為一個activation value並視為一個中介的步驟。很多架構省略這個中介的步驟並且直接到輸出值的產生。在這裡,先忽略這個activation value的複雜度,我們首要的工作是output value輸出值的產生。我們以一個微分方程式的形式來表示一個unit的output value。就好像是生物學中所提的同等事物一樣,units的輸出值是時間的動態函數。-neural-network mo
nc_tanker
- Radial Basis Function Neural Controller for Tanker Ship Heading Regulation (using only 9 receptive field units)
ANN
- 这是一个matlab程序用于构建人工神经网络模型,可以随意设置层数和单元个数!-This is a matlab program for building artificial neural network model can arbitrarily set the number of layers and units!
AHU
- 神经网络建立的空调系统空气处理单元模型;simulink模型mdl,附带相关数据及归一化处理程序-Air-conditioning system neural network model of air handling units simulink model mdl, with relevant data and normalization process
using-adaptive-chebyshev
- 提出了一种基于自适应 Chebyshev 多项式神经网络(ACNN)的 Logistic 混沌系统控制算法。该算法采用 Chebyshev 正交多项式作为神经网络的激励函数, 构建 Logistic 混沌系统的预测与控制模型。为了保证算法的稳定性, 提出和证明了收敛定 理, 并利用自适应学习率算法提高神经网络的学习效率和收敛速度。通过采用自适应 Chebyshev 神经网络直接学习 Logistic 混 沌系统的动态特性, 并对系统实施目标函数控制。实验仿真结果表明, 该算法在 L
ABCNNTrain
- Training Artificial Neural Network. XOR Problem. Summation Units, Log-Sigmoid Neurons with Biases. Input Layer: 2, Hidden Layer: 2, Output Layer: 1 neurons. Returns mean square error between desired and actual outputs. Reference Pape
annlyap
- 最小RMSE神经网络方法计算Lyapunov指数的matlab函数。-This M-file calculates Lyapunov exponents with minimum RMSE neural network. After estimation of network weights and finding network with minimum BIC, derivatives are calculated. Sum of logarithm of QR decomposition
bp-neural-network-02
- BP神经网络隐单元个数不同造成误差精度以及训练时间不同-BP neural network the number of hidden units caused the error accuracy and training time
61046606ABCNNTrain
- Training Artificial Neural Network. XOR Problem. Summation Units, Log-Sigmoid Neurons with Biases. Input Layer: 2, Hidden Layer: 2, Output Layer: 1 neurons. Returns mean square error between desired and actual outputs. Reference Papers: D. Karaboga,
ABCNNTrain
- Training Artificial Neural Network. XOR Problem. Summation Units, Log-Sigmoid Neurons with Biases. Input Layer: 2, Hidden Layer: 2, Output Layer: 1 neurons. Returns mean square error between desired and actual outputs. Reference Papers: D. Karaboga,
sample4
- 工神经网络(Artificial Neural Network)又称连接机模型,是在现代神经学、生物学、心理学等学科研究的基础上产生的,它反映了生物神经系统处理外界事物的基本过程,是在模拟人脑神经组织的基础上发展起来的计算系统,是由大量处理单元通过广泛互联而构成的网络体系,它具有生物神经系统的基本特征,在一定程度上反映了人脑功能的若干反映,是对生物系统的某种模拟,具有大规模并行、分布式处理、自组织、自学习等优点,被广泛应用于语音分析、图像识别、数字水印、计算机视觉等很多领域,取得了许多突出的成果
07 神经网络与深度学习
- 人工神经网络(Artificial Neural Networks,ANN)系统是 20 世纪 40 年代后出现的。它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信 息存储、良好的自组织自学习能力等特点。BP(Back Propagation)算法又称为误差 反向传播算法,是人工神经网络中的一种监督式的学习算法。BP 神经网络算法在理 论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。(The Artificial Neural Network
花的分类问题
- 神经网络是一组连接的输入/输出单元,其中每个连接都与一个权重相关联。在学习阶段,通过调整这些权重,能够预测输入元素的正确类标号(A neural network is a set of connected input/output units, where each connection is associated with a weight. In the learning phase, by adjusting these weights, the correct class label o