基于NARX和时滞网络的建模与预测
使用动态神经网络(包括反馈网络)解决时间序列问题
应用程序
神经网络时间序列 | 利用动态神经网络求解非线性时间序列问题 |
功能
timedelaynet |
时滞神经网络 |
narxnet |
带外部输入的非线性自回归神经网络 |
narnet |
非线性自回归神经网络 |
layrecnet |
层递归神经网络 |
distdelaynet |
分布式时延网络 |
火车 |
训练浅神经网络 |
gensim |
生成金宝app浅层神经网络模拟块 |
adddelay |
增加神经网络响应的延迟 |
removedelay |
消除神经网络的响应延迟 |
closeloop |
将神经网络开环反馈转化为闭环 |
openloop |
将神经网络闭环反馈转化为开环 |
ploterrhist |
绘图误差直方图 |
plotinerrcorr |
绘制输入误差时间序列互相关图 |
plotregression |
线性回归 |
plotresponse |
绘制动态网络时间序列响应图 |
ploterrcorr |
绘制误差时间序列的自相关性 |
genFunction |
生成MATLAB模拟浅层神经网络的函数 |
例子和如何
基本设计
- 浅神经网络时间序列预测与建模
使用神经网络时间序列App和命令行函数进行时间序列预测。 - 设计时间序列时滞神经网络
学习设计用于时间序列预测的聚焦时滞神经网络(FTDNN)。 - 多步神经网络预测
学习多步神经网络预测。 - 设计时间序列NARX反馈神经网络
创建并训练带有外源输入的非线性自回归网络(NARX)。 - 设计层递归神经网络
创建并训练一个动态网络,即层循环网络(LRN)。 - 部署浅神经网络函数
利用MATLAB仿真和部署训练好的浅层神经网络®工具。 - 浅神经网络的部署训练
学习如何部署浅层神经网络训练。 - 磁悬浮建模
这个例子说明了如何一个NARX(非线性自回归与外部输入)神经网络可以建模一个磁悬浮动力系统。
培训可扩展性和效率
- 基于并行和GPU计算的浅神经网络
使用并行和分布式计算来加速神经网络的训练和模拟,并处理大数据。 - 神经网络训练时自动保存检查点
保存中间结果,以保护长时间训练的价值。 - 优化神经网络的训练速度和记忆
使神经网络训练更高效。
最优解金宝搏官方网站
- 选择神经网络输入输出处理函数
预处理输入和目标,以便更有效地培训。 - 配置浅神经网络输入和输出
培训之前,请使用配置
函数。 - 最佳神经网络训练的数据划分
使用函数将数据划分为训练集、验证集和测试集。 - 选择一个多层神经网络训练函数
不同问题类型训练算法的比较。 - 改进浅神经网络泛化,避免过拟合
学习提高泛化和防止过拟合的方法。 - 用误差权值训练神经网络
学习如何在训练神经网络时使用误差加权。 - 多输出误差归一化
学习如何使用不同范围的值来匹配输出元素。
概念
- 动态神经网络是如何工作的
了解前馈和循环网络是如何工作的。
- 多序列动态神经网络
管理以几个短序列可用的时间序列数据。
- 神经网络时间序列实用程序
学习如何使用效用函数来操作神经网络数据。
- 浅层神经网络样本数据集
浅层神经网络实验时使用的样本数据集列表。
- 神经网络对象属性
了解定义网络基本特征的属性。
- 神经网络子对象属性
了解定义网络细节的属性,如输入、层、输出、目标、偏差和权重。