主要内容

rlOptimizer

为演员和评论家创建一个优化器对象

描述

创建一个优化器对象,用于在自定义训练循环中更新演员或评论家的可学习参数

例子

algobj= rlOptimizer创建默认优化器对象。可以使用点表示法修改对象属性。

例子

algobj= rlOptimizer (algOptions使用优化器选项对象指定的属性创建优化器对象algOptions

例子

全部折叠

使用rlOprimizer创建一个默认优化器算法对象,用于自定义训练循环中的演员或评论家的训练。

myAlg = rlooptimizer
myAlg = rlADAMOptimizer与属性:GradientDecayFactor: 0.9000 SquaredGradientDecayFactor: 0.9990 Epsilon: 1.0000e-08 LearnRate: 0.0100 L2RegularizationFactor: 1.0000e-04 GradientThreshold: Inf GradientThresholdMethod: "l2norm"

默认情况下,该函数返回一个rlADAMOptimizer对象使用默认选项。您可以使用点表示法来更改一些参数。

myAlg。LearnRate = 0.1;

您现在可以创建一个结构并设置它CriticOptimizerActorOptimizer字段myAlg.当你打电话时runEpisode,将结构作为输入参数传递。的runEpisode函数的更新方法myAlg更新你的演员或评论家的可学习参数。

使用rlOprimizerOptions创建优化器选项对象。将算法指定为“rmsprop”并设置学习率为0.2

myOptions = rlOptimizerOptions (...算法=“rmsprop”...LearnRate = 0.2);

使用rlOptimizer创建一个优化器算法对象,用于在自定义训练循环中训练演员或评论家。指定优化器选项集myOptions作为输入参数。

myAlg = rlOptimizer (myOptions)
myAlg = rlRMSPropOptimizer with properties: SquaredGradientDecayFactor: 0.9990 Epsilon: 1.0000e-08 LearnRate: 0.2000 L2RegularizationFactor: 1.0000e-04 GradientThreshold: Inf GradientThresholdMethod: "l2norm"

函数返回一个rlRMSPropOptimizer对象使用默认选项。您可以使用点表示法来更改一些参数。

myAlg。GradientThreshold = 2;

您现在可以创建一个结构并设置它CriticOptimizerActorOptimizer字段myAlg.当你打电话时runEpisode,将结构作为输入参数传递。的runEpisode函数的更新方法myAlg更新你的演员或评论家的可学习参数。

输入参数

全部折叠

对象的算法选项,指定为rlOptimizerOptions对象。

例子:rlOptimizerOptions(算法=“个”,LearnRate = 0.2)

输出参数

全部折叠

算法优化器对象,返回为rlADAMOptimizerrlSGDMOptimizer,或rlRMSPropOptimizer对象。的runEpisode函数使用返回对象的更新方法来更新演员或评论家的可学习参数。

版本历史

R2022a中引入