主要内容

rlsarsaagent.

Sarsa加强学习代理

描述

Sarsa算法是一种无模型,在线,策略的on-prodice强化学习方法。萨拉代表是一家基于价值的强化学习代理,批评了批评奖励或未来奖励。

有关Sarsa代理商的更多信息,请参阅萨拉代表

有关不同类型的强化学习代理商的更多信息,请参阅加固学习代理人

创建

描述

例子

代理人= rlsarsaagent(评论家代理选项的)使用指定的批评网络创建Sarsa代理,并设置代理选项财产。

输入参数

展开全部

批评网络表示,指定为rlqvalueerepresentation目的。有关创建批评批评意见的更多信息,请参阅创建策略和值函数表示

特性

展开全部

代理选项,指定为一个rlsarsaagentoptions.目的。

对象功能

火车 在指定环境中列车加固学习代理
SIM Simulate trained reinforcement learning agents within specified environment
努力 从代理商或演员代表获取行动给定环境观察
工作者 获取钢筋学习代理人的演员代表
setActor. Set actor representation of reinforcement learning agent
克里克里条件 从加强学习代理获得批评批评意见
setcritic. 设定批评钢筋学习代理人的代表
生成policyfunction. Create function that evaluates trained policy of reinforcement learning agent

例子

全部收缩

创建或加载环境界面。对于此示例,请加载基本网格世界环境界面。

ent = rlpredefinedenv(“basicgridworld”);

创建一个评论家强值函数表示g a Q table derived from the environment observation and action specifications.

qtable = rltable(getobservationInfo(env),getActionInfo(env));批评= rlqvalueerpresentation(qtable,getobservationinfo(env),getactioninfo(env));

使用指定的批评值函数和ePsilon值创建Sarsa代理0.05

选择= rlsarsaagentoptions;opt.epsilongredyexpliation.epsilon = 0.05;代理= rlsarsaagent(批评者,选择)
Agent = RlsArsaAgent具有属性:AgentOptions:[1x1 rl.option.rlsarsaagentoptions]

要检查代理,请使用GetAction从随机观察返回操作。

GetAction(代理,{RANDI(25)})
ans = 1

您现在可以测试和培训代理人。

在R2019A引入