首页 > 编程知识 正文

贝尔曼方程 动态规划,贝尔曼方程求解例题

时间:2023-05-05 07:30:39 阅读:244064 作者:733

网格世界示例如下:
cqdmf方程

在这个网格世界示例中,一旦智能体选择一个动作,
它始终沿着所选方向移动(而一般 MDP 则不同,智能体并非始终能够完全控制下个状态将是什么)
可以确切地预测奖励(而一般 MDP 则不同,奖励是从概率分布中随机抽取的)。
在这个简单示例中,我们发现任何状态的值可以计算为即时奖励和下个状态(折扣)值的和。
Alexis 提到,对于一般 MDP,我们需要使用期望值,因为通常即时奖励和下个状态无法准确地预测。的确,我们在之前的课程中发现,奖励和下个状态是根据 MDP 的一步动态特性选择的。在这种情况下,奖励 r和下个状态 s′ 是从(条件性)概率分布 p(s′,r∣s,a) 中抽取的,cqdmf预期方程(对于 vπ)表示了任何状态 sss 对于_预期即时奖励和下个状态的预期_值的值:
vπ(s)=Eπ[Rt+1+γvπ(St+1)∣St=s]
计算预期值
如果智能体的策略 π 是确定性策略,智能体在状态 sss 选择动作 π(s),cqdmf预期方程可以重写为两个变量 (s′ 和 r) 的和:
vπ(s)=∑s′∈S+,r∈Rp(s′,r∣s,π(s))(r+γvπ(s′))
在这种情况下,我们将奖励和下个状态的折扣值之和 (r+γvπ(s′))与相应的概率 p(s′,r∣s,π(s)) 相乘,并将所有概率相加得出预期值。
如果智能体的策略 π 是随机性策略,智能体在状态 s 选择动作 a的概率是 π(a∣s),cqdmf预期方程可以重写为三个变量(s′、r 和 a)的和:
vπ(s)=∑s′∈S+,r∈R,a∈A(s)π(a∣s)p(s′,r∣s,a)(r+γvπ(s′))
在这种情况下,我们将奖励和下个状态的折扣值之和 (r+γvπ(s′)) 与相应的概率 π(a∣s)p(s′,r∣s,a) 相乘,并将所有概率相加得出预期值。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。