当前位置: 首页 > news >正文

【强化学习】——03 Model-Free RL之基于价值的强化学习

【强化学习】——03 Model-Free RL之基于价值的强化学习

\quad\quad
\quad\quad 动态规划算法是基于模型的算法,要求已知状态转移概率和奖励函数。但很多实际问题中环境

可能是未知的,这就需要不基于模型(Model-Free)的RL方法。

\quad\quad 其又分为:

  • 基于价值(Value-Based RL)的强化学习,学习并贪婪地选择值最大地动作(确定性策略)
  • 基于策略(Policy-Based RL)的强化学习,对策略进行建模和优化(随机性策略)

\quad\quad 本文先介绍基于价值的强化学习

一、不基于模型的“预测”——更新 V π ( s ) V_\pi(s) Vπ(s)

(一) 蒙特卡洛算法MC

  1. 主要思想

\quad\quad 通过大量采样来逼近真实值,用频率来估计概率。通过多次采样,使用一个事件发生的频率来替代其发生的概率,以解决状态转移概率未知的问题。

\quad\quad Agent与环境交互产生若干完整的轨迹(从初态到末态),通过对多条轨迹的回报进行平均,进而估计状态价值或动作价值。

  1. 整体思路

\quad\quad 模拟——抽样——估值

\quad\quad 强化学习的目标是寻找最优策略,方法是求 V π ( s ) V_\pi(s) Vπ(s) Q π ( s , a ) Q_\pi(s,a) Qπ(s,a)

  1. 实现

(1)策略评估

\quad\quad 初始化——选择一个 ( s , a ) (s,a) (s,a)

\quad\quad 模拟——使用当前策略 π \pi π,从 ( s , a ) (s,a) (s,a)进行一次模拟,随机产生一段轨迹

\quad\quad 抽样——获得这段轨迹上每个 ( s i , a i ) (s_i,a_i) (si,ai)的收获 G ( s i , a i ) G(s_i,a_i) G(si,ai)

G t = R t + 1 + γ R t + 2 + . . . + γ T − t − 1 R T G_t=R_{t+1}+\gamma R_{t+2}+...+\gamma^{T-t-1}R_T Gt=Rt+1+γRt+2+...+γTt1RT

V π ( s ) = E [ G t ∣ S t = s ] V_\pi(s)=E[G_t|S_t=s] Vπ(s)=E[GtSt=s]

\quad\quad 注意:实际上我们使用N个样本回报来估计期望回报,即 V π ( s ) ≈ 1 / N ∑ G t V_\pi(s)\approx1/N\sum G_t Vπ(s)1/NGt

\quad\quad 但在等待一个轨迹的过程中,会产生估计误差。

\quad\quad 我们可以使用真实回报来纠偏,使得新的估计=原有估计+学习率×实际回报和估计回报的误差

V ( S t ) ← V ( S t ) + α [ G t − V ( S t ) ] V(S_t)\leftarrow V(S_t)+\alpha[G_t-V(S_t)] V(St)V(St)+α[GtV(St)]

\quad\quad 直至预测的回报无限接近真实的回报

(2)策略优化

\quad\quad 如选择贪心地改进策略, π ( s ) = ˙ arg max ⁡ a q ( s , a ) \pi(s)\dot=\argmax_a q(s,a) π(s)=˙argmaxaq(s,a)

\quad\quad 优化 Q π ( s , a ) Q_\pi(s,a) Qπ(s,a) π ( s ) \pi(s) π(s)

(二)时序差分算法TD

\quad\quad MC要求所有采样序列都是完整的状态序列。如果没有完整的状态序列,可采用时序差分算法

  1. 引导

\quad\quad 由于没有完整的状态序列,因此收获的计算不能用 G t G_t Gt的公式。

\quad\quad 根据状态价值函数的定义,用 R t + 1 + γ V π ( S t + 1 ) R_{t+1}+\gamma V_\pi(S_{t+1}) Rt+1+γVπ(St+1)来替代 G t G_t Gt,作为TD的目标值

\quad\quad 这一过程称为引导,使只需要两个连续的状态和奖励,便可以尝试求解强化学习问题

  1. 时序差分的预测问题

\quad\quad 根据状态价值函数的定义 V π ( s ) = E [ G t ∣ S t = s ] V_\pi(s)=E[G_t|S_t=s] Vπ(s)=E[GtSt=s]

\quad\quad 对于蒙特卡洛算法, G t = R t + 1 + γ R t + 2 + . . . G_t=R_{t+1}+\gamma R_{t+2}+... Gt=Rt+1+γRt+2+...带入计算

\quad\quad 对于时序差分算法, G t = R t + 1 + γ V ( S t + 1 ) G_t=R_{t+1}+\gamma V(S_{t+1}) Gt=Rt+1+γV(St+1)带入计算

\quad\quad 从中也可以看出,时序差分方法是一种当前状态价值的有偏估计,而蒙特卡洛算法是无偏估计

\quad\quad 类似地,用误差学习方法进行纠偏从而对状态价值函数进行估计:

V ( S t ) ← V ( S t ) + α [ R t + 1 + γ V ( S t + 1 ) − V ( S t ) ] V(S_t)\leftarrow V(S_t)+\alpha[R_{t+1}+\gamma V(S_t+1)-V(S_t)] V(St)

http://www.lqws.cn/news/164899.html

相关文章:

  • 软件测试基础知识总结
  • RMSE可以融合均值与标准差
  • [zynq] Zynq Linux 环境下 AXI BRAM 控制器驱动方法详解(代码示例)
  • Tensorrt python api 10.11.0笔记
  • 【信息系统项目管理师-选择真题】2025上半年(第一批)综合知识答案和详解
  • ResolverActivity 优先级
  • FPGA点亮ILI9488驱动的SPI+RGB接口LCD显示屏(一)
  • VBA信息获取与处理专题五第一节:利用CDO发送简单邮件
  • RK3588 RTL8211F PHY的LED灯调试
  • STM32手册上标称的18MHz GPIO翻转速度和你实际测量到的速度之间的差异是预期之内且合理的
  • Python数据类型与运算符全解析-Python数据挖掘可视化分析
  • 上传、下载功能 巧实现
  • 逻辑填空(题量最多)
  • 【AAOS】【源码分析】用户管理(三)-- 用户启动
  • 用ApiFox MCP一键生成接口文档,做接口测试
  • 监测预警系统重塑隧道安全新范式
  • 筑牢企业网管域安全防线,守护数字核心——联软网管域安全建设解决方案
  • html文字红色粗体,闪烁渐变动画效果,中英文切换版本
  • C++11 中 final 和 override 从入门到精通
  • Day45 Python打卡训练营
  • spring的webclient与vertx的webclient的比较
  • 使用高斯朴素贝叶斯算法对鸢尾花数据集进行分类
  • 打造高效多模态RAG系统:原理与评测方法详解
  • Spring 框架之IOC容器加载重要组件
  • Vue3实现拖拽改变元素大小
  • 1.2 fetch详解
  • React Hooks 指南:何时使用 useEffect ?
  • Grafana-ECharts应用讲解(玫瑰图示例)
  • Vue2数组数字字段求和技巧 数字求和方法
  • Compose Multiplatform 实现自定义的系统托盘,解决托盘乱码问题