值函数近似(VFA)在强化学习中的应用与原理
1. 动机与背景
在传统强化学习(如Q-learning)中,状态和动作空间较小时,可通过表格(如Q表)直接存储每个状态的值。但当状态空间庞大(如围棋)或连续(如机器人控制)时,表格方法因存储和计算成本过高而失效。
值函数近似(VFA)通过参数化函数(如线性模型、神经网络)泛化值估计,使算法能处理高维或连续状态。
2. 核心方法
2.1 函数选择
- 线性模型:
值函数表示为 ( V(s) = \theta^T \phi(s) ),其中 (\phi(s)) 是人工设计的特征向量(如位置、速度),(\theta) 是权重参数。
优点:计算...