A Distributional Perspective on Reinforcement Learning
在本文中,我们论证了价值分布(强化学习代理接收的随机回报的分布)的基本重要性。 这与强化学习的通用方法不同,后者为这种回归或价值的期望建模。尽管已经有一套研究价值分布的成熟的体系,但到目前为止,它一直被用于特定目的,例如实施风险敏感的的行为。 我们从策略评估和控制设置的理论结果开始,揭示了后者的显着分布不稳定性。 然后从分布的角度设计了一种新的算法,将Bellman等式应用于近似分布的学习。我们使用街机学习环境中的游戏集来评估我们的算法。我们获得了最新的结果和轶事证据,证明了价值分布在接近配偶强化学习中的重要性。最后,我们从理论和经验两方面论证了价值分布在近似环境下对学习的影响。
从算法的角度来看,学习近似分布而不是近似期望有很多好处。 分布式Bellman算子在有价值分布中保留多模态,我们相信这会导致更稳定的学习。 近似完整分布也减轻了从不稳定的学习的影响。
方法
贝尔曼等式
Qπ(x,a):=EZπ(x,a)=E[∑t=0∞γtR(xt,at)]xt∼P(⋅∣xt−1,at−1),at∼π(⋅∣xt),x0=x,a0=a 其中 Z 是一个分布而不是期望值,为了最大化 Q 值,通常使用下面的方法
Q∗(x,a)=ER(x,a)+γEPa′∈AmaxQ∗(x′,a′) 贝尔曼/最优算子定义
分布贝尔曼算子
仅对算法贡献感兴趣的读者 可以选择跳过这一节
Distributional Equations
The Wasserstein Metric
定义两个累计分布函数的Wasserstein尺度
对于两个随机变量定义
Wasserstein尺度有以下性质
引理1、2
Policy Evaluation
随机性的三个来源定义了复合分布,我们通常假设这三个量是独立的
引理3
Control
最优价值分布和贪心策略定义
最优贝尔曼算子等价于
引理4
近似分布学习
在本节中,我们提出了一种基于分布Bellman最优性算子的算法。 特别是,这将需要选择近似分布。 已经有人使用过高斯分布了,这里我们考虑使用离散分布。
Parametric Distribution
我们将使用离散分布来模拟价值分布,离散分布具有高度表达和计算友好的优点:
Projected Bellman Update
由于此算法离散atom数量在ALE上设置51个效果最好,又被称为C51算法
伪代码
讨论
为什么使用分布DQN?
Reduced chattering 即减少震荡,降低不稳定性
State aliasing 由于部分观测,相似的状态可能Value很不相同,而使用distribution则可以缓解这个问题
A richer set of predictions
Framework for inductive bias 使用distribution可以很容易的添加bound假设
Well-behaved optimization ,使用KL Divergence可以很容易的最小化损失
(Ω,F,Pr)是概率空间
∥u∥p 表示 u∈RX 的 Lp 范数
当U:Ω→RX( or RX×A) ,有∥U∥p:=[E[∥U(ω)∥pp]]1/p,并且 ∥U∥∞=esssup∥U(ω)∥∞
累积分布函数 FU(y):=Pr{U≤y} ,逆函数 FU−1(q):=inf{y:FU(y)≥q}
U:=DV 表示两个随机变量的分布相同
dp(F,G):=infU,V∥U−V∥p
其中下界是关于累积分布的所有的随机变量 (U,V) ,通过均匀随机变量 U in [0,1] 的逆累计分布函数获得此下限
dp(F,G)=F−1(U)−G−1(U)p
dp(F,G)=(∫01F−1(u)−G−1(u)pdu)1/p
dp(U,V)=infU,V∥U−V∥p
dp(aU,aV)≤∣a∣dp(U,V)dp(A+U,A+V)≤dp(U,V)dp(AU,AV)≤∥A∥pdp(U,V)(Pl)(P2)(P3) 定义转移算子 Pπ:Z→Z
PπZ(x,a)X′:=Z(X′,A′)∼P(⋅∣x,a),A′∼π(⋅∣X′)
我们定义了分布Bellman算子 Tπ:Z→Z
TπZ(x,a):=DR(x,a)+γPπZ(x,a)
这说明 Zk+1:=TπZk 在尺度 dp 下收缩,然而可能不适用于其他的尺度。
因此,我们希望 Zk 能够快速收敛到一个fixed point,然而这可能很慢或者不确定。实际上,我们可以希望pointwise convergence,即收敛到 nonstationary optimal value distributions。
将定理1与引理4相比较揭示了分布框架和通常的期望设置之间的显著差异。虽然 Zk 的平均值迅速指数收敛到 Q∗ ,但它的分布不需要表现得那么好!为了强调这种差异,我们提供了一些负面结果,如下:
Zθ(x,a)=zi w.p. pi(x,a):=∑jeθj(x,a)eθi(x,a) 其中 {zi=VMIN+i△z:0≤i<N},Δz:=N−1VmAx−VMIN
使用离散的分布造成了一个问题:贝尔曼更新 TZθ 和我们的 Zθ 几乎总是有disjoint support(https://en.wikipedia.org/wiki/Support_(mathematics))。从前面一节(分布贝尔曼算子)的分析来看,将 TZθ and Zθ的 Wasserstein metric(视为损失)最小化之间似乎很自然,但是Wasserstein loss无法在采样的样本下学习。
我们的解决方案是,将贝尔曼更新TZθ 投影到 Zθ 的support
给定样本 (x,a,r,x′) ,贝尔曼更新为: T^zj:=r+γzj ,然后将概率 pj(x′,π(x′)) 分配给 T^zj 的邻居,第 i 个投影更新 ΦT^Zθ(x,a) 为:
(ΦT^Zθ(x,a))i=j=0∑N−11−Δz[T^zj]VminVmax−zi01pj(x′,π(x′)) 其中 [⋅]ab 即限制上下界为 [a,b]
然后损失函数使用KL散度 DKL(ΦT^Zθ~(x,a)∥Zθ(x,a)) ,再用梯度下降优化即可