谷歌大脑和DeepMind联合发布离线强化学习基准,将各种RL研究从线...
新智元报道
来源:arxiv
编辑:白峰
【新智元导读】离线强化学习方法可以帮我们弥合强化学习研究与实际应用之间的差距。近日,Google和DeepMind推出的RL Unplugged使从离线数据集中学习策略成为可能,从而克服了现实世界中与在线数据收集相关的问题,包括成本,安全性等问题。
最近,Google Brain和DeepMind联合提出了一个称为RL Unplugged的基准,以评估和比较离线RL方法。RL Unplugged包含来自多个领域的数据,包括游戏(例如Atari基准测试)和模拟的电机控制等(例如DM Control Suite)。 RL Unplugged为每个任务域提出了详细的评估方法,对监督学习和离线RL方法进行了广泛的分析,数据集包括部分或完全可观察的任务域,使用连续或离散的动作,并且具有随机性和非平稳性等,能很好地评估强化学习智能体的性能。
为什么需要离线强化学习
近年来,强化学习(RL)取得了重要突破,包括击败《星际争霸II》和DOTA人类玩家的长程决策(2019年),机器人的高维运动控制等(Akkaya等人,2019年)。 但是,这些成功很大程度上取决于智能体与环境的反复在线交互。尽管在模拟方面取得了成功,但在现实中很难推广。发电厂,机器人,医疗保健系统或自动驾驶汽车的运行成本很高,这些场景下的试验可能会带来危险的后果。


离线强化学习的难点在哪?
之前,对 RL 进行离线基准测试的方法仅限于一个场景: 数据集来自某个随机或先前训练过的策略,算法的目标是提高原策略的性能。 这种方法的问题是,现实世界的数据集不可能由单一的 RL 训练的策略产生,而且这种方法不能泛化到其他的场景。
缺乏基线让算法评估变得困难。在当前的离线RL研究中,实际应用领域的重要属性,高维感知流(例如图像),不同的动作空间等覆盖不全,非平稳性和随机性不足,使得现存的基准很难评估离线RL算法的实用性。 因此,比较算法并确保其可重复性显得尤为重要,RL Unplugged的目的就是通过提出通用的基准,数据集,评估协议和代码来解决这些问题。 具有强大基准的大型数据集一直是机器学习成功的主要因素。例如计算机视觉中最常使用的数据集ImageNet和COCO等,而强化学习中主要使用游戏数据,其中模拟器为在线RL智能体(例如AlphaGo)提供了丰富的数据,而缺少明确基准的数据集会阻碍RL的发展。
RL Unplugged让离线强化学习成为现实
RL Unplugged的初始版本中包含了广泛的任务域,包括Atari游戏和模拟机器人任务。尽管所用环境的性质不同,RL Unplugged还是为数据集提供了统一的API。任何数据集中的每个条目都由状态(st),动作(at),奖励(rt),下一个状态(st + 1)和下一个动作(at + 1)组成。对于序列数据,还提供了将来的状态,动作和奖励,从而可以训练需要内存的任务。 RL Unplugged的主要贡献:(i)统一的数据集API(ii)各种离线环境(iii)离线RL研究的评估协议(iv)参考基准。RL Unplugged中的数据集可将各种在线RL研究转为离线的,而无需处理RL的探索组件。


DM Control Suite,是在MuJoCo中实现的一组控制任务。
DM Locomotion,是涉及类人动物的运动任务。
Atari 2600,街机学习环境(ALE)套件,包含57套Atari 2600游戏(Atari57)。
Real-world Reinforcement Learning Suite,包括高维状态和动作空间,较大的系统延迟,系统约束,多目标,处理非平稳性和部分可观察性等任务。
基线模型 RL Unplugged为连续(DM Control Suite,DM Locomotion)和离散动作(Atari 2600)任务提供了基线模型。一些算法仅适用于离散或连续动作空间,因此我们仅在它们适合的任务中提供了评估算法。

评论