设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

南栖仙策提出新型环境特征编码器学习算法,有效提升环境识别的泛化能力

2024-01-30 15:17:49 来源:

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

基于上下文的离线元强化学习(Context-based OMRL)通过构建一个上下文编码器,将收集到的上下文数据映射到任务表征,进一步基于任务表征来自适应的在多个环境中进行决策。然而,在离线的情形下,任务表征的编码器极大的依赖于用于训练的离线数据的丰富程度。当数据采集有限,以至于与特定采样策略的特点耦合时,学习的任务编码器通常会难以获得较好的泛化能力,进而影响元强化学习的性能。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

基于此,南京大学&南栖仙策团队合作提出了一种基于模型对抗样本增强的环境特征编码器学习,task Representation learning via adversarial Data Augmentation (ReDA)算法,并发表在AAMAS24会议上。这一方法可以应用于元强化学习的环境特征识别上,缓解了以往算法中环境特征和采样策略耦合的影响,从而使得我们在样本受限的实际场景中可以提升环境特征编码器的泛化能力,进而提高元学习策略的表现,推进强化学习在现实世界的应用落地。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

离线元强化学习环境特征耦合问题qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

离线元强化学习(Offline Meta Reinforcement Learning)是一种重要的机器学习技术,其结合了离线和元学习两种方法优势,可以帮助智能系统从以往的多种环境的离线经验中学习,以提高在新环境下的泛化能力。通过离线数据,系统可以更有效地利用以往的经验,而无需实时与环境进行交互,从而提高数据利用效率。并且,由于在不同的环境下进行学习,而不仅仅是在当前环境下,也极大的提高了策略的泛化能力。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

在很多实际应用中,实时与多种环境交互收集数据可能会很昂贵或不切实际,离线元强化学习为这些场景提供了解决方案。离线元强化学习可以使强化学习技术更易于应用和部署,在提高泛化能力、数据效率、稳健性以及降低成本等方面具有重要意义,尤其是在实际应用中,如机器人控制与路径规划、自动驾驶系统、智能游戏角色、智能物流和仓储以及工业自动化等方面具有广泛的用途。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

离线元强化学习中,主要的方法是基于上下文的离线元强化学习。该类方法将策略建模为两部分:第一部分是环境特征提取器,可以将历史收集到的上下文数据映射到环境特征上;第二部分是基于环境特征的条件策略,在给定的当前状态和得到的环境特征的条件下进行决策。第一部分的任务编码器是非常重要的,提取的环境特征将直接决定了下游的元策略的学习质量和泛化能力。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

然而,以往的环境特征编码学习需要依赖非常丰富且多样的数据进行学习,这在很多真实的物理场景中是不现实甚至存在一定危险的,比如机器人等。以往的工作中,环境特征提取是基于对比学习直接在离线数据集上进行训练的:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

由于对比学习直观上就是减小相同任务的上下文表征的距离,增大不同环境的上下文表征的距离,通常需要收集到非常丰富的离线数据集来获得一个鲁棒且可泛化的环境表征,例如CORRO[1]需要使用整个训练期间的所有策略检查点来收集数据,这在真实场景中是不现实的,显然整个训练流程中的数据对于现实任务例如机器人控制任务是很难获取的,甚至获取过程中存在一定的不安全因素。因为很多时候我们无法获取如此丰富的样本来训练一个好的环境特征编码器,所以我们需要去关注数据集有限时环境编码器的学习问题。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

简单以倒立杆任务(InvertedPendulum)为例,我们的训练数据是重力1.0下的高质量数据和重力2.0下的低质量数据,然后使用上下文数据是1.0倍重力下的低质量的数据进行测试(图1-a),对数据集的分布进行降维可视化展示(图1-b),发现测试数据到同样环境下的训练数据的距离,并没有相对其他环境的训练数据的距离更加接近(图1-c),这样的情况下,仅仅依赖于数据集的对比学习,由于缺少足以代表环境任务特征的样本,将很难保证任务表征的泛化能力。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

图1. (a). 训练数据和测试数据 (b). 数据分布的可视化 (c). 测试数据到不同任务的训练数据的相对距离qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

基于模型的对抗样本增强qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

为了让环境特征编码器更好地捕捉到环境特征而非采样策略本身的特征,我们提出了一种基于模型的对抗样本增强的方法,产生更多的不同于数据集的数据来训练环境特征编码器。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

首先我们基于每个任务的数据集,分别学习各个任务上的转移模型:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

在学习好可以用来交互的环境模型后,接下来我们需要面临的问题是:1.采集什么样的样本来有效增强任务编码器的能力?2.如何缓解环境模型误差带来的影响?qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

对于这两个问题,我们引入了一个对抗采样策略,该策略的优化目标主要由三部分组成:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

·最小辨识度的样本:我们需要采集让任务编码最难区分的样本,即该样本到相同任务的距离和到其他任务的距离差距不大。所以我们考虑这样的样本需要具备的特点是,当它被加入上下文之后,会导致基于上下文的对比学习的损失函数上升。所以我们使用该损失函数变化的程度来作为优化的奖励信号,如果对比损失上升越大,说明该样本的引入使得任务编码器更加难以识别环境了。定义该样本加入前的任务表征为z_t,加入该样本后的任务表征为z_t+1,单步的奖励定义为:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

·模型不确定性惩罚:我们并不希望对抗策略去搜索模型中误差过于大的区域,所以参考MOPO我们基于不确定性度量给出对样本的惩罚。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

·任务相关奖励:我们使用了任务的奖励函数来避免对抗策略去搜索和任务无关的样本。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

综上所述,我们最终得到了在模型上搜索对抗样本的对抗策略的优化目标:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

基于该对抗策略搜索到的增强样本,我们得到了新的环境特征编码器的优化目标:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

该目标是一个标准的强化学习的定义,所以可以使用SAC等算法求解。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

整体的算法流程如下图所示,首先基于离线数据集学习转移模型,然后在转移模型上获得对抗策略,并产生对抗数据训练任务编码器,再基于任务编码器训练最终的元策略。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

图2. 算法流程qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

整体训练的算法描述如下:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

技术验证qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

基于倒立杆的环境与数据集,我们对我们的方法进行了简单的验证,首先定义相对距离:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

该距离描述了相同任务下训练集和测试集的距离与不同任务下训练集和测试集的距离的差异,如果该距离越小,说明我们的表征训练的泛化能力越好,通过和FOCAL[2]等基础算法进行对比,我们发现ReDA显著的提升了表征的泛化能力(图3-b),并且取得了更好的测试性能(图3-a)。这一结果表明,我们学习到的环境表征解耦了采样的策略特征,从而更好的泛化到了更多数据上。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

图3. 倒立杆多种方法下的表征与性能qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

整体性能qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

我们设计了两种模式进行测试,第一种是on-policy模式,上下文的样本来源于当前策略的采样;另一种是off-policy模式,策略来源于数据集以外的其他样本。这两者都是在实际部署时最常需要使用的上下文样本,并且都存在和训练集存在一定的偏差。我们参考以往的工作构建了MuJoCo上的多任务数据集,包括HalfCheetah、Hopper、Walker2d、Ant在Gravity、Dof-Damping等模拟器参数变化下的多任务数据集。在训练过程中我们只使用几个检查点的数据,然后使用其他检查点的数据作为off-policy模式下的测试数据。实验结果如下:qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

图4. on-policy模式下的性能qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

其中[任务] [参数类型]-[数字]的格式表示使用的训练数据集是哪个任务的哪类参数,总共使用了几个检查点的数据去训练。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

图5. off-policy模式下的性能qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

其中[任务] [参数类型]-[数字]的格式表示使用的训练数据集是哪个任务的哪类参数,总共使用了几个检查点的数据去训练。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

可以看到,通过引入基于模型的方法,学习一个泛化能力更强的环境特征提取器,极大地提高了元策略的表现,使离线元强化学习得以在样本受限的情况下仍然取得一个不错的性能。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

本文关注低数据情境下的离线元强化学习(OMRL),强调了环境表示学习与数据收集策略分离的重要性,并提出了对抗数据增强的实际解决方案;训练了转移模型和对抗性策略来增强离线数据集,以应对数据集受限的情况。希望这项研究能够激发对数据采样策略在元强化学习中的影响,以及OMRL测试基准标准化的进一步探索。qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

参考文献qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

[1]. Haoqi Yuan et al. obust Task Representations for Offline Meta-Reinforcement Learning via Contrastive Learning. (ICML 22)qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

[2]. Lanqing Li et al. FOCAL: Efficient Fully-Offline Meta-Reinforcement Learning via Distance Metric Learning and Behavior Regularization. (ICLR 21)qQt速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

本文链接:南栖仙策提出新型环境特征编码器学习算法,有效提升环境识别的泛化能力http://www.sushuapos.com/show-1-4106-0.html

声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

上一篇: 宇瞳光学获评“国家知识产权优势企业”

下一篇: 健合集团携合生元母婴救助基金斩获第十三届公益节双项大奖

热门资讯

推荐资讯

  • 男生胸包怎么背才好看?

    男生胸包怎么背才好看?一是基础背法:前面背,胸包常用的背法就是背在胸前,这样背会显得你非常的时尚非常的有活力,还可以有效防止胸包滑落,取用东西的时候也超级方便。选择这种背法

  • 法棍包怎么搭配衣服?

    法棍包怎么搭配衣服?法棍包是一款经典又时尚的包包,以下是几种常见的搭配方式: 休闲风搭配:法棍包适合与休闲风格的衣服搭配。可以选择一条牛仔裤或卡其裤,搭配一件简约的白色T

  • 披肩怎么搭配好看又简单?

    披肩怎么搭配好看又简单? 1.“披肩+衬衫” 简单的衬衫搭配一件披肩,变得更加的时尚和有层次感。 2.“披肩+T恤” T恤是衣橱必备单品,但是想要穿得好看却不容易,特别是背部

  • 一字肩潮流穿搭法

    一字肩潮流穿搭法1、一字肩+短裙 短裙的俏皮与一字肩的撩人结合,共同演绎出轻熟的魅力。 无论是牛仔短裙还是鱼尾裙,高腰的确是关键,打造出高腰线是拥有大长腿的法宝。如果

  • 五行能量旺运穿衣色彩搭配:打造个人专属的幸运色彩

    一、引言生活在这个五彩斑斓的世界,色彩不仅让我们感受到了美丽的风景,还影响着我们的心情和运势。在我国,五行能量旺运穿衣色彩搭配是一种古老的传统文化,它通过五行相生相克

  • 绿裙子搭配什么颜色的上衣?这三种颜色让你时尚又吸睛!

    一、引言绿色是近年来时尚圈非常流行的颜色,无论是衣服、鞋子还是配饰,都能看到绿色的身影。那么问题来了,绿裙子搭配什么颜色的上衣才能时尚又吸睛呢?今天,我就给大家分享三种

  • 粉色衣服配什么裤子好看?这三种搭配让你瞬间提升时尚感!

    粉色是许多女生都无法抗拒的颜色,它代表着甜美、温柔和浪漫。那么,粉色衣服配什么裤子好看呢?本文将为你介绍三种时尚搭配,让你在穿着粉色衣服时,轻松提升时尚感!一、粉色衣服配

  • 旗袍搭配鞋子图片大全

    一、引言旗袍是中国女性传统服装的代表之一,被誉为国粹。它以其独特的魅力和优雅的风格,吸引了无数女性的喜爱。而鞋子作为旗袍的搭配品,同样具有举足轻重的地位。今天,我们

  • 找到表格最舒服的颜色搭配,让你的数据更具吸引力

    在日常工作和生活中,我们经常需要使用表格来整理和展示数据。一个舒适宜人的颜色搭配,不仅能够使我们更容易阅读和理解数据,还能够提升表格的整体美感。今天,我将为大家分享一

  • 蓬蓬裙怎么搭配上衣?教你打造完美时尚搭配!

    蓬蓬裙作为时尚界的“常青树”,凭借其独特的设计感和华丽气息,一直备受女孩们的喜爱。但是,如何搭配上衣才能完美展现出蓬蓬裙的美呢?本文将为你详细介绍几种搭配技巧,让你成为

  • 虎和鼠相配婚姻如何:解析二者婚姻中的爱与和谐

    在十二生肖中,虎和鼠是两个颇具特色的生肖,一个勇猛刚毅,一个聪慧灵活。当虎和鼠走到一起,成为夫妻时,他们的婚姻如何?本文将从三个方面来分析虎和鼠相配婚姻如何,以期为大家提供

  • 卡其色西装外套如何搭配?高手教你打造时髦范!

    在时尚界,卡其色西装外套一直是备受关注的经典单品。它不仅能够展现出成熟稳重的气息,还可以随意搭配出各种风格。然而,对于许多新手来说,如何搭配卡其色西装外套成了一个难题

  • 日榜
  • 周榜
  • 月榜