关闭广告

清华大学团队NeurIPS 2025文章分析 RL 与 SFT 泛化性差异

机器之心Pro2025-10-13 12:00:02274人阅读



在具身智能领域,视觉 - 语言 - 动作(VLA)大模型正展现出巨大潜力,但仍面临一个关键挑战:当前主流的有监督微调(SFT)训练方式,往往让模型在遇到新环境或任务时容易出错,难以真正做到类人般的泛化。但在大语言模型(LLM/VLM)领域,强化学习(RL)已被证明能显著提升模型的泛化能力。RL 究竟能为 VLA 带来哪些独特的泛化优势?与 SFT 相比,它们的优劣势分别体现在哪里?

来自清华大学的研究团队在 NeurIPS 2025 发表文章,首次系统性地揭示了强化学习(RL)在提升 VLA 泛化能力上的独特优势,并带来了一套全面的评测基准和高效训练方法。通讯作者是清华大学教授汪玉和博士后于超。



  • 论文标题:What Can RL Bring to VLA Generalization? An Empirical Study
  • 项目网站和代码:https://rlvla.github.io/
  • 论文地址:https://arxiv.org/abs/2505.19789

为了解决 VLA 模型泛化能力有限的问题,研究团队构建了一个涵盖多种视觉、语义和执行挑战的全新评测基准,并系统性地对比了强化学习(RL)和传统有监督微调(SFT)在提升模型泛化性上的表现。通过大量实验发现:采用 PPO 等强化学习算法微调 VLA,不仅显著提升了模型在语义理解和任务执行上的鲁棒性,还能在视觉变化场景下保持与 SFT 相当的表现。同时提出了一套简单高效的 PPO 训练方案,使得强化学习在 VLA 领域的应用更加实用和高效。

具身基础模型:开源 OpenVLA 大模型



研究团队采用了目前 SoTA 之一的开源 OpenVLA 模型为基础进行研究。OpenVLA 从 Llama2-7b 微调而来,在每一个时间步,接收一张 RGB 图像和一条指令(即历史长度 H=1),并输出一系列离散的动作 token 控制机械臂行动。

问题 1:何种 RL 方法更好?

研究团队测试了三种在大语言模型领域广受认可的强化学习算法,包括 RLHF 中常用的 PPO(近端策略优化)和 DPO(直接偏好优化),以及在数学等推理任务中展现出色的 GRPO(组相对策略优化)。



实验结果令人意外:在机器人控制这一多步决策任务中,经典的 PPO 算法展现出了显著优势,而专为语言模型设计的 DPO 和 GRPO 却难以高效学习。研究团队分析认为,这源于机器人任务的部分可观测马尔可夫决策过程(POMDP)特性 —— 每个动作都会改变环境状态,这种非平稳性可能破坏了 GRPO 的优势估计稳定性。而 DPO 面临的挑战则在于稀疏奖励结构难以区分轨迹质量,以及离线数据与在线执行之间存在显著的分布偏移。



问题 2:如何实现高效的 PPO 训练?

为了让 PPO 在 VLA 模型上高效运行,研究团队提出了三个关键创新。

1. 共享 Actor-Critic 架构设计:让 Actor 和 Critic 共享同一个主干网络,仅在最后添加一个轻量级的 MLP 作为价值头。这一设计将显存占用减少了 45%,训练速度提升 35%,还保持了相当的性能表现。



2. VLA 模型预热策略:使用 140 条高质量轨迹对模型进行预热,此步骤让后续的强化学习收敛速度提升 50%,大幅减少了所需的环境交互次数。

3. 最小化 PPO 训练轮次:传统 PPO 通常会对每批数据进行多轮梯度更新,但研究发现在 VLA 场景下,将 PPO 训练轮次(epoch)设为 1 就已足够 —— 更多的更新轮次不仅无法提升性能,反而会增加训练时间。通过这一优化,整个训练过程在单张 A100 GPU 上仅需 42 小时即可收敛。



问题 3:SFT 和 RL 的对比


为了公平比较,研究团队首先探究了 SFT 的数据规模上限。研究团队使用动作规划器(Motion Planner)采集了不同规模的 SFT 数据集,实验显示,当演示轨迹数量达到 16,000 条(约 126 万个状态 - 动作对)时,无论是训练分布内、还是分布外新物体 / 桌面的 SFT 性能都趋于饱和。

然而对于 RL,虽然收敛时训练分布内任务性能与 SFT 相当,但是在分布外任务上却取得了 42.6% 的性能提升,这展现出 RL 具有更强的泛化性。



为了深入剖析泛化性差异,研究团队基于 ManiSkill 仿真器构建了一个全面的评测基准,从视觉(如动态纹理、新桌面)、语义(如未见物体、指令变体)和执行(如物体位置变化、机器人初始姿态)三个维度系统地对泛化能力进行拆解。



实验结果清晰地展现了 RL 的优势:RL 在语义理解任务上表现出明显优势,特别是在处理未见物体的抓取任务时;在执行鲁棒性方面更是大幅领先,无论是物体位置变化、机器人初始姿态偏移,还是任务执行中途的物体移位,RL 都展现出了显著更强的适应能力;而在视觉泛化上,两种方法表现相当。



通过对具体案例的可视化分析,研究团队发现了更深层的差异。在强噪声干扰下,SFT 策略会在抓取物体后反复掉落,而 RL 策略能够稳定完成任务。面对未见物体时,SFT 容易陷入重复尝试抓取已持有物体的死循环,RL 则能正确判断并完成放置。最引人注目的是执行轨迹分布的差异:RL 探索了更广阔的工作空间和更丰富的末端执行器姿态,而 SFT 的轨迹则紧密聚集在演示数据的运动规划路径周围。这种更广泛的覆盖或许解释了 RL 在执行任务上具有的优越泛化能力。



这项研究不仅为 VLA 模型的训练提供了新的方向,更重要的是证明了强化学习在构建真正通用的具身智能体中的核心价值。随着机器人应用场景日益复杂多变,这种能够通过试错学习、自主适应新环境的能力将变得愈发重要。

团队致力于研究强化学习在 VLA 中的运用,开源了首个面向具身智能的 “渲训推一体化” 大规模强化学习框架 RLinf(https://github.com/RLinf/RLinf),更多大规模的实验结果参见网站。

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

迅雷再次起诉前CEO陈磊 知情人:追索金额达2亿元

红星新闻 浏览 81 01-16

或将于2027年发布 全新宝马X7假想图曝光

车质网 浏览 107 12-16

媒体:一级政府拒不执行法院判决 是非常恶劣的示范

南方都市报 浏览 72 01-18

一城商行支行行长离开原岗位13年后被查

湘财Plus 浏览 68 01-21

全能表现!努尔基奇15中11砍下28分11板6助2帽

直播吧 浏览 2596 02-02

记者:拓王之战转播源取自现场大屏,所以直播视角混乱+回放过多

懂球帝 浏览 155 10-11

合约纠纷还没了,鞠婧祎的新剧又悬了?

八卦三缺一 浏览 128 01-09

将于北京车展首发 奕境旗下首款量产车路试谍照曝光

网易汽车 浏览 63 01-19

佛山逾十亿投建氢能公交 部分车疑跑够补贴里程就闲置

第一财经资讯 浏览 40 01-29

空军西安飞行学院某旅开展跨昼夜飞行训练

人民资讯 浏览 2735 01-08

普京指挥俄军战略核力量综合演习

环球网资讯 浏览 193 10-23

55岁港星宣萱自曝:放弃结婚,29岁最后一晚哭一天,黄金时代过去

温柔娱公子 浏览 188 10-31

德媒:训练中被约纳坦-塔踩到脚的斯塔尼希奇并未受重伤

懂球帝 浏览 37 02-04

沙特被指立场转变:美若不打击伊朗 会让其变得更大胆

澎湃新闻 浏览 34 02-02

台媒:美售台战机快来了 台军飞行员却要走了

参考消息 浏览 2493 06-03

男子精神分裂砍死同学的弟弟 第二次精神鉴定结果变了

红星新闻 浏览 71 01-11

针对配置进行升级 新款小鹏G9官图发布

车质网 浏览 67 01-08

陈妍希拉赵丽颖下水,报复陈晓!?

八卦疯叔 浏览 109 12-11

果园8.8元"偷橘子":一晚卖几百斤 抓人的狗都累瘫了

红星新闻 浏览 118 11-25

女子被丈夫掐脖致偏瘫:他曾嫌女儿吵闹用烟头烫她胳膊

极目新闻 浏览 142 11-03

任重正式宣布与孙骁骁结婚!

广西阿妹香香 浏览 153 10-26
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除沪ICP备2023013132号-2