数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|摩尔线程推出 URPO 框架,为大模型训练的新时代铺平了道路。AAAI 2026 表彰

人工智能资讯|摩尔线程推出 URPO 框架,为大模型训练的新时代铺平了道路。AAAI 2026 表彰

近日,Mooley的AI研究团队在国际顶级学术会议AAAI2026上发布了最新的研究成果,提出了一个名为URPO(统一奖励和政策优化)的创新框架。这项技术旨在简化大语言模型的训练过程,突破其性能瓶颈,为AI领域带来新的技术路径。

在题为《URPO: A Unified Reward & Policy Optimization Framework for Large Language Models》的论文中,研究团队重塑了传统的“大模型训练”方法。URPO 框架的独特之处在于,它将“指令遵循”和“奖励评估”这两个角色合二为一,允许单个模型在训练阶段实现同步优化。这意味着模型不仅能够理解指令,还可以自我评分,从而提高训练的效率和效果。

URPO 框架克服了当前三项关键技术的挑战。首先,数据格式统一:研究团队成功地将不同类型的数据(如偏好数据、可验证推理数据和开放式指令数据)转换为适合 GRPO 训练的统一信号格式。其次,通过自我奖励循环,模型可以在生成多个候选答案后自主评分,将结果作为GRPO训练的奖励信号,从而形成高效的自我完善循环。最后,协同进化机制通过将三种类型的数据一起处理,增强了模型的生成和评估能力。

实验结果表明,基于Qwen2.5-7B模型的URPO框架在多个性能指标上优于依赖独立奖励模型的传统基线。例如,它在 AlpacaEval 指令排行榜上得分为 44.84,综合推理能力测试的平均得分从 32.66 分提高到 35.66 分。同时,该模型在RewardBench奖励模型评估中取得了85.15的高分,超过了专业奖励模型的83.55分,充分展示了URPO的优越性。

值得注意的是,Mooley已经在其自研的计算卡上实现了URPO框架的高效运行,并完成了与主流强化学习框架VERL的深度集成。这一突破不仅标志着穆利在大模型训练领域的领先地位,也为未来的AI发展指明了方向。

若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。https://www.szhzxw.cn/102256.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部