数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|Meta 推出 DeepConf 技术,智能平衡大型语言模型的推理成本与准确性

人工智能资讯|Meta 推出 DeepConf 技术,智能平衡大型语言模型的推理成本与准确性

近日,Meta AI 联合加州大学圣地亚哥分校(UCSD)推出了一种名为 Deep Think with Confidence(DeepConf) 的新技术,旨在帮助企业在大语言模型(LLM)的复杂推理任务中,有效降低算力成本的同时保持高准确率 。

当前,提高 LLM 推理能力常依赖“自一致性 + 多次采样再表决”的策略(即 majority voting),但这种方法会导致计算资源迅速膨胀,耗时耗费,大量低质量推理路径反而可能造成错误答案胜出 。DeepConf 的创新之处在于,它不再对所有推理路径一视同仁,而是通过 模型内部的置信度信号,对推理路径进行筛选与权重调整 。

DeepConf 引入了多种精细的置信度指标,比如:

  • 组置信度(Group Confidence):计算推理过程中某一段 token 的平均置信度;
  • 尾部置信度(Tail Confidence):关注推理结尾部分的置信程度;
  • 最低组置信度(Lowest Group Confidence):找出推理路径中最“脆弱”的环节;
  • 底部百分位置信度(Bottom-10% Confidence):聚焦最不自信的那部分推理内容 )。

DeepConf 支持两种执行方式:

  1. 离线模式(Offline Thinking):先生成多个完整推理路径,再按置信度筛选较优路径参与表决或加权投票;
  2. 在线模式(Online Thinking):在推理生成过程中实时评估,当当前路径置信度低于阈值时,立刻终止该路径以节省资源 。

在多个开放模型(如 DeepSeek-8B、Qwen3-32B、GPT-OSS-120B)以及复杂数学与 STEM 推理任务(AIME、HMMT、BRUMO25、GPQA-Diamond)中,DeepConf 表现惊艳:

  • 离线模式下,使用 GPT-OSS-120B 在 AIME2025的准确率高达 99.9%,同时生成的 token 数量比传统方法少 84.7% ;
  • 在线模式下,在 AIME24中,DeepSeek-8B 的准确率提升了 5.8个百分点,却使用了 77.9% 更少 的 token 。

企业可根据使用场景风险偏好选择不同设定:

  • DeepConf-high(保守模式):一般能减少约 50% 的生成成本,但准确性几乎不受影响,适用于金融、法律等高风险场景;
  • DeepConf-low(激进模式):节省 70%–85% 的 token,适用于问答草稿、知识检索等对速度要求高但容错较灵活的场景 。

使用 DeepConf 无需重新训练模型,只需增加少量推理时的逻辑处理。此外,它还具备良好兼容性,可与现有推理框架(如 vLLM、SGLang、TensorRT-LLM)无缝集成。正如研究者所言,这为现实企业部署 LLM 推理任务提供了一个“可插拔”的高效方案。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)萍水

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/92277.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部