数智化转型网szhzxw.cn 人工智能资讯 NVIDIA 推出 Jet-Nemotron:53 倍提速的混合架构语言模型实现 98% 的推理成本节约

NVIDIA 推出 Jet-Nemotron:53 倍提速的混合架构语言模型实现 98% 的推理成本节约

近日,NVIDIA 的研究团队宣布发布 Jet-Nemotron,这是一系列全新的语言模型(包含2亿和4亿参数的版本),其生成速度比当前最领先的全注意力语言模型高出53.6倍,并在准确性上达到了甚至超过了这些模型的水平。这一突破不是通过从头开始重新训练模型实现的,而是采用了一种名为 “后神经架构搜索”(PostNAS)的新技术对现有预训练模型进行了改造。数字化转型网www.szhzxw.cn

随着现代语言模型的广泛应用,如 Qwen3、Llama3.2和 Gemma3等,这些模型虽然在准确性和灵活性上设立了新的标杆,但其 O (n²) 的自注意力机制造成了计算和内存的高昂成本,尤其是在处理长文本任务时,这使得大规模部署变得异常昂贵,也几乎不可能在边缘设备或内存受限的设备上运行。尽管有一些尝试用更高效的架构替代全注意力 Transformer(如 Mamba2、GLA、RWKV 等),但在准确性上却始终难以实现突破,直到现在。数字化转型网www.szhzxw.cn

PostNAS 作为 Jet-Nemotron 的核心创新,主要包括以下几个步骤:首先,选择一个最先进的全注意力模型(如 Qwen2.5),并冻结其多层感知器(MLP)层,以保护模型的学习能力并大幅降低训练成本;接着,用新的硬件高效线性注意力模块 JetBlock 替换掉计算成本高的全注意力模块;最后,通过超网络训练和束搜索,自动确定最优的全注意力层的位置,从而保持在特定任务上的准确性。

Jet-Nemotron 的性能指标令人瞩目:其2B 模型在各大基准测试中与 Qwen3-1.7B-Base 相当或更优,并且生成吞吐量提升了47倍。同时,在256K 上下文长度下,解码速度的提升达到53.6倍,使得推理成本降低了98%。这为边缘设备的部署带来了变革性的改变。数字化转型网www.szhzxw.cn

此外,Jet-Nemotron 的推出意味着企业能够以更低的成本实现更高的投资回报率。对于从业者而言,Jet-Nemotron 能够在不改变数据管道的情况下对现有模型进行改造,提升了实时 AI 服务的能力。而对于研究人员而言,PostNAS 降低了语言模型架构创新的成本,加速了 AI 技术的发展。

项目:https://github.com/NVlabs/Jet-Nemotron

划重点:  数字化转型网www.szhzxw.cn

🌟 Jet-Nemotron 实现生成速度比现有模型提升53.6倍,推理成本降低98%。  

💻 PostNAS 技术允许对现有预训练模型进行高效改造,保持准确性。  

📈 新模型的推出使得企业和研究者能在成本和性能上获得双重收益。  

声名:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)鲍勃

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。https://www.szhzxw.cn/90926.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部