数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|硅基流动上线蚂蚁百灵团队 Ling-flash-2.0,推理速度再创新高

人工智能资讯|硅基流动上线蚂蚁百灵团队 Ling-flash-2.0,推理速度再创新高

近日,硅基流动大模型服务平台正式上线了蚂蚁集团百灵团队最新开源的 Ling-flash-2.0,这是该平台上线的第130个模型。

Ling-flash-2.0是一款基于 MoE 架构的大型语言模型,拥有100亿参数,并且在激活时仅使用6.1亿参数(非嵌入激活4.8亿)。经过20TB 以上高质量语料的预训练、监督微调和多阶段强化学习,该模型在激活6亿以上参数的情况下,展现出了媲美40亿参数 Dense 模型的卓越性能。

Ling-flash-2.0在复杂推理、代码生成和前端研发等领域表现出色,能够支持最大128K 的上下文长度,给用户提供更强大的文本处理能力。其定价也相对亲民,输入为每百万个 Token1元,输出为每百万个 Token4元。同时,国内和国际站的新用户可分别获得14元或1美元的使用体验赠金。

Ling-flash-2.0在性能上具有明显优势。与40亿参数以下的 Dense 模型(如 Qwen3-32B-Non-Thinking 和 Seed-OSS-36B-Instruct)以及更大激活参数的 MoE 模型(如 Hunyuan-A13B-Instruct 和 GPT-OSS-120B/low)相比,Ling-flash-2.0展现了更强的复杂推理能力。尤其在创作类任务中,该模型同样具有很强的竞争力。

此外,Ling-flash-2.0的架构经过精心设计,能够实现极速推理。在 Ling Scaling Laws 的指导下,Ling2.0采用了1/32激活比例的 MoE 架构,并在多个细节上进行了优化,这使得小激活的 MoE 模型能够获得相当于 Dense 架构的性能优势。通过 H20进行部署时,Ling-flash-2.0的输出速度可达到每秒200多个 Token,相比36B 的 Dense 模型提升了3倍以上的速度。

硅基流动平台致力于为开发者提供快速、经济、可靠的大模型 API 服务。除了 Ling-flash-2.0,平台上还汇聚了多种语言、图像、音频、视频等模型,满足开发者不同的需求。开发者可以在平台上自由对比和组合各类模型,轻松调用高效的 API,助力生成式 AI 应用的最佳实践。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)萍水

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/94207.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部