数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|Moonshot AI 推出 Kimi Linear:速度提升 6 倍的线性注意力架构,开源 KDA 内核同步发布

人工智能资讯|Moonshot AI 推出 Kimi Linear:速度提升 6 倍的线性注意力架构,开源 KDA 内核同步发布

国内大模型团队 Moonshot AI 今日在 Hugging Face 正式发布技术报告《Kimi Linear Tech Report》(报告链接),宣布推出全新架构 Kimi Linear——一种可以直接替代全注意力机制的混合线性架构。它集效率和卓越性能于一身,被认为是人工智能“智能体时代”注意力机制的新起点。

报告显示,Kimi Linear 在速度、内存效率和长上下文处理能力三个方面取得了重大突破。该模型可减少高达75%的KV缓存使用,并在100万(1M)的上下文长度下实现高达6倍的解码吞吐量提升,大大优化了长文本推理和多轮对话性能。

Kimi Liternal的核心创新在于三项关键技术:

  • Delta Attention:一种硬件高效的线性注意力机制,使用门控 Delta 规则来优化结构,实现性能和能耗之间的平衡;
  • 线性架构:第一个跨多个指标全面超越传统全注意力机制的混合线性架构,平衡速度和模型表现力;
  • 开放生态系统和实证验证:Moonshot 提供开源的 KDA 内核vLLM 集成支持模型检查点,并进行大规模、公平的比较实验来验证 Kimi Linear 的稳定性和可扩展性。

Moonshot AI 表示,Kimi Linear 不仅是一次架构创新,也是为“AI Agent”时代设计的基础机制。随着线性注意力技术的成熟,它有望成为长上下文推理、智能助手、多模态生成等应用的下一个标准。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/100852.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部