在大模型竞争从“参数竞赛”转向“效率竞赛”的关键时刻,MiniMax于10月27日发布了全新的开源推理模型M2,以精准的工程取舍,将自己锚定在智能体——下一代AI应用的核心战场上。
M2 采用 Mixture-of-Expert(MoE)架构,总参数数为 2300 亿,但每次推理仅激活 100 亿个参数,实现了高达每秒 100 个 token 的输出速度——这一性能指标使其在实时交互场景中具有显着优势。更重要的是,M2专为智能体设计,增强了行为决策、多轮任务规划和环境交互方面的推理连续性和响应效率,为构建真正自主的AI智能体提供了基础引擎。
值得注意的是,与前身 M1 相比,M2 在上下文窗口上进行了战略调整:从 M1 支持的 100 万枚代币减少到 20.48 万枚代币。这种变化并不是技术倒退,而是 MiniMax 在长文本处理、推理速度和部署成本之间做出的务实权衡。尽管M1以“百万语境”创下了纪录,但其高资源消耗限制了实际实施;另一方面,M2 专注于频繁、高响应的代理任务,确保足够的上下文长度,同时显着提高吞吐量效率和成本效益。
M2 作为开源模型,进一步降低了开发人员构建自定义代理的门槛。无论是创建具有复杂任务链的虚拟助手、自动化工作流机器人,还是嵌入企业系统中的决策代理,开发人员都可以基于 M2 快速迭代和灵活优化。
MiniMax明确将M2定位为“特工时代的推理基础”。在AI从“问答工具”走向“代理”的浪潮中,M2的发布不仅仅是对模型的升级,更是对下一代AI应用范式的押注——当智能体需要快速思考、持续行动、高效交互时,速度和成本可能比上下文长度更关键。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
