在开源大型模型领域,欧洲明星Mistral AI再次展现了其惊人的进化速度。
当地时间3月16日,Mistral AI正式发布了Mistral Small4。这是实验室首个真正“多功能”的大型模型,首次将旗舰级推理、多模态理解和强大的编程能力完美结合于单一模型中。对开发者来说,这意味着不再需要在各种垂直模型之间做“选择”,因为新的Small4实现了“我想要一切”。

Mistral Small4采用先进的专家混合(MoE)架构:
- 核心参数:总参数数为119B,仅激活6B参数,显著优化了运营效率,同时保持性能。
- 详细背景:它拥有扩展的上下文窗口 256k,使它能够轻松处理整个技术文档或大型代码库。
- 灵活模式:支持快速响应和深度推理模式,并以Apache 2.0许可证正式开源,展现了极高的诚意。
在性能方面,Mistral Small4相比前代实现了质的飞跃。官方数据显示,在延迟优化模式下,其端到端完成时间减少了40%;在吞吐量优化模式下,它每秒处理的请求数量是 Small3 的三倍。在与外部大型模型的交叉比较中,其在三项核心基准测试中的表现不亚于OpenAI的GPT-OSS120B。
部署需求与硬件建议:
为了充分发挥该模型的潜力,Mistral AI 提供了清晰的硬件指导。最低配置要求为4×台HGX H100或1×台DGX B200;为了获得最佳体验,官方建议使用4× HGX H200或2× DGX B200的组合。
随着Mistral Small4的发布,Mistral AI
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

本文由数智化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数智化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
