随着全球大模型竞争进入更深水区,阿里云以更密集、更开放的模型矩阵应对挑战。10月22日,Qwen3-VL团队正式推出了Qwen3-VL家族中的两款全新密集机型——2B和32B。这些模型不仅填补了现有产品线的关键位置,还将全系列开源模型数量增加到24个,构建了从轻量级到超大规模的完整技术生态系统。
截至目前,Qwen3-VL 家族拥有 4 种密集模型(2B、4B、8B、32B)和 2 种混合专家(MoE)架构模型(30B-A3B 和 235B-A22B),涵盖 20 亿至 2350 亿的参数规模,精准满足从边缘设备部署到云端超大规模推理的全场景。更值得注意的是,所有模型都提供了两个版本:Instruct(指令调优)和Thinking(推理增强),允许开发人员根据任务特性灵活选择。
为了平衡性能和效率,阿里云还发布了 12 款 FP8 量化版机型。这些轻量级变体在不牺牲太多准确性的情况下显着减少了内存使用和推理延迟,使高性能多模态 AI 能够快速部署到更实际的业务场景中。
Qwen3-VL 的所有开源权重模型现已完全可用。用户可以在 ModelScope 社区和 Hugging Face 平台上免费下载它们,并且它们支持商业用途。这一战略大大降低了企业获得尖端多模态能力的障碍,并为学术界和初创团队提供了立即可用的技术基础。
在闭源模型筑高墙的时代,阿里云选择以开源生态突围。Qwen3-VL的不断扩容,不仅是技术实力的展示,更是对开放协作和普惠智能的坚定承诺。随着模型家族的不断壮大,通义千问正在从“好用”走向“人性化”和“易用”,加速AI能力从实验室向现实场景的过渡,跨行各业。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
