数智化转型网szhzxw.cn 人工智能资讯 阿里通义千问推出Qwen3-30B-A3B-Thinking-2507推理模型

阿里通义千问推出Qwen3-30B-A3B-Thinking-2507推理模型

Qwen3-30B-A3B模型迎来了重大更新,推出了新版本Qwen3-30B-A3B-Thinking-2507。这一新版本在推理能力、通用能力及上下文长度上实现了显著提升,标志着该模型不仅更加轻巧,还具备了更强的思考能力。数字化转型网www.szhzxw.cn

与4月29日开源的Qwen3-30-A3B模型相比,新模型在多个关键领域取得了进步。在数学能力方面,Qwen3-30B-A3B-Thinking-2507在AIME25评测中获得了85.0的高分,这一成绩超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。在代码能力测试LiveCodeBench v6中,新模型也取得了66.0的高分,显示出其在编程领域的强大能力。此外,新模型在知识水平(GPQA、MMLU-Pro)方面也较上一版本有了显著提升。

除了数学和代码能力的增强,Qwen3-30B-A3B-Thinking-2507在通用能力上也实现了全面升级。在写作(WritingBench)、Agent能力(BFCL-v3)、多轮对话和多语言指令遵循(MultiIF)等通用能力评测中,新模型均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking),显示出其在理解和生成自然语言方面的卓越能力。数字化转型网www.szhzxw.cn

新模型的上下文理解能力也得到了显著增强,原生支持256K tokens,并可扩展至1M tokens。这一改进使得Qwen3-30B-A3B-Thinking-2507能够处理更长的文本输入,从而更好地理解和生成复杂的文本内容。此外,新模型的思考长度(thinking length)也有所增加,开发团队推荐在高度复杂的推理任务中设置更长的思考预算,以充分发挥其潜力。

为了方便开发者和研究人员使用和测试这一新版本,Qwen3-30B-A3B-Thinking-2507已经在魔搭社区和HuggingFace上开源。其轻量体积使得该模型可以轻松实现消费级硬件的本地部署。同时,开发团队也在Qwen Chat上同步上线了新模型,欢迎开发者们前往体验其强大的推理和生成能力。数字化转型网www.szhzxw.cn

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)鲍勃

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/88308.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部