近日,这家以移动芯片闻名的科技巨头宣布推出两款专为云AI推理设计的新芯片:AI200(将于2026年商业化)和AI250(将于2027年发布),标志着从终端芯片制造商向全栈AI基础设施参与者的关键转变。这一消息导致高通股价单日暴涨超20%,创下2019年以来最大涨幅,资本市场用真金白银展现了信心。
聚焦推理场景,以能效和成本突破
与英伟达同时涵盖训练和推理的综合方法不同,高通选择专注于大模型推理市场,强调“低总拥有成本(TCO)+高能效+大内存”三个优势。
- AI200最高支持768GB LPDDR内存,可作为独立加速卡或整机架系统交付,针对大语言模型和多模态推理进行优化,满足企业对高并发、低延迟推理的需求;
- AI250更进一步,引入了近内存计算架构,号称内存带宽提升十倍,同时显著降低功耗,为超大规模部署的能效树立了新标杆。
这一策略直击当前数据中心痛点:随着模型推理成本的飙升,企业迫切需要高性价比、低功耗的专用解决方案,而不是简单地追逐峰值算力。
十年筹备,Hexagon NPU成为关键引擎
高通并没有一时兴起。自2019年以来,在物联网和5G边缘计算领域积累了云芯片经验。其核心武器是自主研发的六边形神经处理单元(NPU)。经过多年的迭代,Hexagon已经从移动AI加速器演变为可扩展到数据中心的高性能推理引擎,成为高通在云市场挑战的技术基石。
主要参与者瞄准英伟达,市场达到“去中心化”拐点
尽管英伟达目前占据了约90%的AI芯片市场份额,但客户对供应链多元化的需求日益强烈。谷歌(TPU)、亚马逊(Trainium/Inferentia)和Microsoft(Maia)等云提供商已经开发了自己的芯片。高通的入局为第三方独立供应商提供了新的选择。麦肯锡预测,到 2030 年,全球数据中心投资将达到 6.7 万亿美元,这是一片能够容纳多个参与者的蓝海。
高通已经锁定了首个大客户:沙特AI初创公司Humain计划在2026年部署基于AI200/AI250的机架系统,总功率为200兆瓦,相当于一个小城市的用电量。
它能挑战主导者吗?关键在于生态系统和实施
挑战英伟达,芯片性能只是比赛的入场券。软件生态、开发者支持、实际部署结果是制胜的关键。高通能否在移动领域复制其生态系统集成能力,构建从工具到框架的完整推理栈,将决定其是否能够真正占领高端市场。
无论如何,高通的强势入局,给AI芯片战场带来了一个显著的变数。当“移动芯片之王”决心在云上掀起风暴时,英伟达的护城河或许不再像以前那样坚固。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
