高通发布两款数据中心AI芯片,股价一度暴涨22%

发布者:深铭易购     发布时间:2025-10-28    浏览量:--

【深铭易购】资讯:据外媒报道,当地时间10月27日,高通(Qualcomm)正式发布其面向数据中心的新一代人工智能(AI)推理芯片——Qualcomm AI200 与 AI250,并同步推出基于这两款芯片的加速卡及机架级解决方案,标志着高通在生成式 AI 基础设施领域的战略布局进入新阶段。

高通表示,凭借其在 NPU(神经网络处理单元)技术方面的深厚积累,全新的 AI200 与 AI250 解决方案可提供机架级性能和卓越的内存容量,以极高的性价比实现高速生成式 AI 推理,加速 AI 在各行业的规模化落地。受利好消息推动,高通股价在当日美股盘中一度大涨近22%,最终收涨11.09%。

在产品层面,Qualcomm AI200 是一款专为大型语言模型(LLM)和多模态模型(LMM)设计的机架级 AI 推理平台,主打低总拥有成本(TCO)与高扩展性。该芯片单卡支持高达 768GB LPDDR 内存,为 AI 推理提供更高的内存容量与更低的能耗,实现灵活高效的计算支持。

Qualcomm AI250 则首度采用“近内存计算”架构,通过创新的内存设计实现超过 10 倍的有效内存带宽提升与显著的功耗优化,性能效率实现跨越式升级。该架构支持分解式 AI 推理,进一步提升硬件资源利用率,满足企业对性能、能效与成本的平衡需求。

两款机架级方案均采用直接液体冷却技术以提高散热效率,支持 PCIe 纵向扩展与以太网横向扩展,并通过机密计算保障 AI 工作负载安全。整机机架功耗约为 160kW,体现了高通在高性能计算与能源效率方面的技术实力。

高通技术公司高级副总裁、技术规划与数据中心事业部总经理 Durga Malladi 表示:“通过 Qualcomm AI200 和 AI250,我们正在重新定义机架级 AI 推理的可能性。这些创新解决方案让客户能够以更低的总拥有成本部署生成式 AI,同时保持现代数据中心所需的灵活性、安全性与高效性。”

据悉,高通的 AI 软件栈已覆盖从应用层到系统层的端到端优化,支持多种主流机器学习框架与生成式 AI 推理引擎。开发者可借助 Qualcomm Efficient Transformers Library 和 Qualcomm AI 推理套件,实现模型的无缝导入与一键式 Hugging Face 模型部署。高通还提供全面的工具、库、API 与服务,以加速 AI 应用的落地与创新。

目前,高通关于 AI200 与 AI250 的技术详情页面尚未正式上线,但公司透露,这两款芯片将分别于 2026 年 与 2027 年 商用。未来,高通将每年更新一次数据中心产品路线图,持续推动 AI 推理性能、能效与成本效益的行业领先地位。

事实上,高通早已在数据中心 AI 布局上有所动作。今年5月13日,高通宣布与沙特阿拉伯人工智能公司 HUMAIN 签署谅解备忘录,双方将在 AI 数据中心、基础设施及云到边缘服务等领域展开战略合作,共同开发高通最先进的 CPU 与 AI 芯片解决方案,为 HUMAIN 的 AI 云基础设施提供支持。

随后在今年7月的第三财季财报会上,高通 CEO Cristiano Amon 进一步透露,公司正开发兼容 Arm 架构的“通用数据中心 CPU”及用于“推理集群主机”的新产品。他表示:“我们正在与一家领先的超大规模企业展开深入合作,若进展顺利,预计来自数据中心市场的营收将在 2028 财年开始贡献。”

注:图文源自网络,如有侵权问题请联系删除。