国产AI推理GPU企业曦望完成新一轮超10亿元融资

发布者:深铭易购     发布时间:2026-04-21    浏览量:--

【深铭易购】资讯4月20日,国内专注于全栈自研AI推理GPU的企业杭州曦望芯科智能科技有限公司(以下简称“曦望”)通过官方渠道宣布,已完成新一轮超过10亿元人民币的融资。值得注意的是,就在2025年7月初,公司才刚完成一轮近10亿元融资,彼时由三一集团旗下华胥基金、第四范式、游族网络、北京利尔、松禾资本、海通开元等多家机构联合投资。短短不到10个月时间内再次获得大额资金支持,显示出资本市场对其发展前景的高度认可。

至此,自2024年底分拆独立以来,曦望在一年多时间内已累计完成七轮融资,总融资规模约40亿元,并成为国内首家估值突破百亿元的纯AI推理GPU独角兽企业。

公司表示,本轮融资将重点用于新一代启望S3推理GPU的规模化量产与交付、全栈软件生态建设,以及后续S4、S5系列芯片的研发迭代。

曦望在新闻稿中指出,2026年被行业普遍视为“AI智能体元年”。随着大模型从简单对话工具向具备思考与执行能力的“数字员工”演进,AI推理需求正在快速增长。在英伟达GTC 2026大会上,行业已明确进入“推理落地、智能体普及”的新阶段,“每瓦Token吞吐量”成为关键竞争指标,这与曦望自成立以来专注推理算力的战略方向高度一致。

公司董事长徐冰表示,AI算力基础设施的重心正加速从训练侧转向推理侧,预计2026年推理计算需求将达到训练需求的4至5倍,且推理算力租赁价格在半年内上涨近40%。

公开资料显示,曦望前身为商汤科技的大芯片部门,独立后专注于高性能GPU及多模态AI推理芯片的研发与商业化。凭借8年的技术积累、约20亿元的研发投入以及两代量产产品的工程验证,公司已成为国产GPU替代的重要力量,致力于为各行业提供更低成本、更高能效的智能算力解决方案。

在团队方面,曦望目前拥有约400名员工,其中研发人员占比超过80%,核心成员来自英伟达、AMD、华为海思等国内外知名芯片企业,硕士及以上学历占比同样超过80%,具备跨芯片设计、高性能计算与AI算法的综合能力。

产品布局上,曦望已推出S1、S2两代量产产品,并计划推进S3量产。其中,S1主要面向云端和边缘端视觉推理应用,已实现超过2万片出货;S2则定位大模型推理GPGPU,基于7nm工艺打造,兼容主流CUDA生态,性能对标英伟达A100,并实现从指令集到编译器工具链的全自研。

2026年1月,曦望正式发布新一代旗舰产品启望S3推理GPU。该产品采用LPDDR6并兼容LPDDR5X内存架构,针对AI智能体推理需求进行全链路重构,从计算架构到内存与IO系统均进行了优化设计。

据介绍,启望S3在计算层面实现深度定制,显著提升算力利用率,其推理性能较上一代S2提升约5倍,目标将Token成本降低90%。在关键算子方面,GEMM和Flash Attention的利用率分别达到约99%和98%,有效提升硬件资源转化效率。

此外,启望S3支持FP16至FP4的低精度计算,在主流模型上实现接近无损的低精度推理,使吞吐量较FP16提升3至4倍,从而为客户带来更高的成本优势和定价灵活性。

在系统架构方面,S3通过创新指令集设计、独立线程调度及片上数据复用技术,提升多轮推理效率;同时集成LPDDR6接口、高速互联及PCIe Gen6等先进IO技术,针对推理时代的核心瓶颈进行优化。

从行业发展趋势来看,AI训练市场格局已趋于稳定,而推理市场正随着智能体应用的普及进入快速增长阶段。多家机构预测,未来五年推理算力市场规模将数倍于训练市场,其中智能体类应用将成为主要增长动力。

曦望方面表示,启望S3在架构前瞻性、工程实现能力与生态适配方面实现了综合突破,不仅是性能升级,更是对AI推理成本结构的重塑。公司目标是将推理成本降低至“百万Token仅需一分钱”,推动AI成为像水电一样普及的基础设施。

在新一轮融资支持下,曦望计划在2026年重点推进S3芯片的量产与落地,加快与主流大模型、多模态模型及智能体框架的适配。同时,公司已完成S4与S5推理GPU的技术路线规划,并持续布局近存计算、光电共封等前沿方向,进一步巩固其在AI推理芯片领域的竞争优势。


注:图文源自网络,如有侵权问题请联系删除。