Google携手Marvell开发AI推理芯片,加速摆脱博通依赖
发布者:深铭易购 发布时间:2026-04-21 浏览量:--
【深铭易购】资讯:据外媒 The Information 报道,Google 正与 Marvell 展开合作洽谈,计划联合开发两款面向AI的新型芯片,以进一步提升数据中心中AI模型的运行效率。其中,一款为配合TPU使用的存储器处理单元,另一款则是专门针对AI推理场景打造的新型TPU产品。
此次合作的核心目标,是帮助Google降低对 Broadcom 的长期依赖,同时借助Marvell在CXL存储管理以及LPU(语言处理单元)设计方面的技术积累,优化整体算力架构与数据处理效率。与以往直接采购标准芯片不同,双方此次更倾向于推进定制化半导体开发,显示出Google在芯片供应链多元化方面的战略升级。
事实上,Google近年来已逐步探索替代方案。早在2023年,就有消息称其考虑将数据中心网络接口芯片供应商从Broadcom转向Marvell,进一步削弱单一供应商依赖风险。
在技术背景上,NVIDIA 曾在2026年GTC大会上推出基于 Groq 技术的语言处理单元(LPU),专门优化AI推理负载。这一动向也促使Google加快自身推理芯片布局。而Marvell正是Groq首代LPU的设计合作伙伴,同时也曾为Google提供CXL控制器芯片,用于服务器间的内存共享管理,这些合作经验增强了Google对其技术能力的信任。
据知情人士透露,双方正在讨论的新型存储器处理单元将与TPU协同工作,根据计算与内存需求动态分配任务,从而缓解AI计算中“算力与数据传输不匹配”的瓶颈。目标是在2027年前完成设计并进入试产阶段。按照初步规划,Google计划部署近200万个该类芯片,而同一时间节点其TPU总产量预计将达到约600万颗。
在制造方面,Google现有芯片主要由 TSMC 代工,但新一代产品是否继续沿用这一合作模式尚未最终确定。
与此同时,Google也在调整其商业策略。过去TPU主要服务于内部业务及云计算客户,但自2025年起,公司开始对外出租TPU资源,直接挑战NVIDIA在AI算力市场的主导地位,并已吸引 Meta 和 Apple 等客户。
从行业趋势来看,AI企业正 increasingly 通过多类型推理芯片组合,来突破算力与数据传输之间的性能瓶颈。例如,OpenAI 已投入超过200亿美元采购 Cerebras 芯片,以提升大模型推理效率。
尽管Google正在加强与Marvell、联发科等厂商的合作,以分散供应链风险,但Broadcom依然占据关键地位。最新消息显示,双方合作关系已延续至2031年,Broadcom目前仍是Google TPU的核心设计伙伴之一。
注:图文源自网络,如有侵权问题请联系删除。
1

产品分类 














