HBM供不应求:SK海力士、美光双双售罄!
发布者:深铭易购 发布时间:2024-02-24 浏览量:--
【深铭易购】资讯:随着生成式人工智能(AI)市场的爆发,对AI芯片需求的激增推动了相关行业的快速发展。AI芯片领导者英伟达业绩持续攀升,根据最新发布的第四财季报告显示,营收同比激增265%,达到221亿美元,净利润同比飙升769%,达到122.85亿美元,再次刷新历史纪录,推动英伟达市值超过2万亿美元。
作为当前AI芯片中关键的组成部分,高带宽内存(HBM)持续供不应求。在美光宣布今年HBM产能售罄后,最新消息显示,SK海力士今年的HBM产能也已售罄。
SK海力士在2023年度财报中表示,在DRAM领域,公司以引领市场的技术实力积极满足客户需求,主力产品DDR5 DRAM和HBM3的营收较2022年分别增长4倍和5倍以上。
最近,SK海力士副总裁金基泰在一篇博文中表示,尽管2024年才刚刚开始,但今年SK海力士的HBM已经全部售罄。为保持市场领先地位,公司已经开始为2025年做准备。此外,PC、智能手机等设备对AI应用的需求将提升HBM3E销量,DDR5、LPDDR5T等产品的需求也有望增加。
在去年12月的财报会议上,美光CEO Sanjay Mehrotra透露,由于生成式AI的火爆,美光预计2024年的HBM产能将全部售罄。其中,2024年初量产的HBM3E有望在2024财年创造数亿美元的营收。
据悉,SK海力士的HBM3E在1024位接口上拥有9.6 GT/s的数据传输速率,单个HBM3E内存堆栈可提供1.2 TB/s的理论峰值带宽,对于由六个堆栈组成的内存子系统来说,带宽可高达7.2 TB/s。
下一代的HBM4将采用2048位接口,将每个堆栈的理论峰值内存带宽提高到1.5 TB/s以上。为了实现这一目标,HBM4需要具有约6 GT/s的数据传输速率,有助于控制下一代DRAM的功耗。同时,2048位内存接口需要在内插器上进行复杂的布线,或者仅将HBM4堆栈放置在芯片顶部。在这两种情况下,HBM4都会比HBM3和HBM3E更昂贵。
目前,SK海力士已经启动了HBM4的研发。关于HBM4的量产时间,SK海力士、三星、美光这三家HBM大厂都计划在2026年开始大规模生产。
近期有传闻称,SK海力士将在美国印第安纳州建立先进封装厂,主要以3D堆叠制程生产HBM,未来将整合到英伟达的AI GPU中,并有可能转向堆叠在主芯片之上,为其提供更大的支持。
根据市场研究机构Gartner的预测,2023年全球HBM营收规模约为20.05亿美元,预计到2025年将翻倍增长至49.76亿美元,增长率高达148.2%。
具体而言,目前HBM消耗最多的是AI GPU产品,而FPGA搭载HBM的使用量将在2025年后显著增长,主要受益于推动推理模型建设和应用。
在供应商方面,目前SK海力士、三星、美光是全球仅有的三家HBM供应商。数据显示,在2022年HBM市场中,SK海力士占据50%的市场份额,三星占40%,美光占10%。
注:图文源自网络,如有侵权问题请联系删除。