这一预期高于三星今年1月份预测的HBM芯片销量。
三星电子公司(Samsung Electronics Co.)今年的高带宽内存(HBM)芯片产量可能会比去年增加两倍,因为它的目标是在人工智能(AI)芯片领域处于领先地位。
本周二,在加利福尼亚州圣何塞举行的全球芯片制造商聚会Memcon 2024上,三星公司执行副总裁兼DRAM产品和技术负责人Hwang Sang-joong表示,他预计该公司今年的HBM芯片产量将比去年增加2.9倍。
这一预测高于三星今年早些时候在 CES 2024 上公布的预测,即该芯片制造商可能会在 2024 年生产 2.5 倍的HBM芯片。
“继已经量产的第三代HBM2E和第四代HBM3之后,我们计划在今年上半年大批量生产12层第五代HBM和32千兆位的128 GB DDR5产品,”Hwang在Memcon 2024上说:“通过这些产品,我们希望在人工智能时代增强我们在高性能、高容量内存领域的影响力。”
在会议上,三星公布了其HBM路线图,预计 2026 年的 HBM 出货量是 2023 年的 13.8 倍。该公司表示,到2028年,HBM内存的年产量将进一步上升至2023年的 23.1 倍。
在代号为“Snowbolt”的第六代 HBM 芯片 HBM4 中,三星计划将缓冲芯片(一种控制设备)应用于堆叠内存的底层以提高效率。
此次会议上,三星向与会者展示了其最新的 HBM3E 12H 芯片——业界首款 12 堆栈 HBM3E DRAM,标志着 HBM 技术有史以来实现的最高容量突破。
三星目前正在向客户提供HBM3E 12H芯片的样品,并计划在上半年开始量产。
参会嘉宾包括SK海力士、Microsoft、Meta Platforms、英伟达和AMD。
CXL技术
三星还在 Memcon 2024 上公布了其 Compute Express Link (CXL) 内存模块产品组合的扩展,展示了其在 AI 应用的高性能和高容量解决方案中的技术。
在主题演讲中,三星设备解决方案研究美国公司执行副总裁崔振赫表示,三星致力于与合作伙伴合作,释放人工智能时代的全部潜力。
没有内存技术创新,人工智能创新就无法继续。作为内存市场的领导者,三星很自豪能够继续推进创新,从业界最先进的CMM-B技术到强大的内存解决方案,如HBM3E,用于高性能计算和要求苛刻的AI应用。
为了突出 CXL 生态系统的增长势头,三星推出了 CXL 内存模块CMM-B,这是一款尖端的 CXL DRAM 内存产品。
该芯片制造商还展示了用于分层内存的 CXL 内存模块CMM-H和CXL内存模块DRAM (CMM-D)。
CXL 是下一代接口,可提高高性能服务器系统中与CPU一起使用的加速器、DRAM和其它存储设备的效率。
作为HBM芯片领域的落后者,三星在HBM上投入了大量资金,以与SK海力士和其它内存厂商竞争。
HBM 已成为AI热潮的关键,因为它提供了比传统存储芯片更快的处理速度。
上周,三星半导体业务负责人Kyung Kye-hyun表示,该公司正在开发其下一代AI芯片Mach-1,旨在通过该芯片颠覆其竞争对手SK海力士,后者是先进HBM领域的主导者。
该公司表示,它已经同意在今年年底前向Naver Corp.供应Mach-1芯片,交易价值高达1万亿韩元(7.52亿美元)。
通过这份合同,Naver希望大幅减少其对全球顶级AI芯片设计商英伟达(Nvidia)的AI芯片依赖。
SK海力士:2024年实现两位数的AI用DRAM销售
最近,SK海力士首席执行官Kwak Noh-Jung表示,预计到2024年,面向AI芯片组的HBM芯片将占其DRAM芯片销售额的两位数百分比。
今年3月,英伟达的供应商开始将下一代先进的HBM芯片商业化。
据报道,英伟达可能是SK海力士首批出货的受益者。
HBM 芯片迎合了英伟达和其它在生成式 AI 中处理大量数据的GPU。
SK海力士是英伟达目前使用的HBM3版本的唯一供应商,占据了AI芯片市场的80%,从而引领了HBM芯片市场。
分析师预计,到 2024 年,HBM 芯片将占全行业 DRAM 销售额的 15%,高于 2023 年的 8%。
最近的报道显示,SK海力士计划投入40亿美元在印第安纳州西拉斐特建立一个先进的芯片封装工厂,并得到美国芯片法案的支持,可能会增加800~1000个工作岗位。