首页 > 互联网 > 正文

NVIDIA斥巨资为即将推出的HopperH200和BlackwellB100AIGPU采购HBM3E内存

来源:互联网2023-12-29 14:05:06
导读 NVIDIA在HBM3E内存上投入了大量资金,试图为其下一代HopperH200和BlackwellB100AIGPU确保足够的库存。NVIDIA下达价值数十亿美元的订单以确...

NVIDIA在HBM3E内存上投入了大量资金,试图为其下一代HopperH200和BlackwellB100AIGPU确保足够的库存。

NVIDIA下达价值数十亿美元的订单以确保HBM3E内存供应,利用下一代HopperH200和BlackwellB100GPU推动2024年人工智能竞赛

韩国媒体Biz.Chosun透露,NVIDIA已向SK海力士、美光等公司订购大量HBM3E内存,为其针对AI领域的下一代产品做准备。这种方法限制了其他公司的访问,要么使他们无法获取资源,要么限制他们对资源的访问。

韩国媒体称,NVIDIA已为HBM3E内存预付了约7000亿至1万亿韩元,这是一个不同的数字,但考虑到行业的巨大需求,我们预计实际金额接近万亿韩元大关。仅预付款一项就约为7.75亿美元,实际数字可能超过10亿美元。

据业内人士26日透露,SK海力士和美光已分别从英伟达获得了7000亿至1万亿韩元的预付款,用于供应尖端内存产品。

NVIDIA的巨额预付款引发了那些努力扩大HBM产能的内存半导体公司的投资行动。特别是最大供应商SKHynix计划将从NVIDIA收到的预付款集中投资于扩大TSV设施,这抑制了HBM产能。去年第三季度新建TSV线的相关工作进展顺利就证明了这一点。同样,美光对TSV设施的投资预计也会得到增加。

同时,据悉三星电子近期也与NVIDIA完成了HBM3和HBM3E产品适用性测试,并签署了供货合同。

AI行业发展迅速,Intel、AMD等公司加紧研发,追赶NVIDIA,Green团队必须“先发制人”,以保住主导地位

据报道,NVIDIA将针对中国市场的H20AIGPU的推出推迟到明年1

图片来源:NVIDIA

说到HBM3E,目前NVIDIA计划在其下一代BlackwellAIGPU中首次亮相HBM3e,传闻将于2024年第二季度推出,而在性能方面,它将在每瓦性能方面带来决定性的提升,通过采用小芯片设计。此外,NVIDIA的HopperH200GPU也将配备全球最快的HBM3E内存,因此该解决方案对于NVIDIA在AI和HPC市场的成功具有重要意义。

NVIDIA对数据中心领域的收入抱有很高的期望,因此他们显然领先其他公司一步。NVIDIA计划到2027年通过AI驱动的销售创造高达3000亿美元的收入,因此确保向客户稳定供应AIGPU是他们的首要目标。另一个有趣的事实是,收购HBM3E将为HBM行业带来巨大的推动力,特别是在设施扩建方面,因为订单积压对于SKhynix和Micron等公司来说是一个大问题,因此需要预先测量供应意味着HBM的交付将变得更加容易。

NVIDIA目前处于主导地位,并且还不打算放弃其宝座。TeamGreen及其硬件部门在CUDA平台上取得的进步已经彻底改变了市场状况,未来的前景将会很有趣。

关键词:
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

最新文章