您的位置:首页>综合 >

GPU和AI数据中心都跟不上,“英伟达亲儿子”也“跑不起来”

2023-08-19 15:59:49    来源:华尔街见闻

对于一家势头正好的企业而言,增长得太快,也会有意想不到的烦恼。


(相关资料图)

据The Information周五报道称,英伟达扶持的云计算提供商CoreWeave近期下调了今年的预期收入和资本支出,原因是无法获得符合预期的GPU等关键设备。

在今年4月,该公司曾对投资者表示,预计今年的收入将为6.3亿元,但6月CoreWeave将这一预期下调至略高于5亿美元。

同时,CoreWeave的资本支出也从33亿美元下调至23亿美元。The Information指出,这可能意味着CoreWeave无法获得预期的那么多芯片,或者它无法在数据中心获得足够的空间来履行对客户的承诺。

CoreWeave早先是一家以向加密货币“挖矿”者租借GPU为主业的公司,并在成立之后购买了大量的英伟达GPU。最近这家公司开始向人工智能和机器学期开发公司租借GPU,在今年早些时候获得了英伟达的1亿美元投资。

今年以来,CoreWeave已通过债务和股权融资超过27亿美元,以投资更多的芯片和数据中心,英伟达也将CoreWeave纳入其最先进的人工智能芯片H100的首批出货名单中。

然而,由于英伟达H100的需求量过大,目前产能已经成为亟待解决的问题。

华尔街见闻稍早时候曾介绍,英伟达将于2023年在全球出货约55万块H100显卡,但目前英伟达的合作伙伴台积电几乎无法满足计算GPU的生产需求,因为台积电一直使用CoWoS封装,作为代工厂的台积电正在努力提高这种芯片封装方法的产能。

即便CoreWeave拥有英伟达优先出货的优势,但产能的限制仍使其无法达成预期中的增长。

Bernstein Research高级半导体分析师Stacy Rasgon对此表示:

竞争挑战

CoreWeave所面临的挑战不止于此。

英伟达目前的H100主要销往美国科技公司,但中东玩家现在也加入了赛场。

据英国《金融时报》,沙特已通过公共研究机构阿卜杜拉国王科技大学(Kaust)购买了至少3000块英伟达的H100显卡,阿联酋也将获得数千块英伟达显卡,并已在阿布扎比马斯达尔城的国有技术创新研究所开发了自己的开源大型语言模型——Falcon。

此外,据一位了解其财务状况的人士向The Information透露,目前该公司的绝大部分收入仅来自少数几家大客户。而另一家同样从英伟达获得H100的新兴云提供商Lambda Labs,虽然收入低于CoreWeave,但它的客户名单更长,且同样也也将与英伟达达成股权融资协议。

CoreWeave的增长依然是惊人的,即便是调低了5亿美元的预计收入,也比该公司2022年约2500万美元的收入增长了25倍左右。CoreWeave预计明年的收入为23亿美元。

CoreWeave表示,到2026年,该公司签署的云服务合同将超过70亿美元,高于今年早些时候的50亿美元。

能耗难题

GPU的瓶颈来自供应商英伟达的产能,而承载GPU的数据中心的瓶颈则是高昂的能耗。

云服务商一般通过购买或租用数据中心的方式在托管包含GPU的服务器,但英伟达H100比其早期的芯片消耗更多的能量,单个H100芯片的功耗高达700瓦。

本周早些时候,在加州圣何塞举行的一次行业会议上,数据中心运营商表示,他们正在努力跟上人工智能的发展,但很难建立和运行足够多的数据中心,以容纳英伟达最新的芯片,并满足云服务商的需求。

对于能耗问题,CoreWeave表示,它已经在三个数据中心获得了约15兆瓦的电力,另外三个数据中心计划在2023年开放,这可能使容量达到约40兆瓦。该公司表示,明年其数据中心的容量可能会扩大到70兆瓦,足以容纳10万个H100芯片。

华尔街见闻此前曾介绍,数据中心为训练AI模型产生的能耗将为常规云工作的三倍,2030年,美国数据中心的电力需求预计将以每年约10%的速度增长。

AI服务器的功率较普通服务器高6-8倍,这对于电源的需求也将同步提升,通用型服务器原来只需要2颗800W服务器电源,而AI服务器的需求直接提升为4颗1800W高功率电源,服务器能耗成本直接3100元直接飙升到12400元,大涨3倍。

据咨询机构Tirias Research建模预测,到2028年数据中心功耗将接近4250兆瓦,比2023年增加212倍,数据中心基础设施加上运营成本总额或超760亿美元。

该机构称,生成式AI带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价。

因此,虽然人工智能的潜力可能是无限的,但物理和成本最终可能是界限。

本文来自华尔街见闻,欢迎下载APP查看更多

关键词:

相关阅读