IT之家 12 月 27 日消息,随着人工智能的飞速发展,对计算能力的需求也水涨船高。英伟达的 AI 处理器 H100 目前十分畅销,然而每块 H100 的峰值功耗高达 700 瓦,超过了普通美国家庭的平均功耗。随着大量 H100 被部署,专家预测,其总功耗将与一座美国大城市不相上下,甚至超过一些欧洲小国。
IT之家注意到,法国施耐德电气公司早在去年 10 月就估计,用于 AI 应用的数据中心的总功耗已经与塞浦路斯全国相当。那么,最热门的 AI 处理器之一 —— 英伟达的 H100,功耗究竟几何?
微软数据中心技术治理和战略部门首席电气工程师保罗・楚诺克(Paul Churnock)预测,到 2024 年底,当数百万块 H100 部署完毕时,其总功耗将超过美国亚利桑那州凤凰城所有家庭的用电量,但仍低于得克萨斯州休斯敦等更大的城市。
楚诺克在领英上发帖称:“英伟达的 H100 GPU 峰值功耗为 700 瓦,按照 61% 的年利用率计算,相当于一个美国家庭的平均功耗(假设每个家庭 2.51 人)。英伟达预计,2024 年 H100 的销量将在 150 万到 200 万块之间。按城市居民用电量排名,H100 的总功耗将位居全美第五,仅次于休斯敦,排在凤凰城之前。”
按照 61% 的年利用率,每块 H100 每年将消耗约 3740 千瓦时 (kWh) 的电量。如果英伟达在 2023 年售出 150 万块 H100,2024 年售出 200 万块,到 2024 年底,将有 350 万块 H100 芯片被部署。这些芯片的总年耗电量将达到惊人的 130.91 亿千瓦时,即 13091.82 吉瓦时 (GWh)。
相比之下,格鲁吉亚、立陶宛或危地马拉等国家的年均电力消耗也大约为 13092 吉瓦时。虽然 H100 的功耗令人震惊,但值得注意的是,AI 和高性能计算 (HPC) GPU 的效率正在不断提高。因此,虽然英伟达下一代 Blackwell 架构的 B100 芯片的功耗可能会超过 H100,但它也将提供更高的性能,从而以更少的单位功耗完成更多工作。
随着 AI 技术的发展,如何平衡算力与能耗之间的矛盾,将成为未来亟需解决的重要课题。