买得到芯片的美国科技巨头买不到电了

先是答应甲骨文一起投 3000 亿美元共建数据中心,又从英伟达那里拿了 1000 亿美元买芯片,直到上个月,他们还在管 AMD 要股票掏芯片。。。

在各大科技巨头的齐心协力下,AI 泡沫眼看靠着 GPU 的买卖越吹越大。但最近,微软 CEO 萨蒂亚·纳德拉突然在一场气氛堪比《再见爱人》的三方会谈里,杀出来泼了一盆冷水。

美国能源部 2024 年 12 月发布的一篇报告显示,2023 年,美国数据中心的总耗电量占全国总发电量的 4.4%,达到 176 太瓦时,和马来西亚全国一年总耗电量差不多。到了 2028,这个数字可能会翻倍。

电能利用效率 PUE (Power Usage Effectiveness),是衡量数据中心能效的重要指标。它的计算方法很简单,就是用数据中心总耗电量,除以服务器耗电量。

2024 年,全球的平均 PUE 是 1.56。也就是说,只有三分之二的电能用在 GPU 计算上,三分之一消耗在了制冷、供电系统、和照明等等杂七杂八的地方。

从美国劳工统计局的统计图就能看出来,2021 到 2022 电费飙升。训练 GPT 的同时,正常居民用电已经被挤兑了。

就这,特朗普还砍了海上风电的项目,取消了太阳能和风能的税务减免,转而大力发展费时费力费钱的核电,甚至不惜放松环境管制。。。

没有电,科技巨头抢购来再吊的 GPU,也只能在机房落灰。而很快,它们面临的困境,将是更致命的过期。

比如,大伙儿对 AI 主流芯片的印象,可能还停留在前一阵子,你争我抢的 H100 和 A100。

但这几款芯片说实线 年以前发布的老东西,也就占了个产能的优势,根本不是现在最好最新的芯片。它们的后面,还有 23 年的 H200,24 年的 B200,25 年的 B300,都等着上桌呢。

这意味着,如果OpenAI库房里的 H100 还因为缺电迟迟跑不起来,它们可能会直接被 B200、B300 替代,永远没机会用上了。

这带来的不仅仅是浪费,还会影响AI 公司最在意的股价。要知道,AI 公司的股价估值,一定程度就建立在 GPU 数量、GPU 需求量的基础上。

底层逻辑是,按照现在的大模型规模定律,你用的 GPU 越多,模型越大,越好用,在市场上越有优势。这也是为啥一出买卖芯片的消息,几家科技巨头的股价就手拉手开涨。

良心点的做法,是到处修发电厂。像 OpenAI 和甲骨文在德州合建天然气发电厂,xAI 也在田纳西大力基建,结果把发动机都给搞缺货了,订单直接排到 2029 年后。

墨西哥、智利还有一些南非国家,都成了 AI 发展的输电泵。可这些地区电力供给本来就不发达,现在更是雪上加霜。

在爱尔兰,数据中心消耗了全国 20% 的电力,停电、耗水,都对当地居民生活和生态环境造成了影响。

甚至更离谱的,地球资源已经不够看了。最近,英伟达和谷歌都想把数据中心搬上太空,吃上天家饭。。。

只不过实验刚开始,不能保证效果好。电子器件会不会在太空加速老化,功率和散热能不能达到预期,训练完的数据怎么传回地面,成本控制等等,都是问题。

PPT 里芯片就是第一生产力,结果现实里是德州抢天然气、墨西哥抢地皮、窜上天和卫星抢身位。电闸一拉,谁都害怕。

阅读剩余
THE END