史上最贵“闲置产品”诞生:停电导致微软数十个GPU仓库落灰

AI世界最贵的“闲置物品”诞生了。价值数十亿美元的高端 Nvidia GPU 在微软仓库里积满灰尘。原因非常简单。因为没有电。最近,微软首席执行官 Satya Nadella 和 OpenAI 首席执行官 Sam Altman 做客 Brad Gerstner 的 BG2 采访播客。他们罕见地“暴露自己”,印证了这一令人震惊的困境。 “我们现在最大的问题不是算力,而是电力。事实上,我们库存里积累了大量的芯片,但没有可用的电力。”此言论一出,市场震惊。虽然每家公司仍然担心无法获得芯片,但拥有大量 GPU 的微软面临着一个更根本的问题:无法找到足够的“插槽”。从“缺算力”到“缺电”,AI的快速发展似乎正在撞上物理世界最困难的墙。仓库里堆满了货物ips,但找不到“插头”。长期以来,科技界普遍认为“算力”是人工智能发展的最大障碍。这就是微软和 OpenAI 等公司积极采购 GPU 的原因。但现在看来,他们跑得太快了。纳德拉在播客中承认,微软订购的芯片数量明显超出了其合同产能。 “在这种特殊情况下,根本不可能预测供需周期,”纳德拉说。 “我们最大的问题是电力以及在电源附近快速建立数据中心的能力。”所谓“暖壳”是一个商业地产术语,指基础设施完善、租户可以在其中“搬家”的建筑。也就是说,微软目前拥有足够的芯片和管理,但缺乏“住所”。这不仅仅是纳德拉先生的个人观点。微软首席财务官艾米·胡德 (Amy Hood) 在上周的财报电话会议上向分析师承认计算机硬件的采购并不是微软的瓶颈。 “我们缺乏的是空间和力量,”他补充道。 “这种情况已经持续了几个季度。我们以为我们可以恢复,但事实并非如此。需求持续增长。”财报数据显示,微软在2026财年第一季度在数据中心租赁方面投入了111亿美元。仅2025年,微软就将在全球范围内新增约2吉瓦的计算能力,使数据设施总数达到400多个。根据TD Cowen上个月发布的报告,2025年第三季度,美国最大的公司租赁的数据中心容量突破了纪录。大部分增长来自Oracle和OpenAI,但谷歌、Meta、微软、亚马逊和Anthropic也显示出计算能力的显着增长。上个月发布的标准普尔全球报告发现,到 2025 年底,美国各地数据中心的电网电力需求与 2024 年相比,各州的人口数量将增加 22%,到 2030 年,这一数字将增加两倍。人工智能太“耗电”且残酷。当软件巨头面临“艰难”挑战时,为何会出现这种情况?情况?答案很简单。与大型发电厂等重资产相比,芯片和代码是易于扩展和快速部署的技术。已经习惯了这两种技术的科技公司已经碰上了能源世界的“南墙”。过去十年,美国电力需求与供应基本持平。但在过去五年中,数据中心电力需求开始飙升,增长速度远远超过公用事业公司规划的新一代容量。这一趋势导致住宅公用事业成本上升,并表明人工智能基础设施的建设正在对日常生活产生负面影响。为此,OpenAI 呼吁联邦政府每年生产 100 GB,称其为美国的战略资产美国在与中国的人工智能竞赛中保持优势。它甚至需要增加发电能力(以瓦为单位)。这也迫使数据中心开发商寻找“离网”解决方案,即无需通过公共电网即可直接向数据中心供电的解决方案。也参与了播客对话的奥特曼认为,存在一个隐患。如果人工智能继续以惊人的速度发展,“每年将单位智能的成本降低40倍”,“从基础设施建设的角度来看,这种快速的变化确实令人震惊”。 OpenAI 的总监已经开始展望能源的未来。他个人投资了核裂变初创公司Oklo、聚变初创公司Helion和太阳能初创公司Exowat。廉价又饥饿:AI的“无限”胃口太阳能技术因其成本低、部署快、零排放等特点正在被科技公司采用,但要求建设时间与数据中心相同。事实上,目前订购的新型燃气轮机可能要到本世纪末才能交付。对人工智能的需求变化远远快于项目完成的速度。奥特曼承认,如果人工智能变得更加节能或者需求增长低于预期,一些公司可能会面临闲置的困境。然而,他本人似乎坚信杰文斯的悖论。该理论认为,更有效地利用资源将增加使用量,从而推动总体需求。 “假设明天每个智能单元的计算成本下降到 100,”Altman 说。 “我们将看到使用量增长超过 100 倍。到那时,许多计算能力应用程序将会出现爆炸式增长,而这些应用程序以目前的成本在经济上是不可行的。”换句话说,人工智能越便宜、效率越高,全球对它的需求就越大,对电力的渴求几乎是无限的。真正的风险:能源革命然而,在没有电子的情况下,电源的进步和变化给所有人工智能专业人士带来了重大挑战。它们还会使您面临重大风险。未来的能源革命可能会让今天的大规模能源投资变得过时。正如奥特曼在谈话中警告的那样:“如果非常廉价的能源形式迅速应用于大规模应用(例如核聚变),许多现有昂贵能源合同的公司将受到极大影响。”这次谈话还揭示了超大规模人工智能数据中心必须面对的另一个“定时炸弹”:本地化计算的兴起。想象一下奥特曼。 “有一天,我们将构建创新的消费设备,可以在本地以低功耗运行 GPT-5 或 GPT-6 级别的模型。”如果AI模型真正能够在个人电脑和手机上本地高效运行,那么科技巨头花费数千亿建设的海量AI数据中心的推理需求将永远不会消失。被满足。这位播客主持人很快评论道:“这当然令人惊讶,但对于那些投入巨资构建集中式计算集群的公司来说,这显然是一个担忧。”届时,这种情况可能会加速人工智能泡沫的破裂。当泡沫破灭时,近20万亿美元的庞大市值将面临风险。从“缺算力”到“缺电”,AI的发展显然已进入深海区。微软仓库中一块无法启动的昂贵芯片可能只是这一大规模转型痛苦的开始。 (辰辰)

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注