更新时间:2026-01-22 07:03 来源:牛马见闻
与此同时03 AI泡沫之辩 OpenAI的现状与此同时
<p></p> <p>2026年1月的第三周,全球科技界被OpenAI抛出的两个重磅消息)震动(。这两个消息看似独立,实则像一枚硬币的两面,精准地勾勒出整个行业极度分裂的生存状态。</p> <p>第一面是“极致的扩张”。1月14日,<strong>OpenAI宣布与芯片独角兽Cerebras达成一项价值超过100亿美元的战略合作</strong>,后者将在2028年前向其交付750兆瓦的专用于AI推理的计算能力。这笔交易不仅是OpenAI在英伟达生态之外最大规模的算力押注,更标志着其对算力的渴求已突破单一供应商的承载极限。紧接着,OpenAI在其官方博客中披露,公司年化收入已在2025年突破200亿美元,相比2023年的20亿美元增长了10倍,而这一增长曲线与其算力规模的扩张(3年内增长9.5倍)几乎完全吻合。这清晰地表明,算力即收入,扩张即生命。</p> <p>第二面是“现实的焦虑”。仅两天后的1月16日,<strong>OpenAI宣布计划在美国测试ChatGPT广告业务</strong>。这一举措标志着这家曾高举“硅谷理想主义”旗帜的公司,在巨大的财务压力下,不得不向商业现实低头。尽管OpenAI的CFO将此举描述为“让智能更普惠”的多元化收入模式的一部分,但其背后无法掩盖的是泄露的财务数据所揭示的严峻现实:OpenAI的推理成本已超过收入,<strong>用户用得越多,公司亏损越快。</strong>广告业务的推出,是在其累计高达1.4万亿美元的基础设施承诺面前,一次补救现金流的无奈尝试。</p> <p><strong>OpenAI的矛盾处境是整个AI行业的缩影。</strong>一方面,是基于真实需求和技术突破的产业共识与资本狂欢;另一方面,是摇摇欲坠的商业模式与系统性的财务风险。这种矛盾,会带领全球算力产业走向何方?</p> <p>01</p> <p><strong>OpenAI的帝国游戏</strong></p> <p>长期以来,英伟达凭借其H100/B200系列GPU垄断了高端AI训练与推理市场。然而,随着以OpenAI为首的AI巨头对算力的需求呈指数级增长,以及对成本控制的日益迫切,这种单极格局正在被打破。</p> <p><strong>此次OpenAI与Cerebras的百亿美元级合作,其核心逻辑在于Cerebras独特的晶圆级系统技术路径。</strong>与传统GPU需要通过复杂的互联技术将数千个芯片连接成集群不同,Cerebras在一块完整的晶圆上集成了高达4万亿颗晶体管,形成一个单一的、巨大的处理器。这种革命性的架构设计,使其在处理大规模AI推理任务时,响应速度大大超过传统的GPU系统。</p> <p>对于正努力将ChatGPT等产品商业化落地的OpenAI而言,这笔订单的战略意义远超扩充算力池本身,它直指大模型商业化的核心痛点——在高并发请求下实现低延迟、低成本的推理服务。OpenAI基础设施负责人Sachin Katti明确指出:“算力是衡量OpenAI收入潜力的最关键因素。” 这笔交易正是OpenAI有意识地寻找低延迟、高性价比推理解决方案以加速商业化的关键一步。</p> <p>事实上,<strong>OpenAI正在构建一个“哑铃型”的芯片采购结构。</strong>在对性能要求极致的高端训练端,它继续依赖英伟达的顶级GPU以确保模型能力的边界突破;但在规模更为庞大、对成本和延迟更敏感的推理端,则激进地引入Cerebras、谷歌的TPU以及自研的ASIC进行分流。早在2025年6月,OpenAI便打破常规,开始租赁谷歌的TPU芯片。根据产业数据,谷歌TPU在推理场景下的能效是GPU的2倍以上,而训练成本仅为英伟达方案的20%。此外,OpenAI与博通合作的自研AI推理芯片项目也在稳步推进,该芯片采用台积电的3纳米先进工艺,预计将在2026年投入生产。</p> <p>这一系列动作清晰地表明,<strong>全球最顶级的AI公司正在形成“英伟达芯片+替代芯片”的双引擎战略。</strong>摩根士丹利预测,受此趋势影响,英伟达在AI芯片市场的份额可能从目前约80%的高位下降至60% 。这一份额变动并非单纯的市场波动,而是半导体产业从“通用GPU”主导,向“训练通用化、推理专用化”架构演进的明确信号。推理市场的巨大蛋糕,正在被Cerebras、谷歌TPU、OpenAI自研芯片以及AMD等追赶者加速瓜分。</p> <p>同时,<strong>OpenAI对半导体产业的驱动力,不仅体现在芯片采购的多元化上,更体现在对数据中心等基础设施的巨量投入中</strong>,这场投入的规模之大,已经催生了半导体与能源产业的深度绑定。</p> <p>截至目前,OpenAI已承诺从甲骨文、Crusoe、CoreWeave、英伟达、AMD及博通等供应商处获取超过26吉瓦(GW)的算力资源。这一能耗规模相当于一个中等国家的电力需求,使得“电力”本身成为比芯片更为稀缺的战略资源。微软CEO萨提亚·纳德拉曾坦言,“我们不缺AI芯片,但缺电力”,大量GPU因无法获得稳定的电力供应而闲置。这场基础设施战争,本质上是一场能源战争。</p> <p>在这一轮建设中,<strong>Crusoe与OpenAI的合作最具代表性。</strong>Crusoe位于德州阿比林的数据中心项目已扩展至1.2吉瓦的庞大规模,分阶段建设8栋楼宇,单栋可支持5万块英伟达GB200 NVL72芯片。该项目的关键创新在于尝试解决制约AI发展的“缺电”瓶颈。通过与能源技术公司Lancium合作,Crusoe整合了大规模后备电池储能、太阳能资源,并结合天然气涡轮机作为备用,构建了一个能源自给型的算力基地。这种设计让Crusoe成为解决OpenAI“电力瓶颈”难题的关键基础设施商,直接将闲置的GPU转化为可用的算力。</p> <p>与此同时,<strong>算力租赁商CoreWeave也在激进扩张。</strong>这家公司已在全球32个数据中心部署了超过25万块英伟达GPU,并已锁定1.3吉瓦的电力容量。CoreWeave与OpenAI签署了总价值高达224亿美元的合作协议,其中包括2025年9月新增的65亿美元协议。这种体量的合同不仅支撑了CoreWeave上百亿美元的估值,<strong>更固化了“芯片-数据中心-云服务”的重资产投入模式</strong>。</p> <p>微软与甲骨文的动作则更为宏大。作为OpenAI最重要的合作伙伴,微软已为其部署了40万块GB200 GPU,总云服务承诺据报道已飙升至2500亿美元 。甲骨文则签下了年度300亿美元的数据中心协议,并计划在美国多州建设4.5吉瓦的额外电力容量以满足需求 。</p> <p>这些惊人的数据表明,<strong>半导体产业链的价值重心正在下沉</strong>——从单纯的芯片设计与制造,延伸至包含电力管理、液冷散热、超大规模集群调度在内的综合基础设施领域。未来的竞争,将不仅是芯片性能的竞争,更是对能源、土地和综合工程能力的全面竞争。</p> <p>02</p> <p><strong>AI行业的财务现实</strong></p> <p>在宏大的采购与基建数据背后,<strong>OpenAI乃至整个AI行业的财务报表揭示了产业链面临的潜在系统性风险</strong>。根据微软泄露数据,2025年上半年OpenAI营收仅43亿美元,同期的推理成本已经超过收入。这不是简单的亏损问题,而是商业模式根本性的倒悬——用户越多,公司亏损越快。</p> <p>汇丰银行的分析预测,OpenAI在2026年的现金消耗将达到170亿美元,较2025年的90亿美元几乎翻倍。按照当前的商业轨迹,到2030年,OpenAI的累计租赁成本将高达7920亿美元,到2033年更是升至惊人的1.4万亿美元。这意味着,<strong>即使OpenAI在2030年实现1300亿美元的营收,仍需额外筹集巨额资金来弥补缺口。</strong></p> <p>这种“推理成本倒挂”的现象,深刻解释了为什么OpenAI急于引入Cerebras和TPU等替代方案,并匆忙上线广告业务。为了维持运转,<strong>OpenAI采取了激进的“供应商融资”模式</strong>,即通过签署长期的巨额采购承诺(如对微软的2500亿美元承诺、对甲骨文的3000亿美元承诺)来换取当下的资源投入。这种模式将半导体供应链与OpenAI的商业前景紧密绑定。甲骨文的300亿美元协议要到2028财年才开始计入收入,这意味着供应商不仅是在卖产品,更是在对OpenAI未来的支付能力进行风险投资 。</p> <p>更令人担忧的是,<strong>这种风险正在通过金融工具被放大并扩散。</strong>摩根士丹利估计,到2028年,全球数据中心建设将耗资2.9万亿美元,其中一半需要通过外部融资解决 。这催生了私人信贷、高收益“垃圾债”等影子银行工具的爆炸式增长。例如,Meta已从私人信贷市场借款290亿美元建设数据中心。据摩根大通统计,AI相关行业已占美国投资级债务的15%,超过了银行业。一个危险的“债务金字塔”正在形成,<strong>一旦头部AI公司因商业化失败而违约,其风险将通过这些复杂的金融工具迅速传导至整个信贷市场,引发连锁反应。</strong></p> <p>03</p> <p><strong>AI泡沫之辩</strong></p> <p>OpenAI的现状,成为了全球关于“AI泡沫”激烈辩论的风暴眼。这场辩论的核心,是供给侧的坚定信心与需求侧的深层忧虑之间的对撞。</p> <p><strong>供给侧的信心,源于全产业链的集体行动。</strong>支撑这场乐观主义的,首先便是位于产业链最上游的晶圆代工巨头——台积电所投下的“终极信心票”。在2026年1月15日的法说会上,<strong>台积电宣布了创历史纪录的资本支出计划</strong>,预计2026年将投入520亿至560亿美元,较2025年的409亿美元大幅增长27%至37% 。这一数字不仅远超市场预期,更重要的是其资源投向:其中高达70%-80%将用于3纳米、2纳米等最先进的制程技术,直接服务于英伟达、AMD、苹果等AI芯片巨头的下一代产品。</p> <p><strong>头部云服务商的业绩也是衡量真实需求的指标。</strong>微软在2026财年第一季度的报告显示,其Azure云服务收入同比增长高达40%,报告明确指出增长由“AI工作负载”驱动 。无独有偶,Google Cloud的Gemini模型的API调用量在短短五个月内翻了一番,达到850亿次 。这些不再是遥远的预测,而是已经计入资产负债表的真实收入。</p> <p><strong>与此同时,资本市场的狂热仍在继续</strong>。除了OpenAI高达8000亿美元的估值,马斯克的xAI在2026年1月完成了200亿美元的E轮融资,估值达到2500亿美元 。OpenAI的主要竞争对手Anthropic,更是在短短四个月内估值翻倍,以3500亿美元的估值寻求超过250亿美元的新一轮融资 。这种跨地域、跨公司的资本注入,反映了全球投资者对AI长期价值的普遍看好。</p> <p><strong>需求侧的担忧,则来自系统性的结构风险。</strong>OpenAI“烧钱模式”的困境并非个例。数据显示,中位数的A轮AI公司每获得1美元的新收入,需要消耗高达5美元的现金 。更令人警醒的是,麻省理工学院的一份报告指出,<strong>高达95%实施生成式AI工具的组织,其投资回报为零。</strong>这揭示了一个致命问题:当前AI的价值创造能力,远不足以支撑其巨大的运营成本。</p> <p>对泡沫的担忧不再是外部观察家的杞人忧天,而已成为行业内部的共识。包括Google CEO桑达尔·皮查伊、亚马逊创始人杰夫·贝索斯在内的多位科技巨头领袖,都公开承认AI行业存在“非理性因素”和“泡沫”。“AI教父”之一的约书亚·本吉奥更是直言:“我们很可能会撞上一堵墙……那可能是一场真正的金融崩溃”。微软CEO萨提亚·纳德拉也表达过对AI泡沫的紧张。</p> <p>04</p> <p><strong>决定命运的24个月</strong></p> <p><strong>OpenAI与全球半导体产业的命运已被紧密绑定。</strong>基于当前的财务模型和产能规划,市场终局将在未来24个月内见分晓,并导向两种极端:</p> <p>其一,如果头部AI公司无法证明商业模式的可持续性,数千亿美元的基础设施合同将面临违约,信贷市场连锁爆炸,台积电等晶圆厂的巨额产能将严重过剩,全球半导体行业营收可能从2025年的7000亿美元量级暴跌至4000亿美元以下。</p> <p>其二,如果AI公司们能通过广告、企业服务及更高效的芯片组合实现“软着陆”,半导体产业将迎来黄金时代,ASIC化和定制芯片将真正普及,能源与基础设施将成为新的核心竞争力,AI也将从“烧钱”的工具转变为驱动全球经济的核心引擎。</p> <p><strong>当前,整个AI行业正行走在钢丝之上。</strong>未来两年,OpenAI能否将ChatGPT的近10亿用户转化为可持续的收入,能否将推理成本压缩至可控范围,这些问题的答案,不仅决定了它自身的存亡,更将决定全球科技产业未来五年的走向。时间已经开始倒数,而赌桌上的每一个筹码,都价值千金。</p> <p></p>
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901