心智观察所:“所有人都在谈石油,但我觉得世界真正短缺的是Token”
心智观察所:“所有人都在谈石油,但我觉得世界真正短缺的是Token”
  • 2026-04-28 04:14:02
    来源:各奔前程网

    心智观察所:“所有人都在谈石油,但我觉得世界真正短缺的是Token”

    字体:

    【文/网 心智观察所】

    一个令人不安的信号开始在AI世界蔓延。你花几十美元订阅的AI服务,背后那家公司可能正在为“算不动”而焦头烂额。

    OpenAI悄悄放弃了一款视频生成应用Sora。这款产品上线仅五天,下载量就突破百万。公司CFO罕见地公开坦承:“我们在做一些非常艰难的交易,因为没有足够算力。”

    几乎同一时间,以代码能力爆红的Claude开始频繁宕机。过去三个月,它的正常运行时间只�.95%,而互联网服务通常承诺的�.99%。大量企业用户被迫迁移,一位CEO说:“Anthropic一直在宕机。”

    价格也在疯涨。在云端租用英伟达最新款Blackwell芯片,一小时的价格从两个月前񊄪.75美元跳𳗤.08美元,涨幅接近一半。就�年发布的“老将”H100,半年内的租赁价也涨了将�%。

    云基础设施公司Vultr的CEO J.J. Kardwell说:“我经营这家公司五年多,从来没遇到过这么严重的容量短缺。”

    这是一场产业级别的系统性危机。AI的算力泡沫被刺破了,而刺破它的不是需求下滑,恰恰相反,是需求大到供给根本追不上。

    Token:一种比石油更紧缺的新资源

    认识一下新单位:Token,中文叫词元。

    你可以把它想象成AI的“呼吸”。每一次你向AI提问,让它写代码、画图、查资料,背后都在消耗Token。任务越复杂,呼吸越急促,消耗就越大。如果你只是问“今天天气怎么样”,AI可能喘几口就行。但如果你让它帮你整理一周的工作日志、写一份竞品分析报告,它得深呼吸几百上千次。

    过去几个月,全球Token消耗量出现了一种让人眩晕的增长曲线。

    OpenAI面向企业客户的API平台,Token调用量��月的每分�亿,飙到�𻂋月底的每分�亿。五个月,翻了两倍半。

    摩根士丹利的统计更吓人。全球每周Token使用量,2026𻂉月还𿷜.4万亿,𳗣月已经冲�.7万亿。三个月,三倍多。

    这场海啸的推手是谁?答案是智能体AI。

    以前的AI像个问答机器,你问它答,一锤子买卖。�年初,以OpenClaw为代表的智能体工具登场了。AI从“回答问题”升级到了“执行任务”:它可以自己打开文件夹,阅读文档,调用软件,填写表格,发送邮件。一个完整任务往往需要AI反复琢磨,调用七八种工具,在多个步骤之间来回切换。单次任务的算力消耗,比简单问答高出数倍甚至数十倍。

    工程师兼投资人Ben Pouladian总结得很精准:“所有人都在谈石油,但我觉得世界真正短缺的是Token。AI早就不是站在冰箱前面问菜谱的那个聊天机器人了。它在编排任务,它在变聪明。”

    需求端烈火烹油,供给端呢?

    三道墙:制造,电力,水泥

    如果你觉得“算力不够”只是芯片下单太少,那就把事情想简单了。

    第一道墙,芯片制造。

    英伟达的GPU是AI时代的发动机。但发动机不会从天上掉下来。它得在台积电的晶圆厂里,靠荷兰ASML的天价EUV光刻机,一层一层刻出纳米级的电路。

    EUV光刻机一年只产几十台,交付排队时间超过十八个月。高端GPU离不开的HBM高带宽内存,产能同样有限,扩张节奏远远跟不上需求的脚步。摩根士丹利的预测很直接:当前AI算力需求的增速,是英伟达供给增速的三倍。

    换句话说,就算英伟达把生产线拉到满,供需之间的口子还在继续撕大。

    第二道墙,电力。

    AI的尽头是电,这句话一点不夸张。

    一台装满GPU的服务器机柜,跑起来的功耗抵得上十几台家用空调同时运转。一个大型数据中心,每天吞掉的电够一座小型城市用。美国电力研究院算过一笔账:2025�年间,美国数据中心面临的电力缺口大约�吉瓦。55吉瓦什么概念?将近二十座大型核电站的发电量。

    正因如此,Meta这样的科技巨头已经开始跨界投核电了。云服务商们也承认,“2026年的可用电力已经全部被预订光了”。

    第三道墙,水泥和工期。

    有芯片,有电力,还得有地方放它们。这个地方叫数据中心。一个标准数据中心的建设周期是两到三年。

    巨头们正在疯狂砸钱。2026年,微软、谷歌、Meta、亚马逊四家公司的资本开支加起来�亿美元,比上一年猛�%。但钱再多也缩短不了水泥的凝固时间。有一个投�亿美元的数据中心项目,甚至因为配套基础设施跟不上,直接被取消了。

    制造、电力、水泥,这三样东西构成了AI产业真正的物理边界。算法可以指数级优化,一行代码的事。但物理世界的扩张是线性的,快不起来。当指数级的增长曲线迎面撞上线性的供给曲线,危机就来了。

    谁掌握Token,谁制定规则

    稀缺会重新分配权力。

    云服务商CoreWeave是这轮算力荒里的典型赢家。去年底,它把GPU租赁价格上调超�%,还要求中小客户签下至少三年的长约,以前一年就够了。即便如此,美国银行的判断依然是:它的需求将超过供给,至少持续�年。

    算力的定价权正在转移。光有GPU不够,谁能把芯片、电力、机柜、网络打包成“插电即用”的服务,谁就站到了产业链更有利的位置上。

    这个逻辑也能解释阿里近期的激进动作。

    2026𻂋月,阿里成立了一个新事业群,名字就叫Alibaba TokenHub,简称ATH。通义大模型、MaaS平台、C端应用千问、企业智能体悟空,全部塞进去,由集团CEO吴泳铭直接指挥。内部人士说,这次调整的核心逻辑就是一句话:“大家围绕Token去做。”

    吴泳铭抛出了一个野心十足的目标:未来五年,“AI加云”的收入要做�亿美元。这意味着云业务的年复合增长率要维持�%左右。全球范围内,还从来没有哪个同等体量的云厂商跑出过这种速度。

    但账本的另一面同样刺眼。2025年四季度,阿里Non-GAAP净利润同比下�%,自由现金流从正变成负。核心电商业务的增速只𳠛%,却要同时养活AI和即时零售两条烧钱战线。一位机构投资人评价得很克制:“阿里需要兼顾的战场太多了。远场电商对拼多多,近场电商对美团。主营业务没法提供无限的弹药。”

    内部的算力调配也露出了问题。春节期间,阿里集团层面的算力利用率只有五成。原因很典型:各个团队为了“有备无患”拼命多申请,结果账面上看资源充裕,真正要用的时候却调度不开。此前大模型负责人周畅转投字节跳动,据内部人士透露,压垮他的其中一根稻草就是“协调不到足够算力”。

    中美两国的算力焦虑是同步的,但底色不同。

    美国的问题主要出在物理供给上。制造产能、电力、土地,三重约束叠在一起。中国除了这些,还多了一层GPU进口受限的结构性压力。据估算,中国AI GPU的自给率�年的不�%爬到�年�%左右,但想达�%,大概要等�年。未来两年,国产替代仍然在追赶的窗口里。

    各家出手的力度也不同。字节跳�年资本开支大�亿元,其�亿砸向AI算力。阿里宣布未来三年投�亿元建设AI基础设施。腾讯相对克制,资本开支只增加𱄿%。市场在猜测,这是买不到卡,还是不愿意高价买。

    【纠错】【责任编辑:最年轻MVP】