Litecoin

AI时代,Token供需战争的终极推演

2026/04/29 03:07
👤ODAILY
🌐zh-Hans

最强模型正在变成少数人的武器

AI时代,Token供需战争的终极推演

视频标题:The Supply and Demand of AI Tokens | Dylan Patel Interview

视频作者:Invest Like The Best

编译:Peggy,BlockBeats

编者按:在 AI 模型能力持续跃迁、Claude Code、Cursor 等工具被企业大规模接入的背景下,行业讨论正在从「模型有多强」转向「模型如何进入生产」。但当 AI 编程、自动化分析和数据建模逐渐成为新的共识,一个更底层的问题开始浮现:当执行成本被快速压低,真正稀缺的究竟是人力、资本,还是对前沿模型和 token 的使用权?

左为主持人 Patrick O'Shaughnessy,右为 Dylan Patel

本文整理自 Patrick O'Shaughnessy 与 SemiAnalysis 创始人 Dylan Patel 的一场对谈。Dylan 长期关注 AI 基础设施、半导体供应链与模型经济学,在这场对话中,他从自身公司 Claude Code 支出暴涨出发,讨论了 AI 如何改变企业组织、信息服务、token 需求、算力供应链以及社会情绪。

这场对谈最值得关注的,不是某个模型又一次刷新 benchmark,而是它提供了一种理解 AI 经济的方式——把 AI 看作一种正在重新分配执行能力、组织效率和产业利润的生产系统,而不只是一次软件工具升级。

这场对谈大致可以从五个角度理解。

首先,是执行成本被打穿。 过去,想法并不稀缺,真正困难的是把想法变成产品、系统和可交付服务。现在,Claude Code 让非技术人员也能写代码、搭应用、做数据分析,原本需要一个团队长期维护的工作,开始由少数人借助模型完成。SemiAnalysis 的 Claude Code 年化支出已经达到 700 万美元,超过其薪资支出的四分之一,这说明 AI 不再只是提效工具,而正在变成企业新的生产资本。

其次,是信息服务行业最先被重写。 Dylan 所在的业务本质上是出售分析、咨询和数据集,而这正是最容易被 AI 商品化的领域。芯片逆向分析、能源电网建模、宏观经济指标搭建,过去可能需要一个团队长期投入,现在可以由少数人在几周内搭出可用产品。这意味着,AI 对信息服务公司的压力不是「是否会替代人」,而是「谁能更快重做同行的产品」。不采用 AI 的公司会被更快的公司商品化,而采用 AI 的公司也必须持续提高标准,避免被下一批更高效的竞争者反向替代。

更深一层,是 token 正在变成新的生产资料。 过去企业购买软件订阅,核心问题是工具是否好用;现在,前沿模型的访问权、rate limit、企业合同和 token 预算,开始直接决定生产能力。越强的模型并不一定意味着更高成本,因为更聪明的 token 可能用更少步骤完成更高价值的任务。真正的竞争,正在从「谁使用 AI」转向「谁能拿到最强模型,并把最昂贵的 token 用在最高价值的场景」。

这种需求还会继续传导到整条供应链。 token 使用量暴涨,最终会变成对 GPU、CPU、内存、FPGA、PCB、铜箔、半导体设备和晶圆厂资本开支的持续压力。文中提到的「牛鞭效应」正是这一逻辑:下游看似只是模型调用需求增加,传到上游却可能变成数倍放大的订单、扩产和涨价。AI 产业的利润分配因此不会只停留在模型公司和 NVIDIA,而会沿着半导体与数据中心供应链继续外溢。

最后,是 AI 的社会反弹可能提前到来。 当 AI 真正进入工作流,公众对岗位替代、能源消耗、数据中心扩张和权力集中的担忧也会同步上升。Dylan 甚至预测,三个月内可能出现针对 AI 的大规模抗议。对模型公司来说,继续强调「AI 将改变世界」未必能缓解焦虑,反而可能强化普通人对失控感的想象。AI 行业接下来需要证明的,不只是技术能力,而是它如何在当下创造具体、可感知的公共价值。

如今,AI 的核心问题,正在从「模型能做什么」转向「谁能获得模型、如何使用模型,以及谁能捕获模型创造的价值」。在这个意义上,本文讨论的对象已经不只是 Claude Code、Anthropic 或某一家 AI 公司,而是一场围绕生产力、资本开支、组织效率和社会接受度展开的结构性重排。

以下为原文内容(为便于阅读理解,原内容有所整编):

TL; DR

·AI 的核心变量正在从「能不能做」转向「值不值得做」,执行成本骤降后,真正稀缺的是能被模型放大的高价值想法。

·Claude Code 支出占薪资成本 25% 只是开始,AI 正从软件工具变成企业新的生产资本。

·前沿模型的竞争不再只是能力竞争,而是 token 获取权竞争;谁能更早、更稳定地拿到最强模型,谁就可能形成新的商业壁垒。

·信息服务行业会最先被 AI 重构,因为数据、分析和研究的生产成本正在快速下降,慢公司会被更快的公司商品化。

·Token 需求不会因为旧模型降价而放缓,因为每一次模型变强,都会释放新的高价值用例,并把用户推向更贵的前沿模型。

·AI 带来的最大变化不是让人少工作,而是让少数人用同样时间完成数倍产出;不能创造并捕获 token 价值的人,会被锁在「永久底层」。

·算力短缺正在向整个半导体供应链扩散,从 GPU、CPU、内存到 PCB、铜箔和设备厂商,AI 需求已经变成全产业链的价格推力。

·AI 的经济价值很难被传统 GDP 捕捉,真正的问题不只是模型公司赚了多少钱,而是 token 生成的决策、效率和连锁影响究竟创造了多少「幽灵 GDP」。

访谈原文:

Claude Code 成了新劳动力

Patrick O'Shaughnessy(主持人):

你之前跟我讲过一个很精彩的故事,是关于你们团队今年在 token 使用量上的巨大变化。你能再讲一遍吗?它让你对这个世界正在发生什么有了什么理解?

Dylan Patel(SemiAnalysis 创始人):

去年,我们以为自己已经是 AI 的重度用户了。每个人都在用 ChatGPT,每个人都在用 Claude,我也给团队提供他们想要的各种订阅。那时候,公司在这方面的支出大概是几万美元级别。

但今年,支出开始飙升。真正的起点大概是在去年 12 月底,随着 Opus 的出现。这里面也包括 Doug,也就是我们的总裁 Douglas Lawler。他基本上是在带头推动非技术人员用 AI 写代码。可以说,他一点点把整个公司都带进去了。当然,工程师本来就在用,但从今年 1 月开始,我们的支出明显拐头向上,然后迅速爆发。

我们后来和 Anthropic 签了企业合同。上次我跟你聊的时候,我们的年化支出大概是 500 万美元;现在已经到了 700 万美元。

Patrick O'Shaughnessy:

而且那还是上周的数字。

Dylan Patel:

对,其中很大一部分就是使用量本身。真正有意思的是,以前从来没写过代码的人,现在也在用 Claude Code,而且有些人一天就能花掉几千美元。但从公司整体来看,我们现在每年在 Claude Code 上的支出已经到了 700 万美元,而我们的薪资支出大概是 2500 万美元。也就是说,Claude Code 的支出已经超过薪资支出的 25%。

如果这个趋势继续下去,到年底它甚至可能超过薪资总额的 100%。这有点吓人。幸运的是,我现在并不需要在「人」和「AI」之间二选一,因为公司增长很快。更像是:我不需要那么快招人,但可以在 AI 上花更多钱,而且它确实有效,公司也能增长得更快。

但我觉得,其他公司迟早也会开始面对这个问题:如果一个人用 Claude Code 就能完成 5 个、10 个、甚至 15 个人的工作,那接下来怎么办?第一,可能确实应该裁人;第二,目前这些使用场景又非常广泛。

举个例子,我们在俄勒冈有一个逆向工程实验室,已经建设了一年半。里面有很多高端设备,比如显微镜、扫描电子显微镜。这个实验室的核心用途是逆向分析芯片,提取芯片架构,分析其制造所使用的材料。这些也是我们出售的数据之一。

但分析这类数据过去是一个非常缓慢的过程。现在,我们团队里有一个人,只花了几千美元的 Claude token,就做出了一个应用。这个应用可以进行 GPU 加速,跑在我们放在 CoreWeave 的服务器上。我们只要发给它一张芯片图片,它就能自动在图像上标出每一种材料的位置:这里是铜,这里是钽,这里是锗,这里是钴。然后你就可以非常快速地对整个芯片堆叠结构进行有限元分析,而且是可视化的,还有完整的图形界面和仪表盘。

这个人以前在英特尔工作过,他说,在过去,这本来是一个完整团队要做和维护的事情。现在类似的事情放到整个公司来看,简直不可思议。

还有一个我觉得特别有意思的例子,是 Malcolm。他以前是一家大银行的经济学家。那家银行的经济学部门可能有 100 到 200 人。他现在做出来的东西非常惊人。

他把各种数据都接了进来,包括 FRED 数据、就业报告,以及其他来自不同 API 的数据集。我们也和一些数据供应商签了合同,拿到了 API 访问权限。然后他把所有数据拉进来,开始跑回归,分析不同经济变化对经济的通胀或通缩影响。

美国劳工统计局有一整套任务分类,大概有 2000 项任务。Malcolm 用 AI 去评估:哪些任务现在可以由 AI 完成,哪些不能,并按照一套 rubric 给它们打分。结果显示,大概有 3% 的任务现在已经可以用 AI 完成。

于是他创造了一个指标,用来衡量哪些事情可以被 AI 完成,以及当这些事情被 AI 完成时,会带来多大的通缩效应。产出可能会上升,但因为成本下降得太厉害,理论上 GDP 反而可能收缩。他把这个叫作「Phantom GDP」(幽灵 GDP)。

他基于这个概念做了一整套分析,还建立了一个全新的语言模型 benchmark,包含大约 2000 个 eval。

Patrick O'Shaughnessy:

这些都是他一个人做的?

Dylan Patel:

对,全部是他一个人做的。他跟我说:「兄弟,这在以前得是一个 200 人的经济学家团队花一年时间才能完成的事。」他现在完全沉浸在 Claude 里,说一切都变了。

Patrick O'Shaughnessy:

作为一个企业经营者,你怎么理解这件事?你们从几乎没有这项支出,变成现在它已经接近薪资支出的 25%,而且还在继续上升。到了什么节点你会觉得:等等,我是不是该踩刹车了?是不是该控制一下支出?也许我们不需要总是用今天刚发布的最前沿模型,比如 Opus 4.7,而是可以换成更便宜一点的模型?

Dylan Patel:

归根结底,我做的是信息生意。我们卖的是分析,做咨询,也创建数据集。我看不到有什么理由认为这些东西不会在相当快的速度下被完全商品化。

如果我不持续改进,我最早卖的第一个数据产品,现在已经有更多人开始做类似的事情了。我们之所以还能卖出去,是因为我们不断把它做得更好、更细。但我们在 2023 年做这件事的方式,其实和现在其他人正在做的方式已经没有特别大的区别了。如果我不继续提高标准,我就会被商品化。如果我动作不够快,我也会失去优势。

所以问题是:是的,AI 会商品化很多东西,就像它正在商品化软件一样。但那些行动足够快、能掌握客户关系、持续提供优秀服务并不断改进服务的人,不会萎缩,反而会增长得更快。那些无能、什么都不做的人会输。

所以这其实有点像一个生存问题:如果我不采用 AI,别人就会采用,然后他们会打败我。

另一个很简单的例子是能源领域。我们过去一年左右一直有几位能源分析师,试图搭建一个能源模型。这个模型非常复杂,而能源数据服务市场大概有 9 亿美元规模,所以它显然是一个我很想进入的巨大市场。但尽管我们团队已经有人做了一年,我们其实并没有真正切入能源数据服务业务。

然后,「Claude Code 精神病」来了。我们有一位负责数据中心能源与工业业务的人,叫 Jeremy。他开始使用 Claude Code 之后,情况突然变了。三周时间里,他花了很多钱,一天大概能花 6000 美元,确实非常夸张。但他抓取了美国每一座发电厂、每一条高于某个电压等级的输电线路,并从各种公开数据源里建立了整个美国电网的地图,同时还接入了很多需求侧数据。

我们把它做成了一个仪表盘,可以查看和分析美国各个微区域的电力短缺和过剩情况,以及很多细节。这个东西几周之内就搭起来了。

后来我们把它展示给一些已经购买我们数据中心数据集的客户,其中也包括能源交易员。他们看完之后说:「哇,这个做了多久?这很不错,比某某公司还好。」然后我们进一步了解,发现那个「某某公司」有 100 个人,已经在这件事上做了十年。

当然,我们现在的产品还没有他们那么完整、那么稳健,但在某些方面,它已经更好了。所以我现在是在商品化这些能源数据服务公司。但反过来,如果我不跑得更快,谁又会来商品化我?

所以,从企业主的角度看,问题不是「我是不是花了很多钱」。是的,我确实花了很多钱。但问题是,这些钱给我带来了什么?它有没有带来更多收入?如果答案是有,那这笔钱就是值得的。

Patrick O'Shaughnessy:

你会不会担心,到最后,那些控制资本、负责投资资本的人,也就是那些经常因为你们做的事情而雇佣你们的人会说:「我们自己也有分析师,而且他们也很聪明,我们干脆自己做不就好了?」如果这件事变得这么容易,那么在什么节点上,它会不会全部回流到投资机构内部?毕竟它们最有可能从这些数据和洞察中获得最大杠杆。

Dylan Patel:

首先,任何信息服务业务本质上都是这样:我从一条信息中获得的价值,显然没有客户从这条信息中获得的价值大。

如果我以 1 美元的价格把信息卖给你,你之所以愿意花这 1 美元买,是因为你知道这条信息能帮助你做出一个决策,而这个决策能让你赚到超过 1 美元。也就是说,你获得了套利机会。你从我这里赚到的钱,比我通过卖这条信息赚到的钱更多。

投资基金本身当然也有自己的信息服务能力。尤其是像 Jane Street、Citadel 这类机构,它们在数据方面非常细,非常深入。但这些机构依然会购买我们的数据,而且还在继续购买,并且和我们的合作还在增长。

我觉得这里面有某种「it factor」。我们行动更快,更灵活,团队更小,而且专注在一个非常具体的领域:AI 基础设施,以及它所引发的巨大变革,包括 AI、token 经济和相关的一整套东西。我们能更早看到方向,也能更快搭建东西。

所以,投资专业人士当然会尝试自己做一些我们做的事情。但更多时候,他们会直接购买我们的数据,然后在此基础上继续构建。对他们来说,买我们的数据再往上做,通常比自己从零开始搭建更便宜。当然,最终肯定也会有人尝试自己做。

Token 变成新的生产资料

Patrick O'Shaughnessy:

我觉得每次和你聊天,我最后都会回到同一个问题:token 的供给和需求。现在世界上最让我感兴趣的就是这个。你自己的这些经历,让你对需求侧有什么新的理解吗?当你自己非常切身地感受到这一点之后,你对 token 需求这件事的判断有变化吗?

Dylan Patel:

如果我们退一步,从宏观角度看,Anthropic 的 ARR 可能已经从 90 亿美元增长到 350 亿、400 亿美元左右。等这期节目播出的时候,也许已经到了 400 亿到 450 亿美元。

但它们的算力增长并没有达到同样的幅度。如果你算一下,并且假设它们没有减少研发算力——它们显然没有减少,因为它们还在发布新模型,比如 Metis、Opus 4、Opus 4.7——那就说明一件事:它们新增的算力,即使全部都投向推理,它们的毛利率下限也在 72% 左右。

现实中,一部分新增算力很可能也进入了研发,所以它们实际毛利率可能还高于 72%。要知道,今年年初有人泄露过它们融资文件中的一部分信息,当时显示的毛利率大概只有 30% 多。

一个业务到底怎么才能在这么短时间里把毛利率提升到这种程度?原则上,是因为需求太高了。它们可以收紧使用额度、速率限制以及各种限制。真正重要的是,你要有 Anthropic 的客户经理,要有企业合同,并且能获得你需要的 rate limit 提升。否则,token 最终一定会变得极度抢手。

谁付得起,谁就能拿到。Anthropic 面对的也是同样的问题——当然这不算问题,这只是资本主义运作方式的现实。是的,客户每年可能会向它们支付 400 亿美元的 token 费用,但这些 token 在客户那里创造的价值,远远超过 400 亿美元。

不同企业每个 token 所创造的价值不同。但随着模型越来越智能,真正重要的就变成了:谁能获得这些最智能的 token,并把它们用在最有价值的事情上。

作为一个人,你要决定的是:怎样使用这些 token,才能增长业务、创造价值。很多人都会想要 token,也会消耗 token。但那些在旧金山用 Claude 生成软件产品的普通 SaaS 创业公司,未必真的创造了巨大价值。所以迟早,它们会被 token 价格挤出去。

Patrick O'Shaughnessy:

我今天在飞来的路上就遇到了这个情况。Opus 4.7 一发布,我立刻就想用 4.7,而且是马上用。结果我被限流了,根本用不了。我甚至已经没法再想象继续用 4.6 了,虽然过去几周我一直很满意 4.6,它明明已经很强了。

你会惊讶于人们这么执着地想使用最贵、最前沿的模型吗?

Dylan Patel:

完全不惊讶。我过去一个半月里最搞笑的记忆之一,就是我和我的朋友 Leopold 一起,几乎跪在 Anthropic 联合创始人面前,求他给我们 Metis 的访问权限。

我们知道它存在,所以我们就说:「拜托,让我们用一下吧。」然后他说:「我不知道你们在说什么。」

Patrick O'Shaughnessy:

当那个价格表,或者说 eval card 出来的时候,你是什么反应?

Dylan Patel:

其实在湾区之前就有传闻,我们大概知道它应该会非常强。如果你看 benchmark,当然 benchmark 会不断变化,但 Mephisto / Metis 很可能是过去两年里模型能力最大的一次跃升。

我觉得这一点非常重要:它强到 Anthropic 甚至不想完全发布它。尽管它们已经向部分客户公布了价格,并且进行了选择性发布,比如面向网络安全相关场景。它的 token 成本可能是 5 倍甚至 10 倍,但它们仍然不想全面放出来,因为担心它对现实世界造成的影响。

所以现在放给我们的,是一个更差、更弱的版本,也就是 Opus 4.7。而且它们在模型卡里明确说了:我们实际上在网络安全能力上有意做了更差的预优化。不知道你有没有读到那部分。

所以我想说的是:无论你是谁,只要你有足够资本,你就应该去买 Anthropic 的企业订阅,按 token 付费,而不是用那些普通订阅。因为这样你就不会那么容易被限流。

然后你必须想清楚:怎样把这些 token 用在最高价值的任务上,并从中赚钱。因为从根本上说,也许一年后、两年后,很多生意本质上就是在做 token 套利。token 很强大,但关键是你要知道把它们指向哪里。

再往后三四年,模型自己可能就会知道应该如何使用 token,如何创造最大价值。

如果你回头看任何一个 benchmark,就会发现:过去达到某个能力层级需要的成本是 X,现在可能只需要原来的百分之一,甚至千分之一。比如 DeepSeek 达到 GPT-4 级别能力时,成本大概是 GPT-4 的六百分之一。此后,GPT-4 级模型的成本还在继续下降。

当然,现在已经没有人真的在乎 GPT-4 级模型了。大家想要的是前沿模型,因为前沿模型才能创造真正有经济价值的东西。不过,GPT-4 级模型仍然可以被用于一些场景,只是那些场景通常更小。

所以真正推动需求的,不是旧能力变便宜了,而是新用例不断出现。你现在用的是 Opus 4.6 或 Opus 4.7 这一层级的模型。一年后,如果我要获得今天同等质量的模型能力,我的支出可能只有 7 万美元,也许会便宜 100 倍。

但这不重要。因为到时候,我一定会使用一个更强的模型,去做更有价值的事情。

Anthropic 的 Metis 作为模型本身更贵,但它完成同一件事所消耗的 token 少得多。所以在大多数任务上,它实际上比 Opus 4.6 更便宜。

Dylan Patel:

因为它效率高得多。即使每一个 token 本身更「聪明」、更贵,它完成任务所需要的 token 数量更少。

Patrick O'Shaughnessy:

上次见你的时候,Metis 可能刚刚发布,或者说模型卡刚刚出来。你当时说,它强到让你有点害怕。你这句话是什么意思?

Dylan Patel:

Anthropic 在 2025 年的目标,甚至从 2024 年开始,就是:到 2025 年底,他们希望模型里能有一个 L4 水平的软件工程师。总体来说,他们用 Opus 4.6 基本做到了。

但他们没有说的是,如果你看 Metis,再对比 benchmark,它更像是一个 L6 工程师。L4 大概是相对初级的软件工程师,而 L6 已经是经验相当丰富的工程师了。

我记得 Anthropic 说过,这个模型在内部大概从 2 月就可用了。也就是说,两个月时间里,它们就从 L4 工程师跃升到了 L6 工程师。那接下来会发生什么?

当你思考模型进步时,会发现它其实还在加速。Anthropic 的发布节奏在压缩,OpenAI 的发布节奏也在压缩。为什么?因为通常来说,要做出更好的模型,你需要几个东西。

首先,你需要强大的算力。算力非常昂贵,而且有它自己的时间尺度。我们会跟踪这些东西,它确实在增长,但短期内基本是已经确定的。你已经签下来的算力,大体上已经定了。当然,中间会有延迟和调整,也可能想办法再多弄一点,但整体上是比较固定的。

其次,你需要非常优秀的研究人员。现在公司愿意为这些人支付数千万美元。

最后,是实现能力。历史上,实现一直非常困难。如果我有一个想法,我还得把它实现出来,而实现是很难的。但现在,想法到处都是,实现变得非常容易。它很贵,但非常容易。

所以问题变成了:一个人要如何决定该实现哪些想法?结果是,当实现变得容易太多时,你就可以实现更多想法,在这个跑步机上跑得更快。

这可以发生在 AI 模型研究里,所以模型发布节奏从过去的六个月缩短到两个月。也可以发生在其他领域。比如我想把美国每一座发电厂、每一条输电线路都建模出来,跑回归,分析微观区域的供需关系——现在我也可以做。

想法本身是便宜的。关键是,哪个想法有意义?哪个想法值得你投入资本,去购买 token,把它实现出来?因为实现能力已经在那里了。这是最关键的变化。

如果实现成本继续下降——而它确实正在下降——我们甚至还没有真正拿到 Metis。Opus 4.7 才刚刚发布几个小时,但我们团队内部已经非常兴奋了。

接下来,这会给世界带来什么?我认为它会重新排序经济运行方式。

过去,执行非常重要,因为执行很难;想法则很便宜。现在,想法不仅便宜,而且非常充足,但执行也变得非常容易。因此,真正值得做的,只剩下那些足够好的想法——它们能证明,哪怕实现已经极其便宜,你仍然值得为它花钱。

Patrick O'Shaughnessy:

所以你是真的害怕吗?还是说,它只是引入了一种很难把握的不确定性?

Dylan Patel:

不确定性肯定存在。但我确实觉得,这会带来某种恐惧。问题在于,社会要如何重组自己?

当你生活在一个「实现某件事的能力」本身已经没那么重要的世界里,什么才重要?重要的是,你能否为 AI 选择正确的想法,让它去实现;你能否把这个想法卖出去,或者把 AI 实现出来的东西卖出去;你能否为这个方向筹集资本。这些才会变得重要。

这也回到前面那个问题:永远拥有最新模型非常重要。那谁能获得最新模型?

Anthropic 有一个项目,我知道它不叫 Earwig,但我喜欢故意叫它 Earwig,来调侃 Anthropic 的人。它们只把 Metis 提供给某些公司,用于网络安全场景。我认为这种事情会持续发生:模型的部署范围会越来越窄,越来越不面向大众。

注:Earwig 本义是「蠼螋」,一种小虫子,中文里也常叫「耳夹子虫」。这里更像是一个带戏谑意味的外号:一方面 earwig 听起来像某种虫子,另一方面也有一点「偷偷钻进耳朵里」「暗中影响人」的联想。

我知道 OpenAI、Anthropic 以及其他公司都会说,他们希望让所有人都拥有强大的 AI。但 AI 非常昂贵。谁来为数万亿美元的基础设施买单?是那些有钱,并且能用 AI 构建有用东西的人。

而且,你也不希望别人蒸馏你的模型,所以你不会大范围发布它。你会把它提供给越来越少的一批客户。然后,这些客户之间也会开始争夺 token。

除非 Anthropic 大幅涨价。它们完全可以把 Opus 的价格翻倍,而我还是会继续付钱。我敢说,大多数用户也会继续付。但我认为,这甚至不能解决它们巨大的产能问题。

所以问题就变成了:这个循环会在哪里结束?当 token 使用量,以及这些 token 所带来的额外价值,越来越集中在少数公司手里,会发生什么?

我现在没有 Metis。但谁有?顶级银行有。现在它们可能只是在网络安全里使用它,但我能想象一个世界:因为我有 Anthropic 的企业合同,也因为 Anthropic 的人还算喜欢我,所以他们可能愿意给我们稍微更早一点的访问权限,或者稍微更高一点的 rate limit。我当然希望这种事发生。

然后我的竞争对手没有这些访问权限,我就可以击败他们。

也可能是另一种情况。比如 Citadel 的 Ken Griffin,他人脉极强,也非常有钱。他可能去和 OpenAI 或 Anthropic 签一个协议,说:「我每年先买 100 亿美元的 token。你们每次发布新模型,我先把前 100 亿美元的 token 买走,然后其他人再用。」

那会发生什么?他就可能在市场里碾压所有人。

这只是一个例子。它也可能发生在网络安全领域,比如 Anthropic 担心模型会让人更容易黑进系统。也可能发生在像我这样的信息服务行业里,我用它去碾压别人。

我认为这件事的影响范围非常广。我们不知道这些模型到底能做什么。Anthropic 不知道,OpenAI 不知道,没有人知道。最终还是要靠终端用户自己去发现:这些 token 到底能被用在哪里?能构建出什么?能想象出什么?

这当然会极大提高生产力,对人类来说也有非常积极的一面。但问题是,资源和使用权会如何集中?

机器人会接上下一波需求

Patrick O'Shaughnessy:

现在,机器人或者说 robotics 消耗的 token,和其他领域相比几乎可以忽略不计。你怎么看?它会不会成为第二条需求曲线?这里方圆一英里内,每天都有新的机器人创业公司出现,试图做出一些有意思的东西。

Dylan Patel:

这里有一个概念,叫「软件层面的奇点」(software-only singularity)。也就是说,世界可能先出现一个只发生在软件里的 AI 奇点。但问题是,世界的大部分仍然是物理的。你会看到,世界最终会围绕硬件组织,而不只是软件。所以我认为,所谓「软件奇点」只会是一个短暂阶段,而不是终局。因为我们最终还是会进入物理世界。

一旦软件变得非常容易,机器人真正困难的部分是什么?是编程、微控制器、执行器,以及控制所有这些东西。这些现在都非常难。

AI 模型有一个很有意思的特点:它们的学习效率其实很低。只是因为我们给了它们海量数据,它们才学会了东西,并在某些方面超过了人类。

但机器人现在的模型,比如 VLA,也就是 Vision-Language-Action,视觉-语言-动作模型,现在很热门,但我认为它可能不是最终能够继续扩展下去的东西。它们的数据效率很低,而我们也没办法足够快地扩大机器人数据规模。

未来一定会有某种方式,可以对机器人模型进行大规模预训练。就像人类在一生中不断看到各种数据一样。人类真正厉害的地方在于,我们非常「样本高效」。一个例子、两个例子,我们就能学会。

如果把这种能力应用到机器人上,情况就会完全不同。一旦出现软件层面的奇点,实现变得非常便宜,任何人都可以开始构建这些模型。接下来,人们就可以开始构建真正有用的机器人。

所以我认为,在未来 6 到 18 个月内,我们会开始看到机器人领域的真正突破。关键能力是 few-shot learning,也就是少样本学习。到那时,会有一个预训练好的机器人模型,然后你雇佣或者购买一个机器人,给它展示几个例子,它就能完成任务。

你告诉它把这两个东西叠起来,它就能做。你告诉它:「这个东西其实可以保持平衡。」它就会开始尝试并完成。相信我,我自己已经把东西打翻过很多次了。

所以我认为,机器人会出现少样本学习能力。

现在确实已经有很多公司在做机器人,有些是为了广告展示,有些是做一些很简单的任务。但接下来会变得非常细分。比如专门用来叠衣服的机器人,或者更细分一点,专门清洁黑板的机器人。它可能是一种租赁服务,也可能是一个模型包,你下载到标准机器人上,它就能执行这个任务,然后你按使用付费。

无论如何,物理商品领域都会迎来巨大的加速,也会产生通缩效应。而这最终会继续推动 token 需求疯狂增长。所以我个人不认为 token 需求会放缓。

Patrick O'Shaughnessy:

从 Metis 的结果,以及它的构建方式中,你还学到了什么关于这个世界的新东西吗?换句话说,如果把 scaling laws 的各个组成部分拆开来看,比如预训练这一块……

Dylan Patel:

它是一个比之前模型大得多的模型。10 万块 Blackwell,等价于上一代数十万块芯片。当然,TPU 和 Triton 有各自不同的发布节奏,所以不能完全一一对应。但最终来说,是的,Metis 是一个明显更大的模型。它证明 scaling laws 仍然有效。它所展示的一切都说明,趋势线还在继续:把更多算力投入模型,模型就会变得更好。

而且整个过程中,不只是「更多算力让模型变好」。与此同时,我们也在不断获得计算效率上的提升。实验室投入的所有研发算力,最终都转化成了一件事:如果我想要某个能力层级的模型,每隔六个月,或者现在每隔两个月,达到这个能力所需要的成本都会大幅下降。但如果我再把规模极大地拉上去,也仍然能得到巨大的能力跃升。

所以,是的,它证明这件事还在继续发生。Google 和 Anthropic 在训练侧并不是 GPU 的重度用户。OpenAI 接下来应该也会推出新一代模型。我觉得他们在 scaling 上采取的是一种更理性、更有原则的小步推进方式。而 Anthropic 这次则是做了一次巨大跳跃。

今年我们会看到越来越好的模型,而且发布节奏只会越来越快。

Patrick O'Shaughnessy:

我们这场对话已经聊了很久,但几乎没有怎么提 OpenAI。这在以前会是一件很奇怪的事。

Dylan Patel:

这正是有意思的地方。现在很多人会说:所以 Anthropic 已经赢了,对吧?它们 2 月就有了 Metis,但甚至没有发布,因为它们觉得没必要。它们的算力已经卖光了,收入每个月还在增加 100 亿美元。然后今天又发布了 Opus 4.7,而这一切都发生在 OpenAI 传闻中的 Spud 发布之前——《The Information》等媒体都报道过这个传闻。

所以表面上看,Anthropic 显然领先了,OpenAI 好像完了。但有意思的是,Anthropic 在算力上受限非常明显,它们能扩张的速度有限。Dario 以前还曾经得意地说,OpenAI 在算力投入上太激进了,而 Anthropic 的 scaling 更理性。但现在 Anthropic 可能会想:我们当初真应该有更多算力。

OpenAI 则完全有能力支付这些账单。事实上,它们已经融资了很多钱,用来获得更多增量算力。除此之外,它们之前还以非常激进、甚至有点「不负责任」的规模,从 Oracle、CoreWeave、SoftBank、Microsoft 等公司购买算力。现在它们也从 Amazon 那里拿到了 Trainium。

所以 OpenAI 在算力上做了一件非常疯狂的事,而且它们也知道自己还需要更多。

有意思的是,如果我们拿 Opus 4.6 来看,先暂时不考虑模型继续变强,只看这项技术的扩散。你和我可能会在模型发布第一天就立刻用上,但其他企业需要时间。人们也需要时间学习。那种「Claude 觉醒时刻」不会同时击中所有人。所以到年底,假设一个 Opus 4.6 级别的模型,整个经济体每年愿意为它花 1000 亿美元,我觉得这并不夸张。毕竟现在已经在花 400 亿美元了。

Patrick O'Shaughnessy:

这基本上只是线性外推。

Dylan Patel:

对,这是线性外推,不是指数级外推。要实现指数级增长,你需要更好的模型。但 Anthropic 不会有足够算力去满足这些需求。所以,假设 OpenAI 或 Google 很快也达到这个能力层级,谁下一个做到都可以。

Anthropic 也许能收取 70% 的毛利率,但如果 OpenAI 下一个达到同等能力,即使它只收 50% 的毛利率,它也会吃到所有这些增量需求。而且它大概率同样没有足够算力服务所有用户。所以,也许 Metis 这样一个模型,如果全世界有足够算力,可能能带来 5000 亿美元收入,甚至更夸张。市场对这些 token 的需求太强了,而算力供给又极其有限。

我们已经从 H100 价格暴涨中看到这一点了。GPU 的可用寿命也在不断延长。很明显,即使是二线实验室,它们的 token 也会卖光,更不用说一线实验室了。一线实验室会有更好的利润率,但二线实验室也会卖光,甚至三线实验室可能也接近卖光。

最强模型所能创造的经济价值,正在比基础设施向人们提供这些 token 的能力增长得更快。所以这个缺口会继续扩大。模型实验室的利润率也会继续上升,直到硬件供应链和基础设施供应链上的人反应过来:等等,为什么我不直接提高自己的利润率?

Patrick O'Shaughnessy:

所以可以说,你今天对需求侧的判断,尤其是你们 SemiAnalysis 自己的例子,是完全爆炸式的。而更广泛地说,随着人们进入你所说的「AI psychosis」状态,亲身感受到自己能做什么,感受到实现难度几乎完全消失,我自己也确实有这种体会。短短几周里,我自己的 token 支出已经彻底飙升。

这听起来是一个相当好的需求侧判断。那在需求侧,我们还有什么遗漏的吗?如果你不使用更多 token,你就永远无法摆脱「永久底层」。你能展开讲讲这句话吗?

也就是说,要么你使用更多 token,并且通过这些 token 创造出超额经济价值;但很多人现在的用法很无聊、很懒惰。他们会想:「那我以后每天只工作一小时,不工作八小时,让 AI 替我完成大部分工作。」

Dylan Patel:

那是无聊的方式。更酷的方式是:我仍然每天工作八小时,但我完成八倍的工作量,也许赚五倍的钱。也许不一定能赚到五倍,但方向应该是这样。

当然,如果你只是打一份工,这很难做到。确实有人会同时做多份工作,也有人会创办公司、开始卖东西。在所有人都使用 AI、它变成行业标配之前,你要先抓住 AI 带来的经济价值。因为它现在还没有完全成为标配。如果你不使用更多 token,不从这些 token 中创造价值,并且捕获这些价值,你就无法摆脱永久底层。

这里其实有三个不同的问题:第一,使用更多 token;第二,从这些 token 中创造价值;第三,从你用 token 创造出来的价值中捕获价值。如果你不能完成这三件事,随着模型能力继续飙升,资源又可能进一步集中,你就永远无法摆脱永久底层。

好,我们来谈供给侧。现在到底发生了什么?如果需求曲线爆炸式上升,那么为了服务所有这些 token,整个供应栈的前沿正在发生什么变化?随着需求飙升,供给侧所有东西都在涨价。无论是 NVIDIA GPU,还是其他环节,价格都在上涨。与此同时,它们的使用寿命也在延长。

H100 的价格走势就是这样。过去有人认为 GPU 的有效寿命不到五年,这完全是胡说。现在一些三四年前的 Hopper 集群,正在重新签三年或四年的合同;一些 A100 集群也在续签未来几年的合同。

所以 GPU 的有效寿命显然不是五年,甚至可能是七年或八年。我们还不知道,等 Hopper 真正走到那个阶段再看。但很明显,它不是五年。而且在续约时,价格还在上涨。

这意味着,一个集群的毛利率实际上并不是 35%,而是更高。云层的利润率正在扩张。硬件层的利润率也非常健康,NVIDIA 仍然在收取大约 75% 之类的毛利率。再往供应链下游看,内存环节的利润率显然也已经大幅上升。光模块、逻辑芯片等领域也出现了大额预付款,利润率在缓慢上升。

更重要的是,像 NVIDIA 这样造芯片的公司,正在支付巨额预付款。所以即便毛利率没有明显上升,资金成本、现金流时点,或者投资资本回报率,也在上升。

你可以在整个供应链上看到这一点。ASML 已经完全卖光了,它需要 Carl Zeiss 更快扩产。沿着供应链看,每个环节要么已经售罄,利润率上升;要么收到预付款,从而提高投资资本回报率,因为它实际需要投入的资本更低。

这是一条贯穿整个供应链的一致趋势。甚至连 PCB 都是这样。制造 PCB 需要铜箔,而铜箔也卖光了,人们开始为铜箔支付预付款。

可以说,只要这个东西还有「脉搏」,只要它处在供应链里并且已经售罄,人们就会扑上去争夺更多增量供给,并且提前争夺未来几年的供应。

算力短缺传导到全产业链

Dylan Patel:

供应链通常反应很快。但这一次有一个很独特的地方:今天的供应链比以往任何时候都更复杂,我们正在建造的东西也比以往任何时候都更复杂,所以交付周期更长。不是说其他行业没有出现过 18 个月的交付周期,而是这一次,新增供给的建设本身需要好几年。

内存就是这样。内存产能每年只能以较低的两位数百分比增长,比如 20%、30% 左右。NAND 甚至更低,DRAM 稍微高一点。即便 2025 年底需求信号已经非常强,内存公司也立刻开始反应,但真正的新增产能并不会马上到来。

在原本每年 20% 到 30% 的增长之外,它们当然可以再稍微挤一挤产能。但真正意义上的新增供给,要到 2028 年才会出现。最早也可能是 2027 年末,但大概率还是 2028 年。这是非常独特的。即使它们想以最快速度扩产,供给也不会立刻到来。

结果就是,内存价格已经涨上天了。而且我告诉你,尤其是 DRAM,价格至少还会再翻一倍、两倍,甚至三倍。

有人会说:「内存这个故事已经被讲烂了,大家都懂。」但其实不是,你们并没有真正理解。DRAM 从现在开始仍然可能再翻倍或翻两三倍,因为所需产能就是这么大。它们必须从其他地方抢产能。而在资本主义经济中,从其他地方抢产能的唯一方式,就是通过更高价格摧毁部分需求。我们不是在搞配给制度,所以最终一定会发生这种事。利润率会继续上升。

我认为逻辑芯片也存在巨大的产能问题。台积电刚刚发布财报,它们一直在上调资本开支。但建造晶圆厂终究需要相当长时间。它们正在尽一切努力,从每一座现有工厂中挤出更多产出。但台积电没有快速涨价,因为它们是「好人」。它们涨价大概只是个位数,而不是像内存厂商那样出现三位数涨幅。

所以最终你会看到这样一个市场:台积电是一家伟大的公司,但它真的会把所有价值都提取出来吗?未必。

我刚才提到过一些东西,比如 PCB 所需的铜箔、玻璃纤维、激光器。这些都是大家相对理解、但又很细分的供应链,它们现在也非常紧张。再往上游看,半导体晶圆制造设备供应链,我仍然认为它虽然已经涨了很多,但市场还是严重低估了它的重要性。

台积电今年的资本开支指引是 560 亿美元。我们从 1 月开始的预测是 574 亿美元,而且可能还会再略微上调,因为我们看到它们还有一些增加资本支出的方式。

但人们没有真正关注的是:这对明年意味着什么?对后年又意味着什么?

结果是,三年后,台积电可能会把资本开支提高到 1000 亿美元。也许两年后,也就是 2028 年,它们真的可能花 1000 亿美元做资本开支。我是认真说的,台积电 2028 年可能会花 1000 亿美元做资本开支。

很多人无法想象这个数字。但这对它的下游供应链意味着什么?对 Lam Research、Applied Materials、ASML 这样的公司意味着什么?对更下游的供应链,比如 MKS Instruments 这类公司,又意味着什么?

牛鞭效应会被进一步放大。

注:文中说的「牛鞭效应」,指的是指的是供应链里的放大效应。具体而言,AI 需求在最下游看起来只是 token 使用量暴涨,但传导到上游供应链时,会被一层层放大,最后变成更夸张的扩产、涨价和抢产能。

如果台积电真的想在 2028 年花 1000 亿美元资本开支,而我认为这确实有可能,很多人会觉得这很疯狂,但它真的可能发生。

Patrick O'Shaughnessy:

那芯片生态中的其他部分呢?GPU 一直占据绝对主导地位。但 CPU、ASIC 或其他东西,会不会作为新的机会和瓶颈出现?不只是 NVIDIA GPU 的主导地位之外,还有哪些环节值得关注?

Dylan Patel:

是的,ASIC 显然正在起飞。不过我想先从 AI 芯片本身稍微跳开,讲讲其他东西。我们做过一个关于 FPGA 的项目,结果发现,每一个下一代 AI 机架里,大概要用到 120 个 FPGA。那这会对所有 FPGA 公司意味着什么?

CPU 方面也是一样。所有这些强化学习环境,再加上你和我生成的那些「垃圾代码」——现在它们都跑在某个 Vercel 实例、某个 AWS 实例,或者我们随手启动的某个云资源上。所有这些都需要 CPU。所以 CPU 现在也完全卖光了,而且需求正在快速上升。

Patrick O'Shaughnessy:

帮大家理解一下,CPU 在整个体系里到底扮演什么角色?

Dylan Patel:

主要有两个原因解释为什么你需要大量 CPU。

第一,是强化学习。做强化学习时,CPU 非常关键。

过去,你会把整个互联网的数据扔进模型里训练,然后模型吐出一些结果。现在,你仍然会把互联网数据放进模型里,但之后你还会把模型放进一个环境中,对它说:「来,试试看。」模型会尝试很多不同的东西。最后,这个环境会评估它尝试的结果是否成功,并给它打分。这些环境可以是任何东西。它可以很简单,比如检查输出文本是不是符合正确格式,或者结构化输出是否正确。也可以非常复杂。

现在人们已经开始进入非常复杂的场景了。比如:「我想让你打开这个文件,修改它,编辑它,更新它,然后提交到某个网站。」或者:「我想让你打开西门子的物理仿真软件,编辑这个 CAD 模型。」所以,这些环境会变得越来越复杂。而这些环境运行在 CPU 上,不运行在 GPU 上,也不运行在 ASIC 上。

ASIC 或 GPU 负责运行模型本身:从环境中接收输入数据,把它送入模型,生成不同的输出路径,也就是模型认为可以解决问题的不同方式。然后,这些路径会被评估和打分。那些成功的路径会被拿来继续训练模型、更新模型,再不断迭代。所以,这是 CPU 非常有用的第一个地方。

第二个地方是部署。

当你有了这些很强的模型,并把它们部署出去时,模型会生成代码,生成各种有用的输出。但这些输出不是从 GPU 直接进入人的大脑。它们会从 GPU 或 ASIC 出来,进入某个你部署的应用,而那个应用本身通常运行在 CPU 上。

所以,这又是另一个需求非常大的领域。CPU 在很大程度上已经卖光了。

AI 价值难以被 GDP 统计

Patrick O'Shaughnessy:

在你持续评估供给和需求走向,并试图成为全世界最了解这两件事的人时,有哪些事情是你希望自己知道、但现在还不知道的?

Dylan Patel:

我觉得对我们来说,也是对所有人来说,最难理解的部分,是 tokenomics,也就是 token 的经济学。我们对运行基础设施需要多少成本、token 的成本是多少、模型成本是多少、这些实验室的利润率是多少,其实有非常好的判断。但真正难建模的是使用量和采用速度。

我们在 1 月的时候,对 2 月做过一些非常激进的预测,结果 Anthropic 轻松超过了。那我们该怎么校准这个模型?应该用什么数据源?到 2 月,我们又对 3 月做了非常激进的假设,结果它们又超过了。大家看到「新增 100 亿美元收入」这个数字时,反应都是:什么情况?它们到底怎么新增了 100 亿美元收入?谁在用这些 token?为什么用?他们到底在用这些 token 构建什么?更重要的是,他们用这些 token 构建出来的东西,究竟如何扩散到经济中?又创造了多少价值?

这并不是一个能被 GDP 统计轻易捕捉到的东西。比如,我使用 token 所创造的全部价值,最终会转化成更好的信息。然后我把这些信息卖出去,而且相较于过去别人卖信息的价格,我是以更低价格卖出的。

这些信息随后进入整个经济系统,让人们做出更好的投资决策,或者更好的竞争决策。比如他们是半导体公司、数据中心公司,或者 hyperscaler,那么这些信息的价值到底是多少?它对经济产生了什么影响?

从任何主观指标看,这显然是非常惊人的。但问题是,「幽灵 GDP」在哪里?Phantom GDP 到底是什么?我们该如何追踪真实的经济价值?

因为现有 GDP 指标并不准确。如果你问 Dylan Patel 创造了多少 GDP,那数字会非常小,和我认为自己实际创造的价值相比,根本不成比例。

所以最终的问题是:这些 token 到底创造了多少价值?不只是简单地看直接收入,而是看它们带来的连锁效应。它们做成的所有事情,后续影响到底是什么?

我觉得这才是真正的问题,也是最难衡量的挑战。我认为我们对供给侧已经有非常好的判断。对需求侧的很多信号,我们也有非常好的判断。但这些 token 究竟创造了什么价值,这件事很难量化和测量。我希望我们每三个月都能做一次这样的对话,因为变化实在太快了。

反 AI 抗议,可能在三个月内爆发

Patrick O'Shaughnessy:

那你觉得接下来会发生什么?比如三个月后,我再来旧金山和你见面,你预期会看到什么?

Dylan Patel:

大规模抗议。

Patrick O'Shaughnessy

针对 AI 的抗议?展开讲讲。

Dylan Patel

人们讨厌 AI。AI 现在甚至比 ICE、比政客还不受欢迎。我也不知道 Pew 是怎么做调查的,但显然 AI 比政客还不受欢迎。

随着 Anthropic 增加这么多收入,它会开始在下游引发商业变化。人们会越来越害怕 AI。他们会开始把越来越多自己的问题,以及很多长期存在的全球性深层问题,都归咎于 AI。

这些问题会浮出水面,然后被归因到 AI 身上。很可能会有一些政治人物,或者社交媒体上的人、影响者,开始把 AI 武器化,用来攻击别人。

你去看一些新闻文章下面的评论。Sam Altman 家里两周内两次被人扔燃烧瓶,评论区里居然有人在叫好。这只是一个开始。所以我认为,三个月内我们会看到针对 AI 的大规模抗议。

Patrick O'Shaughnessy:

那抵消这种情绪的力量是什么?AI 行业应该怎么提前应对?

Dylan Patel:

首先,Sam Altman 和 Dario 应该停止接受采访。他们太没有个人魅力了。我不知道他们到底在做什么。每一次采访都会让普通人更讨厌他们。比如 Sam Altman 上 Tucker Carlson 的节目,可能让所有共和党人都更讨厌 OpenAI。Dario 也是一样。他们真的没有什么魅力。这是第一点。

第二,他们需要开始展示 AI 能做出的积极、鼓舞人心的事情。

第三,他们需要停止不断谈论「AI 能力将如何改变整个世界」。因为人们听到这种能力,只会感到害怕。尤其是当他们和这项技术没有任何真实连接时。

Patrick O'Shaughnessy

他们不知道怎么使用它。

Dylan Patel:

而且他们和它没有连接。普通人不认识 Anthropic 的员工,也不认识 OpenAI 的员工。普通人不知道这些人是谁,不知道他们的目标是什么。他们只会把这些公司看成某种偷偷摸摸的小集团:几千个人聚在一家公司里,要改变世界、自动化所有工作、摧毁社会。很多人眼里就是这样。

再加上,这些公司还在资助和推动建设大量数据中心和发电厂,而这些东西在公众看来会污染世界。人们并不真正理解发生了什么。所以这些公司必须停止谈论那个「未来即将发生的巨大变化」,只谈现在:AI 在当下如何带来积极作用。我认为,这需要一次巨大的组织重塑和品牌重塑。

Patrick O'Shaughnessy:

我很喜欢和你做这样的对话。感谢你的时间。

Dylan Patel:

太好了,谢谢。

视频链接

QQlink

无加密后门,无妥协。基于区块链技术的去中心化社交和金融平台,让隐私与自由回归用户手中。

© 2024 QQlink 研发团队. 保留所有权利.