每周编辑精选 Weekly Editor’s Picks(0411-0417)

信息流太快,深度分析文章容易被热点淹没。「每周编辑精选」栏目将这些有判断价值的内容从海量资讯里捞出来,帮你滤掉噪音,留下洞察,带来启发。

宏观局势

最危险的一步棋:封锁霍尔木兹后,战争为何更难收场?

4 月 12 日,在美伊持续 21 小时的谈判破裂后,特朗普宣布,美国海军将封锁所有进出霍尔木兹海峡的船只。全球最重要的能源咽喉完成了一次权力转移。

从战术上看,这是一笔「聪明」的操作:无需占领或摧毁,美国直接夺走了伊朗过去六周最有效的工具——对霍尔木兹的控制权。然而,冲突反而更可能走向升级。

当「守门人」开始将航道武器化,市场与国家的风险定价逻辑也随之改变。因此,封锁或许能够改变短期收益,却难以触及冲突的根本约束。更可能的结果,是一场更漫长的消耗,以及不断累积的尾部风险。

「市场已宣布胜利」,标普反弹 10%、纳指十连涨:美股「不再关心」霍尔木兹

股市与油市之间出现了明显背离:股市“向前看”,油市仍在等待。

史上最富美联储主席,被一场荒诞的政治闹剧拦在门外

身家超 2 亿美元、投过 Polymarket 的 Kevin Warsh,距离掌舵美联储还差 30 天和一张关键选票。北卡罗来纳州共和党参议员 Thom Tillis 的反对票基于“美联储 25 亿美元装修案”的调查未结束。而在调查的另一端,检察官 Pirro 毫不退让。

Powell 的主席任期在 5 月 15 日到期。这是一个硬性截止日期。但他的美联储理事任期要到 2028 年 1 月才结束。这意味着即使主席任期结束,他在法律上仍然是美联储理事会的一员。Powell 已经明确表态:如果 Warsh 在 5 月 15 日之前未能获得确认,他将以”代理主席”身份继续掌舵美联储。

这创造了一个前所未有的局面:特朗普提名了新主席,但旧主席拒绝离开,双方同时声称自己有权坐在那把椅子上。市场现在面对的,是一个经典的二元博弈。

路径 A:Pirro 撤回调查,Tillis 转投赞成票,Warsh 在 5 月中旬就任。路径 B:Pirro 坚持上诉,Tillis 不松口,Powell 以代理主席身份继续执掌——意味着持续的不确定性。

30 天之后,美联储主席的椅子上坐的是谁,将重新定义 2026 年下半年全球资本市场的游戏规则。对加密市场的人来说,每一个变量都直接指向资产价格。

投资与创业

找到几天几十倍的「妖币」,有秘籍吗?

加密韋馱的「妖币」定义是:现货控盘率基本在 96% 以上;有 Binance 合约,至于有没有现货反而没那么重要;通常通过场外配资,在短时间内用暴力拉砸的波段,聚起巨量流动性和对手盘;庄家通过引发多空清算、吃对手方费率获利,最终完成现货出货,走完整个收割流程。

虽然我们能够从很多维度的角度中发现庄家操纵的蛛丝马迹,甚至是通过这些数据分析获得「妖币」博弈的胜利,但每个「妖币」的情况难以通过分析来归纳,并复刻在每一次的博弈上。

「妖币」背后的庄家是那个手握剧本的人,他们可以通过操纵数据来迷惑散户玩家,也可以有多种方式收割散户玩家实现盈利。

普通人如何用 10 分钟识别一个 Token 背后有庄?

关联钱包合并计算筹码集中度,关注成交量真实度——Vol / Holder (OI) 数,监控 DEX 流动性池,关注换手合理性——24h Vol / 市值,交易笔数 vs 成交量——大单占比,地址/账户/oi 增长率 vs 价格变化率——判断庄在哪个阶段。

没有庄就没有行情,庄是这个游戏的底层结构。

散户唯一的机会在于做空,但做空不一定会赢,依然需要超高的技巧和努力。

另推荐:《摩根士丹利首只比特币 ETF 上市一周回顾:逆势吸金,机构建仓的信号》《Jeff Yan 的《Hyper 人生》》。

Web3 & AI

即使枪击坐牢,为什么美国小镇人也要反对 AI 数据中心?

数据中心正在成为反科技、反政府极端分子的攻击目标。AI 产能扩张的瓶颈,第一次跳出电力合约谈判桌之外,出现在 1.32 万人投出的罢免票上。

Token 中转站乱象集锦:研究过后,我根本不敢用一点

使用非正规 AI 模型 API 中转站有严重安全风险,不仅是服务质量欺诈,更可能成为中间人攻击的渠道,导致用户代码、隐私数据乃至系统控制权被盗取。

如果一定要用,可以选择官方原生直连,或只用 OpenRouter 这样具备极高信誉背书的正规网关,做好极致的物理隔离,关掉所有的无监督自主执行模式。

AI Agent 炒币真赚啊:8 天 100 U 做到 20 万 U

作者拆解近期爆火的 AI Agent 交易系统“拉哪”,不只是简单的自动下单脚本,而是一套拥有自己交易逻辑的操作系统。

严格选标的,只做趋势交易,明确的止损和动态的止盈。从最初的数据喂养搭建骨架,让它理解市场在发生什么;到通过不断纠偏与约束形成结构,使其具备稳定的判断边界;再到行为蒸馏填充细节,让它逐渐拥有接近人类的决策路径与偏好。

最终形成的,已经不只是一个执行工具,而是一个能够在复杂市场中持续做出一致选择的“拉哪”。它不依赖情绪,也不追求预测,而是用一套被反复验证过的方式,去参与市场、放大结果。

另推荐:《这 25 个 Claude 提示词,让你每周多出 15 小时》《AI 时代的“PayPal 黑帮”,从一起实习到身价亿万》。

预测市场

机构接入预测市场,卡在了第三阶段

预测市场正从小众走向主流。预测市场为金融带来的变化是,几乎任何事件的未来,都可以拥有一个实时、流动的价格基准。

机构采用 Kalshi 分为三个阶段:数据接入、系统整合、实际交易。目前,大多数机构仍处于第一阶段,一部分进入第二阶段,只有少数进入第三阶段。 阻碍机构进入第三阶段的一个重要原因在于,目前预测市场交易需要全额保证金,100 美元的头寸需要对应存入 100 美元。

无脑跟随 Polymarket 赛前胜率交易 NBA,能稳赚吗?

作者回测了 NBA 2025-26 赛季常规赛的 1096 场比赛,发现赛前概率已被充分定价。无脑跟随市场赚不了,但也亏不了多少(ROI 为-1.87%)。

另推荐:《从马杜罗被捕到美伊停火,特朗普身边的内幕网络》。

政策和稳定币

白宫算了一笔账:禁掉稳定币利息,银行能多借出多少钱?

《GENIUS 法案》并未明确限制第三方平台提供类息收益,目前拟议中的《CLARITY 法案》部分内容试图封堵这一漏洞。

CEA 的最新研报试图证明:禁止稳定币发放收益,对保护银行贷款的作用很小——如果稳定币可以付息,银行贷款可能蒸发 21 亿美元,而不是去年夏天经济学家 Andrew Nigrinis 说的 1.5 万亿。

香港这场「阳谋」的真正目标,从来不是稳定币

作者做出大胆推测。

稳定币给港府提供了它自己永远造不出来的东西:免费的需求侧动能。热度、媒体、KOL、VC、全球叙事。港府实则要用稳定币条例去推 e-HKD。

主要货币区都在做同一件事:把本币的清算主权从 SWIFT 时代的代理行架构里拿出来,放进自己的 CBDC 或稳定币架构里。而香港当前的核心资产——美元清算体系的接入权——正在贬值。香港从来不需要 Web3——香港需要的是下一代金融中心的入场券。 而这张入场券,第一批稳定币持牌机构正在买单。

香港稳定币发牌:一场”老钱”的入场仪式,Web3 人的中场休息

汇丰渣打主动申请、主动投入数千万美金、主动承担用户教育和场景开发成本。这不是行政指令的结果,而是规则设计的自然产物。

香港给稳定币发行人套上的紧箍咒,堪称全球最严,这意味着汇丰渣打正在自掏腰包,为香港 Web3 生态建设”免费”基础设施。HSM 机房、KYC/AML 系统、链上监控、用户教育、商户接入、跨境 B2B 场景跑通——这些原本是生态发展最大的痛点,现在由两家发钞行以”商业稳定币”的名义承担。

他们是铺路工,不是收费站。

空投机会和交互指南

热门交互合集 | SimpleChain 测试网活动已上线;Giggles 候补名单申请(4 月 16 日)

Kraken 也要发币?一文读懂 Ink 第一季积分计划

一周热点恶补

政策与宏观市场

伊朗称谈判已结束,与美国未达成协议;

韩国央行建议加密市场引入熔断机制,因 Bithumb 误操作事件;

袭击 OpenAI 创始人住宅的嫌疑人已被指控谋杀未遂,供词中警告“人类将因 AI 而灭绝”;

X在美加推出 Cashtags 功能,支持查看加密与股票数据并试点内嵌交易;

观点与发声

美联储主席提名人沃什披露其持有加密货币;

机构、大公司与头部项目

高盛向 SEC 提交了 Goldman Sachs Bitcoin Premium Income ETF 的申请(解读);

Kraken已秘密提交美国 IPO 申请,最新估值约 133 亿美元;

Allbirds 将出售其鞋履业务,转型为 AI 算力基础设施公司,股价暴涨(解读);

WLFI解锁提案引争议,孙宇晨:谴责 WLFI 内部不良行为者持续制造的代币丑闻,抨击WLFI 解锁提案(解读);

数据

部分山寨猛涨;

VC 人士:业内还能投种子轮的 VC 可能已不足 20 家;

头部加密 VC集体缩水:a16z 加密基金管理规模暴跌 40%,Multicoin 腰斩

安全

Polkadot回应 Hyperbridge 漏洞:仅影响以太坊侧 DOT,主网资产未受影响;

Kraken遭勒索未妥协:影响约 2000 个账户,资金安全未受威胁……

附《每周编辑精选》系列传送门。下期再会~

Netflix创始人「叛逃」AI:怕什么,就去做什么

原文作者:David,深潮 TechFlow

Netflix (网飞)从来没有像现在这么赚钱,创始人却选了这个时候离开。

4 月 16 日,Netflix 发布 2026 年一季度财报,营收 122.5 亿美元,同比增长 16%,净利润同比涨了 83%,每股盈利 1.23 美元,比华尔街预期的 0.76 美元高出了将近六成。

但财报同时宣布了另一件事,联合创始人、现任董事长 Reed Hastings 将在 6 月任期届满后不再连任。

Hastings 1997 年创办 Netflix,从 DVD 邮寄生意做到全球超过 3.25 亿付费会员的流媒体巨头,干了快 30 年。2023 年他把 CEO 交给了继任者,自己退居董事长。现在,连董事长也不留了。

Netflix 在提交给美国证监会的文件里,特别写了一句:「此决定与公司无任何分歧。」

但越是强调没有分歧,越让人想知道他到底要去干什么。

一个冷知识是,去年 5 月,Hastings 已经加入了 Anthropic 的董事会。他做了快 30 年的生意,基本都是让人们为内容付费,而 Anthropic 的 Claude 虽然不直接生成视频,但正在改变内容的生产方式。

从文本到图片到视频,成本越来越低速度越来越快。

Netflix 能盈利,靠的是好内容值得付费。如果 AI 把内容的制作门槛拉到足够低,这个前提还成立吗?

Hastings 显然已经在想这个问题了。

他在怕什么?

作为全球顶级的内容制作和发行商,Netflix 的创始人其实对 AI 一直有一种思维上的关切。

你可能不知道的是,1988 年 Hastings 在斯坦福读的就是 AI 硕士。没错,40 年前他就在研究人工智能。只不过那个年代的 AI 完全不像今天这么有用…

2022 年斯坦福大学毕业典礼上,Hastings 还被请成了演讲嘉宾。

他后来自己也说过这事,语气像在讲一个年轻时走错路的笑话。只不过 AI 没搞成,他转头去做了软件公司,后来又创办 Netflix,一做就是近 30 年。

一个学过 AI 的人,不可能不关注这个领域。

2024 年他接受采访,聊到 AI,当时还挺轻松的:「AI 会帮我们变得更有创造力,我们能用这些工具做出更多的节目。」那时候他的态度是拥抱。AI 是工具,是来帮忙的,不是来抢饭碗的。

2025 年 3 月,他给母校 Bowdoin College 捐了 5000 万美元。

这所缅因州的文理学院不做大模型,Hastings 给钱让他们做的是一个叫「AI 与人类」的研究计划,专门研究 AI 对工作、教育和人际关系的冲击。

捐款当天他说了一句话,跟一年前的轻松语气完全不同:「我们将为人类的存续和繁荣而战。」

一年之间,AI 的进步很快,而他的立场也从 AI 能帮助工作,变成了 AI 是人类的威胁。

两个月后,他就进了 Anthropic 的董事会。

任命他的,是一个叫「长期利益信托」的独立机构,五名委员全部不持有 Anthropic 股份,职责只有一条:确保 AI 发展符合人类的长期利益。

今年 3 月,他在 另一档的访谈节目里把话说到了最明处。主持人问他 Netflix 面临的最大风险是什么,他跳过了竞争对手和会员增长,直接说了两个字:

AI.

他说,如果 AI 让 YouTube 上的免费内容变得足够酷、足够吸引人,年轻人全跑去看免费的了,那谁还为 Netflix 付费呢?

从公开的信息中,你能搜到 Hastings 自称「极端技术乐观主义者」,他不觉得 AI 本身是坏事,只是问题出在速度差上。

AI 技术跑得太快,人类的道德和制度体系跟不上。

这就能解释他过去一年那些看似矛盾的选择。不给搞技术的 AI 实验室捐钱,给一所研究人文的学院捐钱;进董事会没有选任何一家商业 AI 公司的顾问团,选了 Anthropic 的安全委员会。

笔者觉得,Hastings 比大多数人更有资格关切 AI 是否会颠覆行业这件事。

Netflix 自己就是上一轮的颠覆者,它用流媒体杀死了 DVD 租赁、重创了有线电视、逼着整个好莱坞重建发行体系。他亲手做过一次「用新技术把内容成本和分发成本砸到足够低,然后干掉上一代赢家」的事情。

现在他看着 AI,大概在想这次轮到谁了。

所以,Hastings 同时是 Netflix 的大股东和 Anthropic 的董事。拿着自己创办的公司股份,去到可能颠覆这家公司的行业里坐下来。

这可能不叫退休,叫对冲。

虽然 AI 冲击,但 Netflix 其实从来没这么好过

四年前,Netflix 还是一家年营收 300 亿美元出头、利润率不到两成的公司,被华尔街追着问”你们什么时候能赚到真金白银”。四年后的这份财报给了回答。

2026 年一季度,净利润 52.8 亿美元,同比涨了 83%。自由现金流 50.9 亿美元,几乎是去年同期的两倍。同时,利润率站上了 32%。全年营收指引 507 到 517 亿美元,如果年底真的能做到,相当于三年时间,NetFlix 的营收接近翻了一倍。

日常经营之外,Netflix 也不是没看到 AI。

几周前,它花了最高 6 亿美元收购了 InterPositive,一家做 AI 辅助影视制作工具的公司,可以用 AI 加速剧本开发、场景预览和后期制作。Netflix 还在财报信里专门提到了生成式 AI,说要用它来改善内容制作和用户体验。

用 AI 降低制作成本、提升效率,这个思路没有问题。事实上整个好莱坞或者内容制作行业,都在往这个方向走。

只是创始人 Hastings 在采访里担心的,可能不是同一个问题。

今年 2 月,字节跳动发布了视频生成模型 Seedance 2.0。上传一张照片,60 秒生成一条带运镜、带音效、带口型同步的 2K 视频。

当时,《黑神话:悟空》的制作人冯骥测完之后说了四个字:「AIGC 的童年时代结束了」。导演贾樟柯发微博说准备用它拍短片…

更具体的数字来自行业内部。据证券时报报道,在电商广告领域,一个人用 Seedance 2.0 花 30 分钟就能完成过去 7 个人 3 天的工作量,成本降幅超过 99%。

横店的群演、后期剪辑、特效制作,整条产业链上的人都在说同一个词—失业焦虑。

爱奇艺的创始人龚宇去年底公开说过一个判断:AI 可能让影视行业的成本降低一个数量级,创作者增加一个数量级,作品增加两个数量级。

Netflix 用 AI 来降低制作成本,相当于在现有模式里提效。但 Seedance 们正在做的事情,是把「制作视频」这件事的门槛从几百万美元拉到几块钱。

Hastings 说的那个「YouTube 上的免费内容变得足够好」的未来,正在一步步变成现实。

当然,这一切或许都跟他现在选择离开 Netflix 没有直接关系。他从 2023 年就开始交班,CEO、董事长,一步一步退,至少有三年的过渡期。

只是时间点确实微妙。Netflix 交出了历史上最好看的一份财报,盘后跌了 8%。同一天,创始人宣布彻底离场。

六月以后,Hastings 的名字将从 Netflix 的董事会名单上消失。

他现在的头衔是 Anthropic 董事、Bloomberg 董事,以及犹他州一家滑雪场的老板。Netflix 的股票他还拿着,据 Forbes 估算身家 58 亿美元,大部分跟 Netflix 绑在一起。

他拿着 Netflix 的钱,坐在 AI 的桌子上。

至于这个选择是远见还是多虑,可能要等到 AI 真的能拍出一部观众愿意看完的电影那天,才会有答案。

DWF报告:AI在DeFi收益优化跑赢人类,自主交易却落后5倍

原文作者:DWF Ventures

原文编译:深潮 TechFlow

导读:AI Agent 已经占据 DeFi 近五分之一的交易量,在收益优化这种规则明确的场景中确实跑赢了人工。但真让它自主交易,顶尖 AI 的表现还不如顶尖人类的五分之一。这篇研究拆解了 AI 在 DeFi 不同场景下的真实表现,值得所有关注自动化交易的人看看。

核心要点

自动化和 agent 活动目前占所有链上活动的约 19%,但真正的端到端自主性仍未实现。

在收益优化等狭窄、定义明确的用例中,agent 已表现出优于人类和 bot 的性能。但对于交易等多方面行动,人类表现优于 agent。

在 agent 之间,模型选择和风险管理对交易表现影响最大。

随着 agent 被大规模采用,存在多项关于信任和执行的风险,包括女巫攻击、策略拥挤和隐私权衡。

Agent 活动持续增长

过去一年 agent 活动稳步增长,交易量和交易数量都在增加。我们看到 Coinbase 的 x402 协议引领了重大发展,Visa、Stripe 和 Google 等玩家也加入其中推出自己的标准。目前正在构建的大部分基础设施旨在服务两类场景:agent 之间的通道或由人类触发的 agent 调用。

虽然稳定币交易已得到广泛支持,但当前基础设施仍依赖传统支付网关作为底层,这意味着它仍然依赖中心化对手方。因此,agent 可以自我融资、自我执行并根据不断变化的条件持续优化的”完全自主”终局尚未实现。

Agent 对 DeFi 来说并不完全陌生。多年来,链上协议中一直存在通过 bot 实现的自动化,捕获 MEV 或获取没有代码就无法实现的超额收益。这些系统在定义明确的参数下运行得非常好,这些参数不会频繁变化或需要额外监督。然而市场随时间推移已变得更加复杂。这就是我们看到新一代 agent 进入的地方,过去几个月链上已成为此类活动的实验场。

Agent 的实际表现

根据报告,agent 活动呈指数级增长,自 2025 年以来已启动超过 17,000 个 agent。自动化/agent 活动总量估计覆盖所有链上活动的 19%以上。这并不令人意外,因为据估计超过 76%的稳定币转账量由 bot 生成。这表明 DeFi 中 agent 活动有巨大的增长空间。

Agent 自主性存在广泛的范围,从需要高度人类监督的聊天机器人式体验,到可以根据目标输入制定适应市场条件策略的 agent。与 bot 相比,agent 具有几个关键优势,包括在毫秒内响应和执行新信息的能力,以及在保持同样严格性的同时将覆盖范围扩展到数千个市场的能力。

目前大多数 agent 仍处于分析师到副驾驶级别,因为它们大多数仍处于测试阶段。

收益优化:Agent 表现优异

流动性提供是自动化已经频繁发生的领域,agent 持有的总 TVL 超过 3900 万美元。这个数字主要衡量用户直接存入 agent 的资产,但不包括金库路由的资本。

Giza Tech 是这一领域最大的协议之一,去年底推出了首个 agent 应用 ARMA,旨在增强主要 DeFi 协议的收益捕获。它已吸引超过 1900 万美元的管理资产,并产生了超过 40 亿美元的 agent 交易量。交易量与管理资产总额的高比率表明,agent 频繁重新平衡资本,从而能够实现更高的收益捕获。一旦资本存入合约,执行就会自动化,因此为用户提供了简单的一键式体验,几乎不需要监督。

ARMA 的表现是可衡量的优异,为 USDC 产生超过 9.75%的年化收益率。即使考虑额外的重新平衡费用和 agent 的 10%业绩费,收益率仍超过 Aave 或 Morpho 上的普通借贷。尽管如此,可扩展性仍然是一个关键问题,因为这些 agent 仍未经过实战测试来管理或扩展到主要 DeFi 协议的规模。

交易:人类大幅领先

然而对于交易等更复杂的行动,结果要多样化得多。当前的交易模型基于人类定义的输入运行,并根据预设规则提供输出。机器学习通过使模型能够根据新信息更新其行为而无需显式重新编程来扩展这一点,将其推进到副驾驶角色。随着完全自主的 agent 加入,交易格局将发生巨大变化。

已经举办了几场 agent 之间以及人类对 agent 的交易竞赛,结果显示模型之间存在很大差异。Trade XYZ 为其平台上市的股票举办了人类对 agent 的交易竞赛。每个账户有 1 万美元的初始资金,对杠杆或交易频率没有限制。结果压倒性地偏向人类,顶尖人类的表现比顶尖 agent 高出 5 倍以上。

与此同时,Nof1 举办了模型之间的 agent 交易竞赛,让几个模型(Grok-4、GPT-5、Deepseek、Kimi、Qwen3、Claude、Gemini)相互竞争,测试从资本保值到最大杠杆的不同风险配置。结果揭示了几个可以帮助解释业绩差异的因素:

持仓时间:存在强相关性,平均每个头寸持有 2-3 小时的模型大大优于频繁翻转的模型。

期望值:这衡量模型平均每笔交易是否赚钱。有趣的是,只有前 3 名模型具有正期望值,这意味着大多数模型亏损的交易多于盈利。

杠杆:平均 6-8 倍的较低杠杆水平被证明比运行超过 10 倍杠杆的模型表现更好,高水平会加速损失。

提示策略:Monk Mode 是迄今为止表现最好的模型,而 Situational Awareness 表现最差。基于模型的特征,它显示专注于风险管理和较少外部来源会带来更好的表现。

基础模型:Grok 4.20 在不同提示策略中的表现显著优于其他模型 22%以上,并且是唯一平均盈利的模型。

其他因素如多空偏好、交易规模和置信度评分没有足够的数据或被证明与模型表现有任何正相关。总体而言,结果表明 agent 在明确定义的约束内往往表现更好,这意味着人类在目标配置方面仍然非常需要。

如何评估 Agent

鉴于 agent 仍处于早期阶段,目前还没有全面的评估框架。历史表现通常被用作评估 agent 的基准,但它们受到基础因素的影响,这些因素提供了强大 agent 表现的更强烈迹象。

不同波动性下的表现:包括当条件恶化时有纪律的损失控制,这表明 agent 能够识别会影响交易盈利能力的链下因素。

透明度与隐私:双方都有自己的权衡。透明的 agent 如果可以被主动复制交易,基本上就不会在策略上有优势。私密的 agent 会面临创建者内部提取的风险,创建者可以轻松抢跑自己的用户。

信息来源:agent 接入的数据源对于确定 agent 如何做出决策至关重要。确保来源可信且没有单一依赖性至关重要。

安全性:拥有智能合约审计和适当的资金托管架构以确保在黑天鹅事件中有后备措施非常重要。

Agent 的下一步

为了大规模采用 agent,在基础设施方面仍有大量工作要做。这可以归结为围绕 agent 信任和执行的关键问题。自主 agent 的行动没有护栏,已经出现了资金管理不善的实例。

ERC-8004 于 2026 年 1 月上线,成为首个链上注册表,使自主 agent 能够相互发现、建立可验证的声誉并安全协作。这是 DeFi 可组合性的关键解锁,因为信任分数嵌入在智能合约本身中,允许 agent 和协议之间的无许可活动。这并不能保证 agent 始终以非恶意方式运行,因为串通声誉和女巫攻击等安全漏洞仍可能发生。因此,在保险、安全、agent 的经济质押等方面仍有很大空间需要填补。

随着 DeFi 中 agent 活动的扩大,策略拥挤成为结构性风险。收益农场是最明确的先例,随着策略的普及,回报会压缩。同样的动态可能适用于 agent 交易。如果大量 agent 在相似数据上训练并优化相似目标,它们将在相似头寸和相似退出信号上趋同。

康奈尔大学 2026 年 1 月发表的 CoinAlg 论文正式化了这个问题的一个版本。透明的 agent 可被套利,因为它们的交易是可预测的并且可以被抢跑。私密 agent 避免了这种风险,但引入了不同的风险,即创建者对自己的用户保留信息优势,并且可以通过不透明性本来要保护的内部知识提取价值。

Agent 活动只会继续加速,今天奠定的基础设施将决定链上金融的下一阶段如何运作。随着 agent 使用率的增加,它们将自我迭代并在适应用户偏好方面变得更加敏锐。因此,主要差异化因素将归结为可以信任的基础设施,而这些将获得最大的市场份额。

谢家印Q1述职实录:告别单一叙事,UEX全景战略已获验证

在昨晚的 Q1 季度述职直播中,Bitget 华语负责人谢家印向社区用户进行了一场深度的业务交底。

随着全球资本在加密货币及美股、CFD 等传统金融领域之间频繁轮动,单一的加密视角已无法满足成熟交易者跨越周期的需求。

从底层流动性抗压、全景交易(UEX)战略落地,到 AI 交易引擎与重磅的 IPO Prime 布局。

Bitget 正在重新定义交易所的角色边界。

以下为本次述职的核心内容梳理⬇️

(免责声明:本文为直播内容整理,所涉观点不构成任何形式的投资建议。)

1. 资金的加速流入,反映了怎样的市场共识?

Bitget 近 7 日资金净流入位列全球 CEX 首位;BTC 储备年度同比增长 86%(增至 36,700 枚)。

大资金的加速沉淀,是对平台流动性与安全性的最真实投票。而这背后的核心支撑,正是极具韧性的“盘口承接力”。

此外,Bitget 长期致力于底层流动性的建设,据 TokenInsight 3 月流动性报告显示:

  • Bitget 合约板块流动性:BTC/ETH 核心区间(0.05% – 0.1%),全网领跑
  • Bitget 现货板块流动性:BTC/ETH 核心区间(0.03% – 0.05%),位列全网前二

优秀的深度表现意味着:大单进出低损耗,交易摩擦低。

这是平台为每位用户提供的最坚实的安全垫。

2. 为什么“多资产跨界”成为今年的绝对叙事?

现在的成熟交易者,面对的是一个越来越融合的资产世界。

大家不仅在交易 Crypto,还在多元配置美股、贵金属和外汇等全球其他优质资产,以对冲风险。

面对用户对 TradFi(传统金融)资产极其庞大的真实需求,Bitget 早在去年就率先破局,转型为全球首家 UEX 全景交易所。并在 2026 年第 1 季度稳步推进以下四大举措,全面拥抱这一趋势:

  • 发布 UEX 白皮书:消除资产准入碎片化,统筹全景视角。
  • App 重构:Crypto 与 TradFi 首页并立,整体操作路径缩短约 30%。
  • CFD 全量开放:用 USDT 直通 79 种资产,最高 500x 杠杆,手续费低至每手 0.09 美元。
  • 美股极致让利
  • 美股代币(扩容至 263 只)支持 5×24 ,全面零费率。
  • 美股合约(扩容至 49 只)支持 7×24,费率低至 0.0065%。

这一系列打破资产壁垒的动作,在季度尾声迎来了强劲的规模化数据验证:

  • 美股代币:占据 Ondo 近 6 成日交易量份额(来源:Dune)
  • 美股合约:核心科技巨头合约持仓量全网第一(来源:CoinGlass)
  • CFD 板块:单日交易量突破 60 亿美元;黄金/白银 24H 成交额稳居前二(来源:CoinGlass)

跨市场交易存在必然的迁移成本。用极致的让利和产品打磨始终让用户受益,是 Bitget 降低跨资产摩擦成本、回馈用户最朴实的方式。

3. IPO Prime:什么是真正的“金融平权”?

传统的 Pre-IPO 市场,历来是华尔街顶级机构与高净值老钱的专属游戏,普通人缺乏触达渠道。 为了打破这道壁垒,Bitget 本季度推出了创新代币销售平台——IPO Prime

首期上线资产为 preSPAX,是由受监管发行方 Republic 发行的数字代币,旨在以 1:1 的方式镜像 SpaceX 上市后的经济收益表现。SpaceX(太空探索技术公司)由埃隆·马斯克于 2002 年创立。

这不仅是一个新产品,更是 Bitget 业务触角从二级市场向全球顶级一级市场延伸的标志。 让普通用户,也能平等地参与到世界级独角兽企业上市前的红利分配中。

4. AI 交易引擎:超越对话,直达行动

AI 不应只是套着壳的聊天机器人。

交易最大的痛点是“知易行难”。为了解决执行落地的最后一公里,Bitget 完成了 AI 引擎的三层重构:

  • 智能洞察:Gracy AI(行业首发数字人)与 GetAgent(个性化交易助手)
  • 底层基建:Agent Hub(面向开发者的 9 大模块 + 58 项工具)
  • 实盘落地:GetClaw(零门槛云端 AI 交易员)

尤其是 GetClaw,它为 AI Agent 提供了独立的实盘交易账户。从账户层面隔离交易资金,让交易更加安全。

哪怕不懂代码,用户也可以通过自然语言下达指令,让 AI 在云端自动盯盘并执行。

这意味着,专业级的自动化交易能力,被真正交还给了每一个普通用户。

5. VIP 生态:“来了就是 VIP”

平台与用户最好的关系,是长期的合伙人。

本季度,Bitget VIP 体系除了 6 大权益,还迎来了深度进阶:

  • 兜底守护:设立 500 万美金守护基金(涵盖等级保护、高息理财、现货杠杆 0 息等专属福利)
  • 千万俱乐部:月月赠送高端好礼,1-4月已兑现爱马仕、苹果、茅台精品礼盒

而在新币空投方面,Bitget 更是直接拿出近 1000 枚极度稀缺的一级市场资产 preSPAX,分两轮免费空投。用平台的力量,把少数人的资本特权变成 VIP 的默认权益:

  • 第一轮:面向现有 VIP,共 760 枚,发放时间 4 月 16 日。
  • 第二轮:面向新晋 VIP,共 190 枚,发放时间 4 月 20 日。

但在“全景交易 UEX”时代,Bitget 的态度极其清晰:

Bitget UEX,来了就是 VIP。

对于核心高净值客户,必然倾尽全力,提供最极致的专属定制与稀缺资产分配;

对于所有普通用户,UEX 所提供的低费率、深盘口与高效客服响应,本身就是 VIP 级的交易环境。

每位把信任交给平台的用户,都是最尊贵的 VIP。

总结

从 Q1 的实战交底来看,Bitget 正在完成从“单一加密平台”向“全景交易枢纽”的跨越。

  • 主流币种的深度优势,是支撑大资金运转的安全底座。
  • 传统金融板块的爆发,印证了跨资产融合的刚需及 Bitget UEX 战略的优势。
  • IPO Prime 与 preSPAX 空投,大力推动金融平权和用户赋能。
  • AI 矩阵的落地,正在重塑个人投资者的自动智能化交易能力。
  • “来了就是 VIP”的理念,延续了平台长期主义的温度。

世界在轮动,视野无边界。

Bitget 正在致力于成为大家跨越周期的最佳合伙人。

世界模型从预测走向规划,HWM与长时程控制难题

导语

世界模型近一年的研究焦点最初集中在表征学习和未来预测。模型先理解世界,再在内部推演未来状态。这条路线已经产出一批有代表性的成果。V-JEPA 2(Video Joint Embedding Predictive Architecture 2——Meta 在 2025 年发布的一套视频世界模型)用超过 100 万小时互联网视频做预训练,再结合少量机器人交互数据,展示了世界模型在理解、预测和零样本机器人规划上的潜力。

但模型会预测,不等于模型会处理长任务。面对多阶段控制,系统通常会遇到两个压力。一个是预测误差会在长rollout(连续多步推演)中持续积累,导致整条路径越来越容易偏离目标。另一个是动作搜索空间会随horizon(规划视距)增长而迅速扩大,导致规划成本持续上升。HWM 没有改写世界模型的底层学习路线,而是在已有带动作条件的世界模型之上加入分层规划结构,让系统先组织阶段路径,再处理局部动作。

从技术上看,V-JEPA 2(https://ai.meta.com/research/vjepa/) 更偏向世界表征与基础预测,HWM 更偏向长时程规划,WAV (World Action Verifier: Self-Improving World Models via Forward-Inverse Asymmetry,https://arxiv.org/abs/2604.01985)更偏向模型对自身预测失真的识别与修正。三条线正在逐步收敛。世界模型研究的重点,已经从单纯预测未来,转向如何把预测能力转成可执行、可修正、可验证的系统能力。

一、长时程控制为何仍是世界模型的瓶颈

长时程控制的难点,放到机器人任务里会更容易看清。以机械臂操作为例,抓起一个杯子再把它放进抽屉,这不是单一动作,而是一串连续步骤。系统要靠近物体,调整姿态,完成抓取,移动到目标位置,再处理抽屉和放置。链条一长,两个问题就会同时出现。一是预测误差会沿着rollout持续积累,另一个是动作搜索空间会迅速扩大。

系统缺少的,通常不是局部预测能力,而是把远目标组织成阶段路径的能力。许多动作从局部看像是在偏离目标,实际却是完成目标所需的中间步骤。比如抓取前先抬高手臂,开抽屉前先后退一点再调整角度。

在展示型任务中,世界模型已经能够给出连贯预测。但进入真实控制场景后,性能开始下滑,问题也随之浮现。压力不只来自表征本身,也来自规划层还不够成熟。

二、HWM 如何重构规划过程

HWM把原本一层完成的规划过程拆成两层。上层负责较长时间尺度上的阶段方向,下层负责较短时间尺度上的局部执行。模型不是只按一个节奏规划,而是按两个不同的时间节奏同时规划。

单层方法处理长任务时,通常需要在底层动作空间里直接搜索整条动作链。任务越长,搜索成本越高,预测误差也越容易沿着多步 rollout 持续扩散。HWM拆开过程后,高层只处理较长时间尺度上的路线选择,低层只处理当前这一段动作的完成,整条长任务被拆成多段较短任务,规划复杂度随之下降

这里还有个关键设计,高层动作并不是简单记录两个状态之间的差值,而是用一个编码器,把一段低层动作压缩成更高层的动作表示。对长任务来说,关键不只在起点和终点之间差了多少,更在于中间步骤是如何组织的。高层如果只看位移差,容易丢掉这段动作链里的路径信息。

HWM体现的是一种分层任务组织方式。面对一项多阶段工作,系统不再一次性展开所有动作,而是先形成较粗的阶段路径,再逐段执行与修正。这种层级关系进入世界模型之后,预测能力会开始更稳定地转化成规划能力。

三、从0%到70%,实验结果说明了什么

在论文设置的真实世界抓取并放置任务中,系统只拿到最终目标条件,不提供人工拆好的中间目标。在这种条件下,HWM的成功率达到 70%,而单层 world model 成功率为 0%。原本几乎无法完成的长任务,在引入分层规划后,变成了大概率可实现的结果。

论文还测试了推物体操作和迷宫导航等仿真任务。结果显示,分层规划不只提高了成功率,也降低了规划阶段的计算成本。在一些环境中规划阶段的计算成本最多可以减少到原来的四分之一左右,同时保持更高或相当的成功率。

四、从 V-JEPA 到 HWM 再到 WAV

V-JEPA 2代表的是世界表征这条路线。V-JEPA 2 用超过 100 万小时互联网视频进行预训练,再结合不到 62 小时的机器人视频做 post-training(预训练后的针对性训练),得到可用于理解、预测和规划物理世界的 latent action-conditioned world model(在抽象表示空间中、结合动作信息进行预测的世界模型)。它所展示的是模型可以通过大规模观察获得世界表征,并把这种表征迁移到机器人规划中。

HWM 处在下一步。模型已经拥有世界表征和基础预测能力,但一进入多阶段控制,误差累积和搜索空间扩张的问题就会爆发。HWM没有改变底层表示学习路线,而是在已有带动作条件的世界模型之上加入多时间尺度的规划结构。它所处理的问题是模型怎样把远目标组织成一组中间步骤,再逐段推进。

WAV则进一步把焦点放在验证能力上。世界模型想进入策略优化和部署场景,不能只会预测,还要能发现自己在哪些区域容易失真,并据此进行校正。它关注的是模型怎样检查自己。

V-JEPA偏向世界表征,HWM偏向任务规划,WAV偏向结果验证。三者虽关注点不同,但大方向是一致的。世界模型的下一阶段,已经不只是内部预测,而是预测、规划、验证逐渐连成一套系统能力。

五、从内部预测走向可执行系统

过去不少世界模型工作,更接近于提升未来状态预测的连续性,或者提升内部世界表征的稳定性。但当前研究重点已经开始变化,系统既要形成对环境的判断,也要把判断转成动作,并在结果出来后继续修正下一步。想要更接近真实部署,就需要在长时程任务里控制误差传播、压缩搜索范围、降低推理成本。

这类变化也会影响 AI agent。很多agent系统已经能完成短链路任务,比如调用工具、读取文件、执行若干步骤指令。但任务一旦变成长链路、多阶段、需要中途重规划,性能就会下滑。这与机器人控制中的难点并没有本质差别,都是高层路径组织能力不足,导致局部执行和整体目标之间脱节。

HWM提供的分层思路,高层负责路径与阶段目标,低层负责局部动作与反馈处理,再叠加结果验证,这类分层结构未来会在更多系统中持续出现。世界模型的下一阶段,重点也不再只是预测未来,而是把预测、执行和修正组织成一条可以运行的路径。

BIT 投研:五大信号同时亮起,比特币熊市或已结束?

当前市场正处于一个关键转折阶段。多个彼此独立的技术指标,正在逐步指向同一判断:始于 2025 年 10 月的比特币熊市,可能已经接近尾声,甚至已经结束。与 2022 年那轮漫长且反复探底的熊市不同,本轮周期中,市场结构已出现明显变化。现货比特币 ETF 的推出以及监管不确定性的阶段性缓解,使价格下行过程中缺乏“被动过度杀跌”的环境。同时,从历史经验来看,比特币极少在未经历震荡的情况下直接进入单边上涨,当前更可能处于“底部确认后的整理阶段”。

在这一背景下,单一指标的参考意义有限,但当多个信号开始同时出现时,其指向的结论正在变得更加清晰:市场正在从趋势下行,逐步过渡至拐点确认阶段。

技术信号集中出现:从底部形态到趋势修复

从技术结构来看,本轮市场最核心的变化在于“信号共振”。首先,周线随机指标已重新回到 20 上方,这一形态通常出现在市场最差阶段之后,历史上更多对应底部形成,而非下跌延续。与此同时,新的趋势信号再次出现,在此前两次未兑现后再次触发,使其参考价值显著提升。

其次,比特币价格正逐步接近 21 周均线(约 77,592 美元),这一水平长期被视为区分牛熊周期的重要参考线。当前价格在 75,000 美元附近震荡,重新站上该区间更可能是时间问题。一旦突破并企稳,将构成明确的趋势性确认信号。

此外,月线 RSI 亦存在回到均线上方的可能。历史上,这一信号多出现在熊市底部区域附近。若本轮再次出现,将进一步强化市场已完成底部构建的判断。整体来看,这些指标单独出现时意义有限,但当其在同一时间窗口内集中出现时,市场状态已从“下行趋势延续”,转向“底部结构逐步确立”。

关键价格区间确认:从震荡修复到上行准备

在技术指标之外,价格本身仍是最核心的验证变量。当前市场正在测试 66,000–73,000 美元这一关键区间。2024 年 3 月约 73,084 美元的高点,已构成中期顶部结构。若价格能够有效突破并站稳该区间,将意味着此前的下行趋势已被实质性扭转。

从结构上看,本轮走势与一年前存在一定相似性:市场在外部冲击下快速下探,随后进入窄幅震荡,最终通过向上突破完成趋势切换。目前价格已开始向上试探区间上沿,若延续这一节奏,短期内上探 88,000 美元甚至更高,并不算激进。与此同时,下方 64,972 美元已成为当前阶段的重要支撑位。只要价格维持在该水平上方,整体趋势将逐步由中性转向偏多。因此,与其判断市场是否“已经进入牛市”,更关键的问题在于:价格是否能够完成区间突破,从而确认趋势切换。

当前来看,市场已有五个信号逐步指向同一方向:周线随机指标转强、趋势信号再次出现、价格逼近 21 周均线、月线 RSI 存在确认可能,以及此前下行趋势已被有效突破。单一信号仍不足以下定论,但当这些信号在同一阶段集中出现时,其指向的结论可信度显著提升。综合来看,始于 2025 年 10 月的这轮熊市,可能已经接近尾声。

对市场而言,关注重点也正在发生转移:问题不再是比特币是否继续修复,而是当趋势真正切换完成后,上行的速度与空间将如何展开。在这一过程中,价格区间的突破与流动性环境的变化,将成为下一阶段最核心的观察变量。

上述部分观点来自 BIT on Target, 与我们联系获取 BIT on Target 完整报告。

免责声明:市场有风险,投资需谨慎。本文不构成投资建议。数字资产交易可能具有极大的风险和不稳定性。投资决策应在仔细考虑个人情况并咨询金融专业人士后做出。BIT 不对基于本内容所提供信息的任何投资决策负责。

AI Agent炒币真赚啊:8天100 U做到20万U

最近,AI Agent 交易系统“拉哪”火了,其仅用 8 天,就将 100 U 做到了 20 万 U,截至 4 月 16 日,账户总余额超 25 万 U。

据其作者 Lana(@lanaaielsa)披露,构建这套交易系统的原因很简单。

去年 10 月 BSC 牛市期间,他身边有朋友因追逐暴富叙事投入 10 万 U,最终在行情回撤中几乎亏光,最后 1 万 U 转入链上继续交易也全部归零,随后退场。近期随着山寨币讨论热度回升,他判断可能进入新一轮做市(MM)行情阶段。由于自身不熟悉二级交易和 K 线分析,他选择借助 AI 构建交易系统:让 Claude 编写脚本,抓取币安广场高热度帖子与高频讨论币种,并结合涨幅榜筛选波动标的进行交易。系统一开始采用 20%止损,随后优化为固定亏损 200 U 止损,并只做单一方向的趋势跟随。同时,拉哪还负责在币安广场发布实盘记录、生成收益截图、运营账号

看起来简单吧。但我细研究了下,拉哪可不只是简单的自动下单脚本,而是一套拥有自己交易逻辑的操作系统。

拉哪是如何交易并实现盈利的?

1、有严密的选标逻辑

从交易记录来看拉哪并不对市场行情进行预测,只做跟随,也就是趋势行情,专注于捕捉已经启动的币种。涉及标的包括:币安人生、RAVE、ORDI、BASED、TRUMP、SIREN、1000SATS、1000RATS、EIGEN、PIXEL、EDGE、BAN、ASTER、AIA、FIGHT、GENIUS、CL、BTC、GIGGLE、HYPE、BLESS、PUMP、HEMI、CFX。

筛选的标准大致可以分为三个层次:

首先是舆论层,拉哪会抓取币安广场的帖子数量、讨论频率以及情绪方向,寻找短时间内被反复提及的币种。

其次是价格层,只有当舆论层筛选出来的币种同时出现在涨幅榜、出现明显波动时,才会触发进一步筛选。证明是有趋势行情出现的概率。

最后通过观察 OI(持仓量)变化,筛选出“持仓增加但价格尚未完全反应”的币种,用于判断是否存在提前布局的资金。

2、有明确的止损标准

在拉哪开始运行的初期,采用固定 20%止损,随后优化为“固定亏损额度”,也就是无论仓位大小,每一笔交易的最大亏损控制在约 200 U 左右

从交易的历史记录来看,大部分亏损都集中在这一范围内。但也有超出止损标准的单子,比如 GENIUS 曾浮亏超 6880 U 却仍未平仓,Lana 本人解释到:“因为 GENIUS 是新币,新币的波动比较大所以放很宽的止损,早期的仓位一般加上杠杆就是 500 U 对应 200,后面仓位大了后开始开 10k 或者 25k 的仓位,对应止损金额就高一点。”

3、有动态的止盈标准

与止损不同,这套系统并没有设定固定止盈点,主要是通过周期性评估来决定是否继续持有,例如每隔一段时间重新判断当前标的的上涨与下跌概率。可以理解为,它在持续问一个问题:如果现在没有仓位,我还会不会买?

从交易的历史数据来看,绝大部分利润集中在少数几个币种上,例如“币安人生”“RAVE”“ORDI”等,而其他多数交易则以小幅亏损或小幅盈利结束。

发现了吗?拉哪不是靠每一单赚钱,而是靠少数单子爆赚,多数单子进行严格的止损。

如何训练出拉哪?方法论可复用吗?

1、喂养数据定基调

这套系统最初的策略雏形,来源于 Lana 对 Hyperliquid 上一些保持长期稳定盈利钱包行为的观察,更多的是只做一个方向,不会多空两个方向一直切换。所以喂给 AI 最重要的数据之一就是来自 Hyperliquid 上聪明钱包的交易行为,让 AI 进行系统性的学习怎么才能通过交易赚钱。同时也会喂给 AI 一些基础的合约指标,以及一些链上数据。让 AI 能够通过理解这些钱包的操作形成自己的框架。

当然除了链上行为数据之外,系统还会不断的自行抓取舆论与行情数据作为补充:

  • 币安广场的讨论密度与热点内容;
  • 涨幅榜与价格波动;
  • OI 变化等基础的合约指标。

2、对话修正定框架

在让 AI 学习了基础的操作手法之后,下一步不在于获取更多信息,而在于如何对这些信息进行筛选和约束,也就是为 AI 建立一套明确的决策框架

从其使用方式来看,这套系统的判断逻辑并非一次性设定完成,而更可能是在持续运行与反馈中逐步修剪形成。在初期,AI 可能会基于单一信号做出判断,例如将短期热度误认为趋势信号,或在方向上出现频繁切换。但随着使用的深入,这些偏差逐渐被修正,使其决策逐步集中在更符合策略预期的范围内。

3、行为蒸馏定交易风格

在完成数据输入与决策框架的建立之后,这套系统并没有停留在“标准化判断”的层面,而是进一步引入了个体行为的蒸馏。操作者将自身以及 X 上一些其他博主的推特内容输入系统,使 AI 能够学习具体的表达方式。让 AI 不再是冰冷的交易机器,至少从表达层面上来看是更人性化了。

如果把整个过程拆开来看,这更像是在“造一个人”。

从最初的数据喂养搭建骨架,让它理解市场在发生什么;到通过不断纠偏与约束形成结构,使其具备稳定的判断边界;再到行为蒸馏填充细节,让它逐渐拥有接近人类的决策路径与偏好。

最终形成的,已经不只是一个执行工具,而是一个能够在复杂市场中持续做出一致选择的“拉哪”。

它不依赖情绪,也不追求预测,而是用一套被反复验证过的方式,去参与市场、放大结果。

黄仁勋播客实录:英伟达的护城河,比芯片深得多

视频标题:Jensen Huang: – Will Nvidia』s moat persist?

视频作者:Dwarkesh Patel

编译:Peggy,BlockBeats

编者按:当外界仍在讨论「英伟达的护城河是否来自供应链」时,这场对话认为,真正难以复制的,并非芯片本身,而是将「电子转化为 Token」的整套系统能力——即从计算架构、软件体系到开发者生态的协同运作。

本文编译自 Dwarkesh Patel 与 Jensen Huang(黄仁勋)的对谈。Dwarkesh Patel 是当下硅谷最受关注的科技播客主持人之一,主理 YouTube 频道 Dwarkesh Podcast,以深度研究型访谈见长,长期对话 AI 研究者与科技产业核心人物。

右侧为 Dwarkesh Patel,左侧为 Jensen Huang

围绕这一核心,这场对谈可以从三个层面来理解。

其一,是技术与产业结构的变化。

英伟达的优势并不止于硬件性能,而在于 CUDA 所承载的开发者生态,以及围绕计算栈形成的路径依赖。在这一体系中,算力不再是唯一变量,算法、系统工程、网络与能效共同决定了 AI 的推进速度。这也引出一个重要判断:软件不会因 AI 而被简单「商品化」,相反,随着 Agent 的普及,工具调用将呈指数级增长,软件的价值反而被进一步放大。

其二,是商业边界与策略选择。

面对不断扩张的 AI 产业链,英伟达选择「做必要的一切,但不做全部」。它不进入云计算,也不进行过度垂直整合,而是通过投资与生态扶持放大整体市场规模。这种克制,使其既保持了关键控制力,又避免成为生态的替代者,从而将更多参与者纳入其技术体系之中。

其三,是关于技术扩散与产业格局的分歧。

对话中最具张力的部分,并不在于具体结论,而在于如何理解「风险」本身。一种观点强调算力领先所带来的先发优势,另一种则更关注技术扩散过程中生态与标准的长期归属。相较于短期能力差距,更关键的问题或许在于:未来的 AI 模型与开发者,究竟运行在哪一套技术体系之上。

换句话说,这场竞争的终局,不只是「谁率先做出更强的模型」,而是「谁定义了模型运行的基础设施」。

在这个意义上,英伟达的角色,已不再只是芯片公司,而更接近 AI 时代的「底层操作系统提供者」——它试图确保,无论计算能力如何扩散,价值生成的路径,仍然围绕自身展开。

以下为原文内容(为便于阅读理解,原内容有所整编):

TL;DR

·英伟达的护城河不在「芯片」,而在「从电子到 Token 的整套系统能力」。核心不是硬件性能,而是把计算转化为价的全栈能力(架构 + 软件 + 生态)。

·CUDA 的本质优势不是工具,而是全球最大 AI 开发者生态。开发者、框架、模型全部绑定在同一技术栈上,形成难以替代的路径依赖。

·AI 竞争的关键不只是算力,而是「计算栈 × 算法 × 系统工程」的组合。架构、网络、能效、软件协同带来的提升,远超单纯制程进步。

·算力瓶颈是短期问题,供给会在 2–3 年内被需求信号驱动补齐。真正的长期约束不是芯片,而是能源与基础设施。

·AI 软件不会被商品化,反而会因 Agent 爆发带来工具使用的指数级增长。未来不是软件变便宜,而是软件调用次数暴涨。

·不做云是英伟达的核心策略:做「必要的一切」,但不吞掉整个价值链。通过投资与生态扶持,而不是垂直整合,放大整体市场规模。

·真正的战略风险不是对手获得算力,而是全球 AI 生态不再基于美国技术栈。一旦模型与开发者迁移,长期技术标准与产业主导权将随之转移。

访谈内容

英伟达护城河在哪里:供应链,还是「电子到 Token」的控制权?

Dwarkesh Patel(主持人):

我们已经看到,很多软件公司的估值出现了下滑,因为大家预期 AI 会把软件变成一种标准化商品。还有一种可能略显天真的理解方式,大致是这样:你看,从设计文件(GDS2)交给台积电,台积电负责制造逻辑芯片、晶圆,构建开关电路,然后再和 SK 海力士、美光、三星生产的 HBM 一起封装,最后送到 ODM 去组装成整机机架。

注:HBM(High Bandwidth Memory,高带宽内存)是一种专门为高性能计算和 AI 设计的先进内存技术;ODM(Original Design Manufacturer,原始设计制造商)是指不仅负责生产,还负责产品设计的代工厂商

所以,从这个角度看,英伟达本质上是在做软件,而制造是由别人完成的。如果软件被商品化了,那英伟达也会被商品化。

Jensen Huang(黄仁勋,英伟达 CEO):

但归根结底,总得有一个过程,把电子转化为 token。从电子到 token,并让这些 token 随时间变得更有价值,这种转化我认为很难被完全商品化。

从电子到 token 的转化,本身就是一段非常非凡的过程。而让一个 token 更有价值,就像让一个分子比另一个分子更有价值一样,是让一个 token 比另一个 token 更有价值。

在这个过程中,包含了大量的艺术、工程、科学和发明,才让这个 token 具备价值。

显然,我们正在实时地观察这一切发生。所以这个转化过程、制造过程,以及其中涉及的各种信号,其实远远没有被完全理解,这段旅程也远未结束。所以我不认为那种情况会发生。

当然,我们会让它变得更高效。事实上,你刚才描述问题的方式,其实就是我对英伟达的一个心智模型:输入是电子,输出是 token,中间这一段就是英伟达。

我们的工作,是在「尽可能做必要的事情,同时尽可能少做不必要的事情」,以实现这种转化,并让它具备极高的能力。

我说的「尽可能少做」,是指凡是我们不需要自己做的部分,我们就会和别人合作,把它纳入我们的生态。如果你看今天的英伟达,我们在上游供应链和下游供应链,可能都拥有规模最大的合作生态之一。从计算机厂商、应用开发者,到模型开发者——你可以把 AI 看作一个「五层蛋糕」。而我们在这五个层级上都有生态布局。

相关阅读:《英伟达黄仁勋最新文章:AI 的「五层蛋糕」

所以我们尽量少做,但我们必须做的那一部分,其实是极其困难的。而我不认为那一部分会被商品化。

事实上,我也不认为企业软件公司本质上是在做「工具制造」。不过现实是,今天大多数软件公司确实是工具提供者。

当然也有例外,有些是在做工作流系统的编码与固化,但很多公司本质上是工具公司。

比如 Excel 是工具,PowerPoint 是工具,Cadence 做的是工具,Synopsys 也是工具。

Jensen Huang:

而我看到的趋势,恰恰和很多人的看法相反。我认为 agent 的数量会指数级增长,工具的使用者数量也会指数级增长。

各种工具的调用实例数量也很可能会激增。比如 Synopsys Design Compiler 的使用实例,很可能会大幅增长。

会有大量 agent 使用 floor planner、版图工具、设计规则检查工具。

今天,我们受限于工程师的数量;而明天,这些工程师会被大量 agent 支持,我们将以前所未有的方式去探索设计空间。当你用上今天这些工具时,这种变化会非常明显。

工具的使用会推动这些软件公司实现爆发式增长。这种情况之所以还没有发生,是因为现在的 agent 还不够擅长使用工具。

所以,要么这些公司自己去构建 agent,要么 agent 本身变得足够强,能够使用这些工具。我认为最终会是两者的结合。

Dwarkesh Patel

我记得在你们最新的披露中,你们在边界组件、内存、封装等方面有接近 1000 亿美元的采购承诺。而 SemiAnalysis 的报告认为,这个数字可能会达到 2500 亿美元。

一种解读是,英伟达的护城河在于你们锁定了未来多年这些稀缺组件的供给。也就是说,别人可能也能做加速器,但他们能拿到足够的内存吗?能拿到足够的逻辑芯片吗?

这是不是英伟达未来几年的核心优势?

Jensen Huang:

这是我们能做到、但别人很难做到的一件事。我们之所以能在上游做出巨大的承诺,一部分是显性的,也就是你提到的这些采购承诺;另一部分是隐性的。

比如,上游很多投资其实是我们的供应链伙伴做的,因为我会对他们的 CEO 说:让我告诉你这个行业会有多大,让我解释为什么会这样,让我和你一起推演,让我告诉你我看到的是什么。

通过这样的过程——传递信息、激发愿景、建立共识——我在和上游不同行业的 CEO 对齐,他们才愿意去做这些投资。

那为什么他们愿意为我投资,而不是为别人?因为他们知道,我有能力买下他们的产能,并通过我的下游把它消化掉。正是因为英伟达的下游需求和供应链规模如此之大,他们才愿意在上游进行投资。

你看 GTC,大会的规模让很多人感到震撼。它本质上是一个 360 度的 AI 宇宙,把整个行业聚在一起。大家聚在一起,是因为他们需要彼此看见。我把他们聚在一起,让上游看到下游,下游看到上游,同时让所有人看到 AI 的进展。

更重要的是,他们可以接触到 AI 原生公司和初创企业,看到正在发生的各种创新,从而亲眼验证我所说的那些判断。

所以我花了很多时间,直接或间接地向我们的供应链和生态伙伴解释眼前的机会。很多人会说,我的 keynote 不像传统发布会那样一个接一个宣布产品,而是有一部分听起来像是在「上课」。而这其实正是我的目的。

我需要确保整个供应链——无论上游还是下游——都理解:接下来会发生什么、为什么会发生、什么时候发生、规模会有多大,并且能够像我一样系统性地去推理这些问题。

所以你刚才说的那种「护城河」,确实存在。如果未来几年这个市场达到万亿美元规模,我们有能力去构建支撑它的供应链。就像现金流一样,供应链也有流动和周转。如果一个架构的业务周转不够快,没有人会为它建立供应链。我们之所以能维持这样的规模,是因为下游需求极其强劲,而且大家都能看到这一点。

正是这一点,让我们能够以现在这样的规模去做这些事情。

Dwarkesh Patel

我还是想更具体地理解一下,上游能不能跟得上。过去很多年,你们的收入基本是逐年翻倍,提供给全球的算力规模甚至是三倍增长。

Jensen Huang:

而且是在这个体量下继续翻倍。

Dwarkesh Patel

对。所以如果你看逻辑芯片,比如你们是台积电 N3 制程最大的客户之一,在 N2 上也是主要客户之一。

根据一些分析,今年 AI 可能会占 N3 产能的 60%,明年甚至可能达到 86%。

注:N3 指的是 TSMC 的 3 纳米(3nm)制程节点(process node),可以理解为台积电当前一代最先进的芯片制造工艺之一

那在你已经占据这么大比例的情况下,你怎么还能继续翻倍?而且是每年都翻倍?我们是不是进入了一个阶段,AI 算力的增长必须因为上游限制而放缓?有没有办法绕开这些限制?我们到底要怎么做到每年建出两倍的晶圆厂?

Jensen Huang:

在某些时刻,瞬时需求确实会超过整个行业的供给,无论是上游还是下游。而且在某些情况下,我们甚至会被水管工的数量限制住——这是真的发生过的。

Dwarkesh Patel :

那明年的 GTC 应该邀请水管工了。

Jensen Huang:

对,这其实是个好现象。你希望处在这样一个市场里:瞬时需求是大于整个行业总供给的。反过来当然就不太好了。

如果两者差距太大,某一个具体环节、某一个组件成为明显瓶颈,整个行业就会一拥而上去解决它。比如说,我注意到现在大家已经不太讨论 CoWoS 了。原因是过去两年,我们对它进行了极大规模的投入和扩展,翻了好几倍。

现在我觉得整体已经处在一个比较好的状态。台积电也已经意识到,CoWoS 的供应必须跟上逻辑芯片和内存的需求增长。所以他们在扩展 CoWoS,同时也在扩展未来的先进封装技术,而且是按照和逻辑芯片同样的节奏在扩展。

这非常重要,因为过去 CoWoS 和 HBM 内存都更像是「特种能力」,但现在已经不是了。现在大家已经意识到,它们是主流计算技术的一部分。

同时,我们现在也更有能力去影响更大范围的供应链。在过去,在 AI 革命刚开始的时候,我现在说的这些判断,其实五年前就已经在讲了。

当时有些人相信并投入了,比如美光的 Sanjay 团队。我至今还记得那次会议,我当时非常清楚地讲了未来会发生什么、为什么会发生,以及今天这些结果的预测。他们当时选择大幅加码,我们也和他们建立了合作关系。在 LPDDR、HBM 等多个方向上,他们都进行了投入,这对他们来说显然带来了很大的回报。也有一些公司是后来才跟上的,但现在大家都已经进入这个阶段了。

所以我认为,每一代技术、每一个瓶颈,都会得到大量关注。而现在,我们已经在提前几年「预取」这些瓶颈。比如我们和 Lumentum、Coherent,以及整个硅光(silicon photonics)生态的合作。过去几年,我们实际上重塑了整个生态和供应链。

在硅光方面,我们围绕台积电建立了完整的供应链,与他们合作开发技术,发明了很多新的技术,并把这些专利授权给供应链,保持生态的开放。我们通过发明新技术、新工作流程、新测试设备(包括双面探测等),投资相关公司、帮助它们扩产,来为供应链做准备。

所以你可以看到,我们是在主动塑造这个生态,让供应链能够支撑未来的规模。

Dwarkesh Patel:

听起来有些瓶颈比其他的更容易解决。比如说,相比扩展 CoWoS 更难的那些

Jensen Huang:

我刚才其实举的是最难的那个例子。

Dwarkesh Patel:

哪个?

Jensen Huang:

水管工。对,是真的。我刚才说的是最难的那个——水管工和电工。原因在于,这也让我对一些「末日论者」的说法有点担忧,他们总是在谈工作会消失、岗位会被替代。如果我们因此劝人不要去做软件工程师,那未来就真的会缺软件工程师。

类似的预测,十年前也出现过。当时有人说:「无论你做什么,都不要去当放射科医生。」你现在还能在网上找到那些视频,说放射科会是第一个被淘汰的职业,世界将不再需要放射科医生。但现实是,我们现在反而缺放射科医生。

Dwarkesh Patel:

好,那回到刚才的问题:有些环节可以扩展,有些不行。那具体来说,逻辑芯片的产能怎么翻倍?毕竟真正的瓶颈在这里,内存和逻辑都是限制因素。那 EUV 光刻机呢?你怎么做到每年把它的数量也翻一倍?

Jensen Huang:

这些都不是做不到的事情。确实,快速扩产不容易,但在两到三年内把这些事情做到,其实并不难。关键是要有明确的需求信号。一旦你能造出一台,就能造出十台;一旦能造出十台,就能造出一百万台。所以这些东西本质上并不难复制。

Dwarkesh Patel:

那你会把这种判断传达到供应链多深?比如你会不会去找 ASML,说:如果我往后三年看,为了让英伟达年收入达到 2 万亿美元,我们需要更多的 EUV 光刻机?

Jensen Huang:

有些我会直接做,有些是间接推动。如果我能说服台积电,那 ASML 自然也会被说服。所以我们要识别关键的瓶颈点。但只要台积电相信这个趋势,几年之后你就会有足够的 EUV 设备。

我的意思是,没有任何一个瓶颈会持续超过两到三年,没有一个。

与此同时,我们也在提升计算效率。从 Hopper 到 Blackwell,大约提升了 10 倍、20 倍,有些情况下甚至达到 30 到 50 倍。我们也在不断提出新的算法。因为 CUDA 足够灵活,我们可以开发出各种新方法,在扩充产能的同时提升效率。

所以这些事情都不会让我担心。真正让我担心的,是我们下游之外的因素,比如能源政策。没有能源,你就无法扩张;没有能源,你就无法建立一个产业;没有能源,你就无法建立一个全新的制造业体系。

现在我们想推动美国再工业化,想把芯片制造、计算机制造、封装带回美国,同时建设电动车、机器人这些新产业。当我们在建设 AI 工厂时,这些都离不开能源,而能源相关的建设周期很长。相比之下,增加芯片产能,是一个两三年的问题;增加 CoWoS 产能,也是两三年的问题。

Dwarkesh Patel:

挺有意思的。我感觉我采访过的一些嘉宾,给出的判断正好相反。只是这个问题上,我确实没有足够的技术背景来做判断。

Jensen Huang:

不过,好的一点是,你现在是在和专家对话。

Google 的 TPU 会动摇英伟达的地位吗?

Dwarkesh Patel:

对,确实。我想问一下你的竞争对手。如果看 TPU,可以说现在全球前三的大模型里,有两个——Claude 和 Gemini——是用 TPU 训练的。这对英伟达未来意味着什么?

注:TPU(Tensor Processing Unit,张量处理单元)是由 Google 专门为人工智能(尤其是深度学习)设计的一类专用芯片

Jensen Huang:

我们做的是完全不同的东西。英伟达构建的是「加速计算」(accelerated computing),而不是张量处理单元(TPU)。

加速计算可以用于各种各样的任务,比如分子动力学、量子色动力学,也用于数据处理、数据框架、结构化数据、非结构化数据,还用于流体力学、粒子物理,当然也包括 AI。所以,加速计算的应用范围要广得多。

虽然现在大家的讨论集中在 AI 上,AI 确实非常重要、影响也很大,但「计算」本身的范围要比 AI 广得多。英伟达所做的,是把计算方式从通用计算重新发明为加速计算。我们的市场覆盖范围远远大于任何 TPU 或其他专用加速器所能覆盖的范围。

如果看我们的定位,我们是唯一一家可以加速各种类型应用的公司。我们拥有庞大的生态系统,各种框架和算法都可以运行在英伟达平台上。而且,我们的计算机系统是为「由他人来运营」而设计的。任何运营者都可以购买我们的系统来使用。

大多数自研系统并不是为他人使用而设计的,你基本上必须自己来运营它们,因为它们从一开始就没有被设计成足够灵活,供他人使用。正因为我们的系统任何人都可以运营,我们进入了所有主要平台,包括 Google、Amazon、Azure、OCI 等。

无论你是为了出租算力来运营系统,还是自己使用系统,如果你要做租赁业务,你就必须拥有一个覆盖多个行业的大规模客户生态来承接这些需求。如果你是为了自己使用而运营系统,我们当然也有能力帮助你完成这件事。比如说,Elon 的 xAI。

因为我们可以让任何行业、任何公司的运营者都能够使用我们的系统,你可以用它来为像 Lilly 这样的公司构建超级计算机,用于科学研究和药物发现。我们可以帮助他们运营自己的超级计算机,并将其用于整个药物研发和生物科学的各种应用场景,而这些都是我们可以加速的领域。

所以我们可以覆盖大量应用场景,而 TPU 做不到这一点。英伟达构建的 CUDA,本身也可以作为一个非常出色的张量处理平台,但它不仅仅是这样,它覆盖了数据处理、计算、AI 等整个生命周期。所以我们的市场机会要大得多,覆盖范围也更广。而且因为我们现在基本支持全球所有类型的应用,你可以在任何地方部署英伟达系统,并且可以确信一定会有客户来使用它。

所以这本质上是完全不同的一种东西。

Dwarkesh Patel :

这个问题会稍微长一点。

你们现在的收入非常惊人,而且这些收入主要并不是来自制药或量子计算。你们不是靠这些业务每季度赚 600 亿美元,而是因为 AI 是一项前所未有、而且正在以前所未有速度推进的技术。

所以问题是:如果只看 AI,本身最优的方案是什么?我不是做底层的,但我和一些 AI 研究员朋友聊过,他们会说:当我使用 TPU 时,它是一个很大的阵列,非常适合做矩阵乘法;而 GPU 更灵活,适合处理大量分支和不规则内存访问。

但如果你看 AI,本质上是不是就是一遍又一遍、非常可预测的矩阵乘法?那你其实不需要为 warp 调度、线程切换、内存 bank 等等这些功能去占用芯片面积。所以 TPU 在当前这波算力需求和收入增长中,针对主要应用场景是高度优化的。

你怎么看这个观点?

Jensen Huang:

矩阵乘法确实是 AI 中一个重要部分,但它并不是 AI 的全部。

如果你想提出一种新的 attention 机制,或者用不同方式来做计算;如果你想设计一种全新的架构,比如 hybrid SSM;如果你想构建一种融合 diffusion 和 autoregressive 的模型——你需要的是一个通用可编程的架构,而我们可以运行你能想到的任何东西。

这就是我们的优势,它让新算法的发明变得容易得多。正因为这是一个可编程系统,而不断发明新算法,正是 AI 能够如此快速进步的原因。

TPU 和其他任何硬件一样,也受到摩尔定律的影响。我们知道摩尔定律大约每年带来 25% 的提升。所以如果你想实现 10 倍、100 倍的跃升,唯一的方式是每年都从根本上改变算法以及它的计算方式。

这正是英伟达的核心优势。

我们之所以能让 Blackwell 相比 Hopper 实现大幅提升——我当时说是 35 倍——当我第一次宣布 Blackwell 的能效会比 Hopper 提高 35 倍时,没有人相信。

后来 Dylan 写了一篇文章,说其实我还保守了,真实提升更接近 50 倍,而这种提升不可能仅靠摩尔定律实现。我们解决这个问题的方法,是引入新的模型结构,比如 MoE,并把计算进行并行化、解耦、分布式处理,扩展到整个计算系统中。如果没有能力深入到底层、用 CUDA 去开发新的计算内核,这些是很难做到的。

注:指 Dylan Patel 半导体与 AI 基础设施领域的知名分析师,研究机构 SemiAnalysis 创始人

所以我们的优势在于:架构的可编程性,以及英伟达作为一家高度协同设计的公司。我们甚至可以把一部分计算卸载到互连架构中,比如 NVLink,或者网络层,比如 Spectrum-X。也就是说,我们可以在处理器、系统、互连、软件库、算法这些层面同时推动变化。所有这些都是同时完成的。如果没有 CUDA 来支撑这一切,我甚至不知道该从哪里开始。

Dwarkesh Patel:

这也引出了一个关于英伟达客户结构的问题:如果你们 60% 的收入来自这五大超大规模云厂商(hyperscalers),在另一个时代、面对不同类型的客户,比如做实验的教授,他们会非常依赖 CUDA。他们不能用别的加速器,只能用 PyTorch + CUDA,并且需要一切都被优化好。

但如果是这些超大规模云厂商,他们有能力自己写内核。事实上,他们也必须这么做,去榨取最后那 5% 的性能。Anthropic、Google 很多时候在用自研加速器或者 TPU 来训练。即使是 OpenAI,在使用 GPU 时也会用 Triton,他们会说:我们需要自己的 kernel。于是他们会直接写 CUDA C++,而不是用 cuBLAS、NCCL 这些库,并且构建自己的软件栈,甚至可以编译到其他加速器上。

所以,对你们的大多数客户来说,他们确实可以、也确实在替代 CUDA。那 CUDA 到底在多大程度上,仍然是推动前沿 AI 必须依赖英伟达的关键?

Jensen Huang:

首先,CUDA 是一个非常丰富的生态系统。如果你要在任何一台计算机上开发,从 CUDA 开始是一个非常明智的选择。因为这个生态非常丰富,我们支持所有主流框架。

如果你需要写自定义 kernel,比如 Triton,我们在 Triton 的后端贡献了大量英伟达技术,我们也非常乐于帮助各种框架变得更好。现在有很多很多框架,比如 Triton、vLLM、SG Lang,还有更多。

随着后训练(post-training)和强化学习的发展,这一领域正在快速扩张。比如你有 Vairal、NeMo RL,以及一系列新的框架。如果你要在某个架构上开发,从 CUDA 开始是最合理的,因为你知道生态是成熟的。当出现问题时,更可能是你自己的代码出了问题,而不是底层那一大堆代码。

不要忘了,这些系统背后涉及的代码规模是非常巨大的。当系统出问题时,你会想知道问题是在你这里,还是在计算平台本身。

你当然更希望问题是在你自己,而不是在计算平台。当然,我们自己也有很多 bug,但我们的系统已经非常成熟,你至少可以在一个可靠的基础上继续构建。

第二点是,安装基数的规模。如果你是开发者,无论你在做什么,最重要的一件事就是「安装基数」(install base)。你希望你的软件能运行在尽可能多的计算机上。你不是为了自己写软件,你是为你的整个集群,甚至为整个行业写软件,因为你是一个框架开发者。

英伟达的 CUDA 生态,本质上是我们最重要的资产。现在全球已经有数亿块 GPU。所有云厂商都有,从 V100、A100、H100、H200,到 L 系列、P 系列,各种规格都有。

而且它们存在于各种不同的形态中。如果你是一家机器人公司,你会希望 CUDA 能直接运行在机器人本体上。我们基本无处不在。

这意味着,一旦你开发了软件或模型,它可以在任何地方使用。所以这个安装基数本身的价值是极其巨大的。

最后一点是,部署位置的灵活性。我们存在于所有云平台中,这一点使我们具有独特性。作为 AI 公司或开发者,你并不确定最终会和哪一家云厂商合作,也不确定你的系统会运行在哪里。而我们在所有地方都可以运行,包括本地部署(on-prem)。

所以,生态的丰富性、安装基数的规模,以及部署位置的灵活性,这三者结合在一起,是非常有价值的。

Dwarkesh Patel:

这很有道理。但我比较好奇的是,这些优势对你们的主要客户来说,是否真的那么重要。确实有很多人会受益于这些优势,但那些能够自己构建软件栈的人——也就是贡献你们大部分收入的那批客户——尤其是在一个 AI 在「可验证反馈闭环」任务上越来越强的世界里,比如强化学习场景,像 attention 或 MLP 这样的 kernel 优化,其实是一个非常容易验证的反馈循环。

那这些超大规模云厂商,是否完全可以自己写这些 kernel?当然,他们可能仍然会因为性价比选择英伟达。但问题在于,这最终会不会变成一个简单的比较:谁能提供更好的规格?比如,在单位成本下,谁能提供更高的算力(FLOPs)和更高的内存带宽?因为过去英伟达在硬件和软件层面都拥有极高的利润率(70% 以上),很大程度上是因为 CUDA 这个护城河。

那问题是,如果大多数客户都可以自己构建软件栈,而不依赖 CUDA,这样的利润率还能维持吗?

Jensen Huang:

我们投入到这些 AI 实验室的工程师数量是非常惊人的,和他们一起工作、帮他们优化整个技术栈。原因是,没有人比我们更了解我们的架构。而这些架构并不像 CPU 那样通用。

CPU 有点像一辆「家用车」,你可以把它理解成一辆巡航车,不会开得特别快,但每个人都能很好地驾驶,有巡航控制,一切都很简单。但英伟达的 GPU 加速器更像是 F1 赛车。我可以想象每个人都能把它开到 100 英里每小时,但要把它真正推到极限,是需要相当专业能力的。

而我们使用大量 AI 来生成这些 kernel。我非常确定,在相当长一段时间内,我们仍然是不可或缺的。我们的专业能力可以帮助这些 AI 实验室的合作伙伴,很容易地把他们的性能再提升 2 倍。很多时候,我们优化完他们的技术栈或某个 kernel 后,他们的模型可以加速 3 倍、2 倍,甚至 50%。这是一个非常大的提升,尤其是当你考虑到他们拥有大量 Hopper 和 Blackwell 集群时。

如果你把性能提升一倍,那就意味着收入直接翻倍。这是直接对应收入的。英伟达的计算栈,在全球范围内的 TCO(总拥有成本)表现是最优的,没有任何对手。没有任何一家公司能向我证明,有哪个平台在性能/TCO 比上比我们更好。一个都没有。而且这些基准测试是公开存在的。

Dylan 说得没错。Inference Max 是公开的,任何人都可以用。但没有任何 TPU 团队愿意用它来展示他们的推理成本优势。这很难做到,没有人愿意出来证明。

MLPerf 也是一样。我很欢迎他们来展示他们一直声称的 40% 优势。我很想看到他们证明 TPU 在成本上的优势。在我看来,这没有意义,从基本原理上讲就说不通。完全说不通。

所以我认为,我们之所以成功,根本原因是我们的 TCO 非常优秀。

另外一点,你说我们 60% 的客户来自前五大厂商,但其中大部分业务其实是面向外部客户的。比如,在 AWS 上,英伟达的算力大多数是提供给外部客户,而不是 AWS 自己用。在 Azure 上,我们的客户基本也都是外部客户;在 OCI 上也是如此。他们之所以选择我们,是因为我们的覆盖范围非常广。

我们可以把全球最优质的客户带给他们,而这些客户本身就是建立在英伟达平台上的。而这些公司之所以建立在英伟达上,是因为我们的覆盖范围和灵活性都非常强。

所以我认为,这个飞轮在起作用:安装基数、架构的可编程性、生态的持续积累。再加上现在全球有成千上万家 AI 公司。如果你是其中一家 AI 初创公司,你会选择哪种架构?你会选择最普及的、安装基数最大的、生态最丰富的架构。这就是这个飞轮的逻辑。

所以原因在于:

·第一,我们的单位成本性能(performance per dollar)非常高,因此 token 成本最低;

·第二,我们的单位功耗性能(performance per watt)是全球最高的;如果合作伙伴建设一个 1GW 的数据中心,它必须产出最多的 token,也就是最多的收入。而我们的架构在单位功耗下可以产生最多的 token。

·第三,如果你的目标是出租算力,我们拥有全球最多的客户。

这就是这个飞轮成立的原因。

Dwarkesh Patel:

很有意思。我觉得问题的核心在于,这个市场结构到底是什么样的。即使存在很多公司,也完全可能出现一种情况:有成千上万家 AI 公司,它们大致平分算力。

但如果实际情况是,通过这些超大规模云厂商,真正使用算力的是像 Anthropic、OpenAI 这样的基础模型公司,而它们有能力让不同加速器都跑起来。

Jensen Huang:

我认为你的这个前提是错的。

Dwarkesh Patel :

也许吧。那我换个问法,如果这些关于性能和成本的说法都成立,那为什么像 Anthropic 这样的公司,前几天刚刚宣布和博通、Google 达成多吉瓦级别的 TPU 合作?而且它们大部分算力都来自这些体系。对 Google 来说,TPU 本身就是主要算力来源。所以如果看这些大型 AI 公司,曾经是完全用英伟达,现在已经不是了。

如果这些优势在理论上成立,那为什么它们还会选择其他加速器?

Jensen Huang:

Anthropic 是一个比较特殊的例子。如果没有 Anthropic,TPU 的增长几乎不会存在。TPU 的增长几乎完全来自 Anthropic。同样,如果没有 Anthropic,训练需求的增长也几乎不存在。

这是一个非常清楚的事实。并不是存在大量类似的机会,实际上只有一个 Anthropic。

Dwarkesh Patel:

但 OpenAI 也和 AMD 有合作,他们还在开发自己的 Titan 加速器。

注:AMD(Advanced Micro Devices)是一家美国半导体公司,主要设计计算芯片,是英伟达和英特尔的重要竞争对手

Jensen Huang:

但他们绝大多数还是在用英伟达。我们也会继续大量合作。我并不会因为别人尝试其他方案而感到不满。如果他们不去尝试其他方案,又怎么知道我们的方案有多好?

有时候确实需要通过比较来重新确认这一点。而我们也必须不断证明我们配得上现在的位置。

市场上一直都有各种各样的说法。你可以看看有多少 ASIC 项目被取消了。仅仅因为你开始做 ASIC,并不意味着你能做出比英伟达更好的东西。

事实上,这并不容易。甚至可以说,从理性上看,这并不太成立。除非英伟达真的在某些方面犯了严重错误。但考虑到我们的规模、我们的速度——我们是全球唯一一家每年都在实现大幅跃迁的公司。

Dwarkesh Patel:

他们的逻辑是:不需要比英伟达更好,只要不要比英伟达差 70% 就可以,因为他们认为你们的利润率有 70%。

Jensen Huang:

但别忘了,即使是 ASIC,利润率其实也很高。英伟达的利润率大约是 60%–70%,而 ASIC 的利润率可能也有 65%。那你真正节省了多少呢?

你总是要付钱给某一方。所以从我看到的情况来看,这些基础(ASIC)业务的利润率其实也非常高,而且他们自己也这么认为,并且对此相当自豪。

很早以前,我们其实没有能力去做这件事。而且说实话,当时我并没有真正深刻理解,构建一个像 OpenAI 或 Anthropic 这样的基础模型实验室到底有多困难。也没有完全意识到,它们实际上需要来自供应方的大规模投资支持。

当时我们没有能力去做那种数十亿美元级别的投资,比如投资 Anthropic,让他们使用我们的算力。但 Google 和 AWS 可以,他们在一开始就投入了巨额资金,而作为回报,Anthropic 使用他们的算力。

我们当时既没有能力这样做,我会说,这是我的一个失误:我没有真正意识到,他们其实没有其他选择。风险投资机构不可能投 50 亿、100 亿美元去支持一个 AI 实验室,并期望它成长为 Anthropic。

这是我的判断失误。但即便当时我意识到了,我也不认为我们在那个阶段有能力去做这件事。

不过我不会再犯同样的错误了。我很高兴能投资 OpenAI,也很高兴帮助他们扩展,我认为这是必要的。当后来 Anthropic 来找我们时,我也很高兴成为投资人,帮助他们发展。

只是当初那个时间点,我们确实做不到。如果可以重来,如果当时英伟达已经像现在这样强大,我会非常愿意去做这些事情。

为什么英伟达不做「云」?

Dwarkesh Patel:

这很有意思。多年来,英伟达一直是在 AI 领域「卖铲子赚钱」的公司,而且赚了很多钱。而现在你们开始把这些钱投入进去。有报道称,你们在 OpenAI 上投资了 300 亿,在 Anthropic 上投资了 100 亿。而这些公司的估值还在持续上涨。

所以,如果回头看过去几年,你们给了他们算力,也看到了趋势,而当时它们的估值只有现在的十分之一,甚至一年前也还远低于现在。而你们当时已经有大量现金。

其实存在一种可能:英伟达自己成为基础模型公司,或者更早在更低估值时进行大规模投资,类似你现在做的这些事情。

所以我确实很好奇,为什么没有更早这样做?

Jensen Huang:

我们是在「能够做的时候」立刻去做的。如果当时可以,我会做得更早。在 Anthropic 当初需要我们支持的时候,我就会去做。但当时我们确实没有那个能力。

这不在我们的能力范围之内,也不在我们的决策惯性之内。

Dwarkesh Patel:

是资金的问题,还是?

Jensen Huang:

对,是投资规模的问题。我们当时几乎没有对外投资的传统,更不用说那种规模的投资。而且我们也没有意识到这是必要的。

我当时的想法是,他们完全可以去找风险投资,就像其他公司一样。但他们要做的事情,其实是风险投资无法支持的。OpenAI 想做的事情,也不是风险投资能支持的。

这是我后来才意识到的。但这正是他们的聪明之处。他们当时就意识到,必须走那样一条路径。我很高兴他们这么做了。即使我们当时没能参与,导致 Anthropic 转向了其他合作方,我仍然认为这是好事。Anthropic 的存在,对整个世界都是好事,我为此感到高兴。有一些遗憾是可以接受的。

Dwarkesh Patel:

那问题还是会回到一点:既然现在你们已经有这么多现金,而且还在持续增长,那英伟达应该如何使用这些资金?

一种思路是,现在出现了一个中间层生态,帮这些 AI 实验室把资本开支(capex)转化为运营开支(opex),让他们可以租用算力。

因为 GPU 很贵,但随着模型进步,它们在生命周期中可以持续产生更高价值的 token。而英伟达本身有能力承担这些前期资本开支。比如有报道称,你们为 CoreWeave 提供了高达 63 亿美元的支持,并投资了 20 亿。

那为什么英伟达不自己成为云厂商?为什么不成为一个 hyperscaler,自建云并出租算力?毕竟你们有这个现金能力。

Jensen Huang:

这是一个公司的哲学问题,而且我认为这是一个明智的哲学:我们应该做「必要的尽可能多的事,同时做尽可能少的事」。

这意味着,在构建计算平台这件事上,如果我们不做,我真的相信这件事就不会被完成。

如果我们不承担这些风险,不去构建 NVLink,不去构建整个软件栈,不去打造这个生态,不去投入 20 年时间做 CUDA(其中大部分时间甚至是亏钱的),如果我们不做这些事情,没有人会做。如果我们不去构建这些 CUDA-X 的领域专用库——无论是光线追踪、图像生成,还是早期 AI 模型、数据处理、结构化数据、向量数据处理——如果我们不做,这些东西就不会存在。

我对此是完全确信的。我们甚至为计算光刻开发了一个库叫 cuLitho,如果我们不做,也不会有人去做。

所以,加速计算之所以能发展到今天这个程度,是因为我们做了这些事情。这就是我们应该全力投入去做的部分。

但与此同时,世界上已经有很多云厂商了。即使我们不做,也会有人来做。所以基于「做尽可能多必要的事,但尽可能少做其他事」的原则,这个理念在公司里一直存在。我做的每一个决策,都会从这个角度出发。

在云这个领域,如果我们当初不支持 CoreWeave,这些新型 AI 云(neocloud)可能不会存在。如果我们不支持他们,他们不会发展到今天这个规模。像 Nscale、Nebius 也是一样,如果没有我们的支持,他们不会走到现在。而现在,它们发展得都很好。

但这是不是一个我们应该亲自去做的业务?不是。我们还是坚持那个原则:做必要的事情,其他尽量少做。所以我们会投资生态,是因为我希望整个生态能够繁荣。我希望我们的架构能够连接尽可能多的行业、尽可能多的国家,让 AI 能够在全球范围内被构建出来,并且建立在美国的技术栈之上。

这是我们正在推进的愿景。

同时,你刚才提到,现在有很多优秀的基础模型公司,我们会尽量去投资它们。

还有一点是,我们不会去「挑选赢家」。我们希望支持所有人。这既是我们的业务需要,也是我们愿意去做的事情。所以当我投资其中一家公司时,我也会投资其他公司。

Dwarkesh Patel:

那为什么你们会刻意不去挑选赢家?

Jensen Huang:

因为这不是我们的职责。第一点。

第二点,当英伟达刚成立的时候,有大约 60 家图形公司,60 家做 3D 图形的公司。最后只有我们活了下来。如果你当时在这 60 家公司里选一家会成功的,英伟达很可能是最不被看好的那一家。

这在你那个年代之前,但当时英伟达的图形架构是完全错误的。不是有一点点偏差,而是从根本上就是错的。我们设计了一个开发者几乎不可能支持的架构,本来是注定不会成功的。我们是基于很合理的第一性原理推导出来的,但最终走到了错误的解。

所有人都认为我们不可能成功,但我们最后还是活下来了。所以我有足够的谦逊去承认这一点,不要去挑选赢家。要么让他们自己发展,要么就支持所有人。

Dwarkesh Patel:

有一点我没太理解。你说你们并不是刻意去优先支持这些新云厂商,但你刚刚也提到,如果没有英伟达,它们可能不会存在。那这两点是怎么同时成立的?

Jensen Huang:

首先,它们必须自己想要存在,并且主动来找我们寻求帮助。当它们有明确的意愿、有商业计划、有能力、有热情的时候——当然,它们本身也必须具备一定的能力——如果在起步阶段需要一些投资支持,我们会在那里。

但关键是,它们要尽快建立起自己的飞轮。你刚才的问题是,我们是否想进入融资业务?答案是不想。我们不想成为金融机构。市场上已经有很多做融资的人,我们更愿意和这些金融机构合作,而不是自己去做融资。

所以我们的目标,是专注在我们自己的事情上,让商业模式尽可能简单,同时支持整个生态。

Jensen Huang:

当像 OpenAI 这样的公司,在 IPO 之前需要 300 亿美元规模的投资时,而我们又非常相信他们——我个人非常相信他们已经是一个非凡的公司,并且会成为更加卓越的公司。这个世界需要他们存在,大家也希望他们存在,我也希望他们存在。他们具备所有成为赢家的要素,那我们就支持他们、帮助他们扩张。

所以,这类投资我们会去做,因为他们确实需要我们这样做。但我们的原则不是「尽可能多做」,而是「尽可能少做」。

Dwarkesh Patel:

这个问题可能有点显而易见,但过去很多年,我们一直处在 GPU 短缺的状态,而且随着模型变强,这种情况更明显了。

Jensen Huang:

是的,我们确实存在 GPU 短缺。

Dwarkesh Patel:

而英伟达被认为在分配这些稀缺资源时,并不是单纯按出价最高来分,而是会考虑,比如要确保这些新云厂商存在——给 CoreWeave 一些、给 Crusoe 一些、给 Lambda 一些。

首先,你认同这种说法吗?其次,这对英伟达有什么好处?

Jensen Huang:

我认为你的前提是错误的。当然,我们会非常谨慎地看待这些事情。

首先,如果你没有下采购订单(PO),再多的沟通都没有意义。所以第一点,我们会和所有客户一起努力做好需求预测,因为这些产品的生产周期很长,数据中心建设周期也很长。我们通过预测来对齐供需,这是第一件事。

第二,我们会尽可能和更多客户一起做预测。但最终,你还是必须下订单。如果你没有下订单,那我也无能为力。所以在某个阶段,就是「先下单先服务」。

但除此之外,如果你的数据中心还没准备好,或者某些关键组件还没准备好,导致你暂时无法部署系统,我们可能会优先服务其他客户。这只是为了最大化我们工厂的整体吞吐效率。

除了这种情况,优先级原则就是「先来先服务」。你必须下订单。如果你不下订单,那就没有办法。

当然,外界有很多故事,比如有人说 Larry 和 Elon 和我吃饭时请求 GPU——我们确实一起吃过饭,那是一次很愉快的晚餐,但他们从来没有「请求」过 GPU。他们只需要下订单就可以。一旦下单,我们就会尽最大努力提供产能。事情没有那么复杂。

Dwarkesh Patel:

所以听起来像是一个排队机制,取决于你什么时候下单、数据中心是否准备好。但这仍然不是单纯「出价最高者得」,对吗?

Jensen Huang:

我们从来不这样做。

Dwarkesh Patel:

从不按最高出价来分配?

Jensen Huang:

从不。因为这是很糟糕的商业做法。

你设定价格,客户决定买不买。我知道行业里有些公司会在需求上升时提高价格,但我们不会。这从来不是我们的做法。客户可以依赖我们。我更愿意成为一个可靠的存在,成为行业的基础。你不需要去猜测价格变化。

如果我给了你一个报价,那就是最终价格。即使需求暴涨,也不会改变。

Dwarkesh Patel:

那这也是你们和台积电关系稳定的原因之一,对吧?

Jensen Huang:

英伟达和台积电已经合作快 30 年了。英伟达和台积电之间甚至没有正式的法律合同,彼此之间更多是一种大致公平的默契。有时候我是对的,有时候我是错的;有时候我拿到了更好的条件,有时候条件没那么好。但整体来看,这段关系非常了不起,我可以完全信任他们,也可以完全依赖他们。

而且,对英伟达来说,有一点你是可以确定的:今年 Rubin 会非常出色,明年 Vera Rubin Ultra 会推出,再下一年 Feynman 会推出,再下一年——那个名字我还没公布。也就是说,每一年,你都可以信赖我们。你得去全世界再找一个 ASIC 团队,看看有没有哪一家能让你说:我可以把整个公司押上去,相信你每一年都会在这里支持我。

我的 token 成本会每年按一个数量级下降,我可以像相信时钟一样相信这件事。我刚才关于台积电也说了类似的话。历史上没有任何一家晶圆厂能让你这样说。

但今天,你可以对英伟达这样说。你可以每一年都信赖我们。

如果你想买 10 亿美元的 AI 工厂算力,没有问题;如果你想买 1 亿美元,也没有问题;如果你想买 1000 万美元,甚至只买一个机架,也没问题;就算你只想买一张显卡,也没问题。如果你想下一个 1000 亿美元的 AI 工厂订单,也没有问题。

今天,全世界只有我们这一家公司可以这样说。而我也可以对台积电这样说:我想买 10 亿美元,没有问题。我们只需要一起做好规划,走完该走的流程,做成熟企业都会做的那些事情。

所以,我认为,英伟达能够成为全球 AI 产业的基础,这个位置是我们花了几十年才走到的。这里面有巨大的投入、巨大的专注,而公司的稳定性与一致性,是非常重要的。

为什么英伟达拒绝「多路线下注」

Dwarkesh Patel :

这其实引出了一个很有意思的问题。我们之前聊过台积电、内存这些瓶颈。现在如果进入这样一个世界:你们已经占了 N3 的大部分产能,之后可能也会占 N2 的大部分产能。你会不会考虑回头去用 7 纳米之类的旧工艺节点的闲置产能?

比如 AI 的需求太大了,最先进制程的扩产又跟不上,那你们就用今天关于数值优化、系统设计的全部经验,重新做一个 Hopper 或者 Ampere 版本。你觉得这种情况会不会在 2030 年之前出现?

Jensen Huang:

没这个必要。原因是,每一代架构的进步都不只是晶体管尺寸的变化。你还在封装、堆叠、数值系统、系统架构上做了大量工程工作。等到你走到这一步,再回头去做一个旧节点版本,那需要投入的研发规模是没人负担得起的。我们能负担得起继续往前走,但我不认为我们负担得起回头走。

当然,如果做一个思想实验:假设有一天全世界都说,先进产能永远不可能再增加了。那我会不会立刻回去用 7 纳米?当然会,毫无疑问。

Dwarkesh Patel:

我之前和别人聊到一个问题:为什么英伟达不同时推进多个完全不同的芯片项目?比如你可以做一个像 Cerebras 那样的晶圆级架构,可以做一个像 Dojo 那样的大封装,也可以做一个不依赖 CUDA 的东西。

你们有资源,也有工程人才,可以并行做这些事。既然没人知道 AI 或架构未来到底会往哪走,为什么要把鸡蛋都放在一个篮子里?

Jensen Huang:

我们当然可以这么做。只是我们没有看到更好的方案。这些东西我们都模拟过了,在我们的仿真器里大概率都更差。所以我们不会去做。我们现在做的,就是我们真正想做、也认为最正确的那些项目。

当然,如果未来工作负载本身发生剧烈变化——我说的不是算法变化,而是工作负载真的变了,那我们也可能会加入其他类型的加速器。

比如最近我们加入了 Grok,我们会把 Grok 纳入 CUDA 生态。我们现在就在做这件事。这是因为 token 的价值已经变得非常高了,所以同一个模型、基于不同的响应速度,可能会对应不同的价格层级。

几年前,token 几乎是免费的,或者说便宜得几乎等于免费。但现在,不同客户对 token 的要求不一样。而且这些客户本身可以从中赚很多钱。比如说,对软件工程师来说,如果我能给他们更快响应的 token,让他们比今天更高效,那我是愿意为此付钱的。

但这样的市场,其实是最近才出现的。所以我认为,现在我们第一次真正有能力让同一个模型基于响应时间形成不同市场分层。

这也是为什么我们决定扩展这条帕累托前沿,去做一种「响应更快、但吞吐更低」的推理分支。因为过去,高吞吐总是最重要的。但我们现在认为,未来可能会出现一种高 ASP(高单价)的 token。即使工厂里的吞吐更低,单价也足以弥补它。

这就是我们这么做的原因。但如果只谈架构本身,我会说,如果我有更多钱,我会把更多钱投到现有架构上。

Dwarkesh Patel :

我觉得这种「极高溢价 token」以及推理市场分层的想法非常有意思。

最后一个问题。假设深度学习革命从来没有发生过,英伟达今天会在做什么?

Jensen Huang:

当然,游戏还是会做,但除此之外,还是加速计算。我们一直在做的,本来就是这个。

我们公司的基本前提是:摩尔定律会放缓。通用计算对很多事情都很好,但对很多计算任务来说并不是理想方案。所以我们把 GPU 这种架构和 CPU 结合起来,让它去加速 CPU 的工作负载。不同的代码 kernel、不同的算法,都可以被卸载到 GPU 上运行。这样一来,一个应用就可以加速 100 倍、200 倍。

那它能用在哪里?当然是工程、科学、物理、数据处理、计算机图形学、图像生成,各种地方。

所以即便今天 AI 不存在,英伟达依然会是一家非常大的公司。原因其实很根本:通用计算继续扩展的能力,已经基本走到头了。而提升性能的一种方式——不是唯一方式,但很重要的一种方式——就是做领域专用加速。

我们一开始切入的是计算机图形学,但还有很多其他领域。比如各种科学计算、粒子物理、流体模拟、结构化数据处理等等,各种不同类型的算法都会从 CUDA 中受益。

所以我们的使命一直都是把加速计算带给这个世界,推动那些通用计算做不到、或者无法扩展到足够能力级别的应用继续往前发展,帮助科学领域实现突破。我们最早的一些应用,就是分子动力学、能源勘探中的地震处理,当然还有图像处理。

所有这些领域,通用计算本身都太低效了。所以,是的,如果没有 AI,我会很难过。但正是因为我们在计算上的进步,我们把深度学习民主化了。我们让任何研究者、任何科学家、任何学生,在任何地方,都能用一台 PC、或者一块 GeForce 显卡,做出很惊人的科学研究。而这个最根本的承诺,从来没有变过,一点都没有。

所以如果你去看 GTC,你会发现最开始很大一部分内容其实根本不是 AI。无论是计算光刻、量子化学,还是数据处理,那些都和 AI 无关,但依然非常重要。我知道 AI 很有趣,也很令人兴奋。

但仍然有很多人在做非常重要、但与 AI 无关的工作。Tensor 也不是他们唯一的计算方式。而我们希望帮助所有这些人。

Dwarkesh Patel:

Jensen,非常感谢你。

Jensen Huang:

不客气,我很享受这次对话。

原文链接

头部加密VC集体缩水:a16z 加密基金管理规模暴跌40%,Multicoin腰斩

原文作者: Ben Weiss

原文编译: 深潮 TechFlow

导读: Fortune 记者从 SEC 拿到了一批未公开的加密 VC 财务披露文件,数据显示 Paradigm、Pantera、a16z crypto、Multicoin 等头部机构的管理资产规模(AUM)在 2025 年全线缩水。但缩水不全是坏事——a16z crypto 在市场高点把钱退给了 LP,首期基金 DPI 达到 5.4 倍。唯一逆势增长的是 Haun Ventures,靠 BVNK 被 Mastercard 收购押中了稳定币赛道。

加密 VC 的头部玩家没能躲过 2025 年的市场崩盘。

Fortune 记者 Ben Weiss 从美国证券交易委员会(SEC)拿到了一批此前未公开的投资顾问财务披露文件。数据很直接:Paradigm、Pantera Capital 这些顶级机构的 AUM 在 2025 年集体缩水。

图注:2021-2025 年头部加密 VC 管理资产规模(AUM)变化

制图:Ben Weiss / Fortune

但在开始列数字之前,有一个前提要先说清楚:AUM 不是衡量 VC 成败的好指标。它不反映新一轮融资、LP 退出分配、也不反映资本催缴。加密资产价格本身就剧烈波动——某个情绪不稳定的男人发一条推文就能让币价坐过山车(马斯克、特朗普、赵长鹏,随便挑一个)。老牌加密 VC 们经历过 2021 年 NFT 狂潮时的资产暴涨,也见过随后「加密寒冬」里的组合暴跌。

原文作者 Ben Weiss 也强调:真正的顶级投资者,最终是要把钱退给 LP 的。AUM 短期变动不等于业绩好坏。

搞清楚这个前提,来看具体数据。

a16z crypto:AUM 缩水近 40%,但钱退给了 LP

a16z crypto 旗下四只加密基金的 AUM 合计从 2024 年暴跌近 40%,降至 $95 亿。同一时期,母公司 Andreessen Horowitz 的资产管理规模膨胀到了 $1000 亿以上。

缩水的原因,一部分是这家机构开始把前三只基金的收益分配回 LP。据知情人士透露,a16z crypto 有意选择在 2025 年加密市场高点进行分配。

效果怎么样?根据 Newcomer 的数据,a16z 首只加密基金的净 DPI(分配对实缴资本比率)达到 5.4 倍。和 Carta 平台上 2018 年同期募集的其他 VC 基金相比,这个回报率相当亮眼。

换句话说,AUM 缩水这件事在 a16z crypto 身上,更多是「赚到钱、退给 LP」的结果,而不是「持仓暴跌」的结果。

Multicoin:AUM 腰斩至 $27 亿

Multicoin Capital 的命运和加密市场深度绑定。2021 年加密狂潮期间,它的 AUM 一年翻了接近三倍,逼近 $90 亿。FTX 崩盘后直接暴跌,之后两年又逐步反弹。

但 2025 年这一轮下跌又把它打回去了。从 2024 年到 2025 年,Multicoin 的 AUM 缩水过半,降至约 $27 亿。自 2025 年 10 月 BTC 开始跳水以来,加密资产全线回落,Multicoin 这种同时运营对冲基金和 VC 基金的结构首当其冲。

补充一个背景:Multicoin 联创 Kyle Samani 今年 2 月已经离开公司,转向投资科技领域其他方向。

Pantera:五家被投公司 IPO,资本回流 LP

Pantera Capital 的 AUM 同样缩水,但和 a16z 类似,一部分原因是主动向 LP 退出分配。

据知情人士透露,Pantera 在 2025 年有五家被投公司上市,其中包括 Circle 和 BitGo。这些退出带来了可观的现金回流。

Haun Ventures:唯一逆势增长,AUM 涨超 30%

在一片缩水声中,Haun Ventures 是唯一的例外。

这家由前 a16z crypto 合伙人 Katie Haun 创立的机构,AUM 同比增长超过 30%,接近 $25 亿。一方面是因为押中了赛道——它投资的稳定币公司 BVNK 被 Mastercard 以最高 $18 亿的价格收购。另一方面,Haun Ventures 本身也在 2025 年募集新的 $10 亿基金。

新一轮募资已经启动

虽然 AUM 缩水,但头部机构并没有停下脚步:

Paradigm 正在募集最多 $15 亿的新基金。a16z crypto 正在募集最多 $20 亿。Dragonfly 刚刚关闭了 $6.5 亿的第四期基金。文章发布后 Fortune 补充更正:Dragonfly 发言人实际上做出了回应,确认数据「准确」,并表示「我们正在积极部署资本」。

Paradigm、Pantera、a16z crypto、Multicoin、Haun Ventures 的发言人均拒绝评论。

加密 VC 的周期性宿命

原文到这里就结束了,但有几个背景值得补充。

加密 VC 和传统科技 VC 有本质区别。传统 VC 投股权,退出靠 IPO 或并购。加密创业公司很多有自己的代币,VC 的持仓直接暴露在代币价格波动中。

Multicoin 是最极端的案例:据 Fortune 此前报道,2017 年到 2021 年其资产翻了 20,287%,2022 年又回撤 90%。这种幅度在传统 VC 领域不可想象。

据 Pantera Capital 今年初的展望报告,非 BTC 的加密总市值(排除 ETH 和稳定币)从 2024 年末高点下跌了约 44%。但按照历史规律,熊市也是抄底的窗口期。几家头部机构此刻密集募资,赌的就是下一轮周期。

据 Fortune 此前独家报道,a16z crypto 第五只基金计划在 2026 年上半年完成募资,由 Chris Dixon 领投,将继续全力押注区块链方向。Paradigm 的新基金则据《华尔街日报》报道将扩展到 AI 和机器人技术领域。两种策略分野很明显:a16z 继续 all-in crypto,Paradigm 选择跨赛道对冲。

从马杜罗被捕到美伊停火,特朗普身边的内幕网络

「内幕人士」大概是股民既爱又恨的存在。爱,是因为如果能跟上他们的节奏,等于提前知道了答案;恨,是因为他们手里的牌你永远看不见。

然而就算是消息最灵通的内幕人士,在股市里也有自己的局限。你知道美国要打伊朗,但强相关的军工股具体涨多少、何时涨、中间会不会被宏观情绪砸一下,这些都是无法控制的变量。

而我们今天要讨论的 5 名内幕人士,在不用考虑标的、入场时机、甚至不用担心暴露身份的情况下,几笔交易就利用信息差赚了 130 万美元。其中,有人在美以伊冲突开始前半小时还在交易,有人用两笔交易复利赚了 20 倍。

他们的「套现渠道」来自 Polymarket,一个基于区块链匿名特性的预测市场平台。和交易股票、大宗商品等标的不同,预测市场上交易的是「这个事儿会不会发生」。

在明知「下周特朗普要和伊朗谈和」的情况下,风险最低的获利方式就是和别人预测「下周美伊一定会谈和」。

今天,我们就来从数据层面扒一扒 5 名账户,看看他们的画像为什么符合「内幕人士」的特征。

两万本金,两笔交易,二十倍复利

2026 年以来,Polymarket 上有三个特别出圈的地缘政治交易事件:马杜罗被捕、美以联合打击伊朗、美伊宣布停火。这三个交易事件总共给平台贡献了 8.6 亿美元的交易量。

而我们今天提到的这 5 名账户,通过连续「赌」对这种震惊全球的地缘政治事件,在极短的时间内赚得盆满钵满。比如,账户 1 用 2 万美金成功预测美以伊冲突发生时间后,连本带利再次全仓「押注」美伊停火,赚了 40 万美元,实现 20 倍盈利。

更蹊跷的是,这些账户的注册时间分别在 2025 年 12 月和今年 2 月:一个是马杜罗被抓之前,另一个是本轮美以伊冲突前夕。而他们在这个平台上参与的市场总数却也寥寥可数,仿佛目的就是为了来参与自己知道会稳赢的赌局。

如果说注册时间、交易数量少、盈利高仍不足以证明他们的内幕画像,那真正可疑的,是接下来两件事。

「小赌怡情,大赌是因为我知道我输不了」

赌徒和内幕人士最大的区别之一在于,内幕人士知道押注结果,所以敢于在确定性机会上下重注。而这 5 名账户在这方面呈现出的特征,则完美诠释了他们与赌徒的区别。

通过计算每个账户在这三个事件中的投入金额占其总投入金额的比例可以看出,虽然这五名账户的投入金额参差不齐,但他们的比例数据却高度统一。即便是行为最为分散的账户 2,也有 93% 的资金押在相关市场。

这种集中度在统计上是明显异常的。即便是专注地缘政治的分析型投机者,通常也会在十几个市场里分散仓位来管理不确定性。这 5 个账户的选择更像是:认准了几个目标,把几乎全部筹码压进去,其他市场并不重要。

开打前 21 分钟来预测市场赌「要打仗了」

如果说资金集中度是画像轮廓,那建仓时机才是最直接的证据。

北京时间 2 月 28 日 14 时 20 分左右,伊朗首都德黑兰听到爆炸声,以色列宣布袭击伊朗。与此同时,「美国是否会在 2 月 28 日前打击伊朗」这一市场的概率在短时间内从 20% 骤升至 99%,随后迎来结算。

而在参与该市场的 3 名账户中,有两名在打击发生当天押注「是」,其中账户 3 的首笔押注发生在打击前 21 分钟。这笔押注在半小时后翻了 4 倍。

而市场「美国 × 伊朗是否会在 4 月 15 日前停火」的剧情则更令人咋舌。参与该市场的三名账户早在停火前半个月就已经买入了「是」选项,他们的仓位也在随后两周内局势愈加紧张的情况下缩水超 80%。

4 月初,当大部分宏观分析师和智库都在宣称「冲突即将升级为地面战」的时候,这三名账户却在投入更多资金,笃定停火将在接下来的两周内落地。

北京时间 4 月 8 日 06:32,特朗普在 Truth Social 发文宣布停火,概率从 20% 直线冲至 100%。这三名账户通过本次停火盈利近 75 万美元。

亏损,反而更坐实了内幕画像

这 5 个账户并非无懈可击——账户 3 和账户 4 都在「马杜罗是否会于 2025 年内下台」这个市场上亏了钱。乍一看,这笔亏损已经足够洗清他们作为内幕人士的嫌疑。

可如果我们结合特朗普在抓捕马杜罗后的第二天接受媒体采访来看,这笔亏损反而坐实了两人内幕人士的画像。

2026 年 1 月 4 日,特朗普在接受 Fox News 采访时透露,美军原本计划在 2025 年 12 月 29 日执行委内瑞拉行动,但因天气窗口不合适等待了数日,最终于 1 月 3 日才付诸实施。

换言之,如果天气配合,马杜罗将在 2025 年内被捕,「马杜罗是否会于 2025 年内下台」将结算为「是」,这两个账户 1.2 万美元的亏损也会摇身一变成为超 40 万美元的盈利。

他们输,是输在天气,而不是判断错了事件本身。二者在知晓马杜罗仍难逃厄运的前提下,继续押注「马杜罗于 2026 年 1 月 31 日前下台」,最终获利近 30 万美元。

先例已有:有人为此被捕

这并不是第一次有人带着军事内幕来到 Polymarket 套利。

2025 年 6 月,以色列对伊朗发动了一场持续 12 天的军事行动。事后,以色列当局调查并起诉了两名男子:一名以色列空军预备役少校及其民间同伙。

根据起诉书,当以色列战机正在起飞前往打击伊朗之际,这名少校通知了其同伙,后者随即在 Polymarket 买入相关市场,并从这次押注中获利约 16.3 万美元。

本轮美委事件同样引起了美国执法机构的注意。据 Fortune 报道,美委事件中出现的多个可疑账户交易引起了纽约南区执法部门的注意,并随后与 Polymarket 代表会面,就「潜在不当行为」展开讨论。

众议员 Ritchie Torres 随后提出立法,拟限制政府雇员参与政治相关事件合约的交易。目前案件尚无公开起诉结果,但联邦介入调查本身,已经说明这不是孤立的巧合。

以色列的逮捕案已经坐实了一件事:确实有人带着军事内幕来到 Polymarket,也确实有人因此面临起诉。本文分析的这 5 个账户,则呈现了一个更系统化的版本——新账户、资金高度集中、入场时机异常精准、事件结算后全身而退。

与其讨论这些内幕人士可能面对的法律风险,作为旁观者,这件事却也存在着另一层潜在的机遇:当内幕资金流入预测市场,市场价格本身就成了一种信号,使我们在事件还未发生前就能窥见到未来的轮廓。

Exit mobile version