对<全员 token-maxxing,一场没人敢停的军备竞赛>一文的一些看法

“If you don’t know where you’re going, any road will get you there.” –Lewis Carroll

孟醒的这篇硅谷见闻,是我近期读到的关于AI产业最有现场感的报道之一。从YC变成滞后指标,到Meta的token消耗排行榜,到xAI的管理崩盘,到酸橙树和燃烧瓶,这些观察都是真实而生动的。然而通篇读下来,我有一个挥之不去的感觉:整篇文章在描述一个加速失控的系统,却几乎没有质疑加速本身的方向是否正确。

这就是我想反驳的核心命题。如果方向是错的,”跟得上”就不是答案,”跟不上”也不是病;停下来反思才是。这与我之前对智能本质的看法完全一致:智能的核心不在于堆砌的速度,而在于熵减的密度。下面就文章中的若干具体论断,分别谈谈我的反驳与认同。

关于”100倍效率提升只兑现了50%”的谬误

文章给出的隐含逻辑是:效率提升了100倍,营收没涨100倍,所以中间存在某种结构性的不解。但我认为,”100倍效率提升”这个前提本身就是误判。

第一个误判在生成侧。Claude Code让代码生成的token吞吐量提升了100倍,但好创意、好架构、好的产品决策的产出效率,真的也提升了100倍吗?vibe coding让所有人都能”抽卡”100次,但抽出100张普通卡和抽出1张SSR卡,价值是完全不同的。在内容创意彻底平权之后,最终被市场认可的好产品的频率,并没有按token吞吐量等比例增长。这恰恰说明,瓶颈从来不在生成,而在判断、品味与方向。讽刺的是,文章在最后讨论”AI builder”招聘难题时其实自己也意识到了这一点:”审美 + AI使用能力”成了新角色的核心,而这恰恰否定了”100倍效率”叙事的前提。

第二个误判,也是更被低估的,在认知侧,cognitive debt。人类对一个系统的理解带宽是有限的。如果AI生成的代码和算法不能被工程师真正吸收和内化,那么我们其实是在以前所未有的速度欠下技术债务、架构债务、知识债务。今天的”100倍生产力”,如果伴随着对底层逻辑的100倍失控,它的真实价值是负的。这不是抽象的担心:我亲身在多个项目里看到了这种现象——团队用Claude Code”完成”了大量工作,但当bug出现在自己生成却没读懂的代码深处时,定位时间反而比纯人写代码时更长。

效率兑现率只有50%而不是100%,可能并不是AI不够强,而是因为另外那50%本来就是幻觉。

关于”Anthropic自己的oncall agent都不好用”

文章把这件事作为一个反例来突出AI还不够强。但我想说,oncall本身就是一个有相当难度的场景,它不应该被当作丈量”AI够不够强”的标尺。

我并不否认,今天的AI在某些方向上已经能做出人类未曾察觉的发现。AI Scientist类的工作里已经出现了真正意义上的novel contribution,我自己每天用Claude Code在自己的研究方向上也在探索no man’s land,这些都是真实的进展。但oncall与”探索式研究”是两类性质不同的问题。研究允许试错、允许走弯路、允许花一周去验证一个想法;oncall要求在一个高度耦合、状态不断变化、且部分根因隐藏在新基础设施内部的系统里,在分钟级别给出正确判断。它考验的不是创造力,而是对一个具体系统当前状态的精确把握,而这恰恰是LLM作为”对人类纸面知识的高维流形进行有损压缩与插值的系统”最薄弱的环节——因为相关知识根本还没被写下来。

更值得追问的是另一个问题:即便有一天AI真的能把oncall做好,我们就应该把它完全交出去吗?我的态度是明确的——不应该。回看历史上的每一次工业革命与技术革命,从蒸汽机到内燃机、从电力到半导体,工具出现了跃升,但人类从未因此放弃对底层细节的把控。机械工程师仍然懂得发动机的热力学,电气工程师仍然懂得电路的物理意义,操作系统工程师仍然懂得寄存器与中断。为什么唯独到了AI时代,”我不需要懂底层,让agent去管”忽然变成了一个可以被认真讨论、甚至被某些公司奉为目标的选项?

我认为这背后的逻辑是危险的。如果有一天连AI模型与agent底层的排错、归因、演进方向都被另一个agent接管,那意味着人类不仅交出了方向盘,还把后视镜和仪表盘一并拆掉了。对底层技术的理解和传承,是当前阶段人类必须坚守的控制点。

关于”停下来的代价比烧错token更大”

这是整篇文章里我最不能同意的一句话,也是我想给出一个暴论的地方:如果你的前进方向是错的,停下来当然是最优选择。

我相信,能在2026年以及未来几年真正成功的AI创业公司,恰恰是那些没有参与疯狂前进,而是停下来寻找蓝海、寻找被错误假设束缚的领域的公司。事实上,今天已经有相当一批”独行侠”在做这件事,名单可以列得比大多数人想象的更长:

林敏(linmin.me)在用第一性原理重新思考学习与推理的算法本质;Felix Petersen(petersen.ai)在尝试跳出主流LLM框架的training paradigm;之前打造过nervana的Nareen Rao创立了Unconv.ai,在做非传统卷积/非传统架构方向的探索;AMI Labs(amilabs.xyz)在基于JEPA做真正的世界模型;Deep Manifold(deepmanifold.ai)在研究神经网络背后的几何与流形结构;Marcus Hutter作为AIXI的提出者,多年如一日地坚持把智能与压缩、最小描述长度联系在一起的理论路径;John Carmack的Keen Technologies则在用一个游戏引擎奇才的工程直觉重新切入AGI。

这股逆流并不只发生在AI圈。可控核聚变方向的几家初创公司在重新定义能源约束的可能性;Isaak Freeman(参见 https://x.com/isaakfreeman/status/2045238887065530533 )在认真地推进brain emulation——把”智能”这件事从软件抽象拉回到神经元尺度的物理基质上重新提问。还有持续学习(continual learning)、极低比特模型压缩、以及低功耗的bio-inspired芯片都是全新的探索方向。

这些人没有一个在Meta的token排行榜上,但他们每一个都在挑战当前范式中某一条被默认为天经地义的隐含假设。这些方向才是未来。

更重要的是:当这些方向产生突破时,它们不会去现有的benchmark上刷榜,因为现有benchmark本身就是上一个范式定义出来的。它们会定义新的榜单。这是我对Sutton的Bitter Lesson最深的体会:苦涩的教训不是”算力多者得天下”,而是”绑定既有经验范式者必败”。

文章里那些”不敢停”的人,本质上是在用速度掩盖方向焦虑,因为他们隐约知道方向不一定对,但又没有勇气去寻找新方向,只能选择把油门踩到底。这在行为经济学里有个名字,叫做action bias:当人面对不确定性时,倾向于用”做点什么”来缓解焦虑,哪怕”不做”在数学上才是最优解。

关于xAI管理崩盘与researcher焦虑

这一部分我基本同意。xAI的故事,确实是制造业管理思维不适用于大模型公司的一个范例。马斯克擅长的是有清晰物理边界的系统工程:火箭发动机、电池工厂、生产线,这些场景里,关键杠杆点是稀疏且可识别的。但AI研究的边界本身就是模糊和移动的,不存在一个”压缩deadline即可攻克”的关键点。脉冲式管理在SpaceX有效是因为他在跟物理定律赛跑;在AI,他需要跟一个会自适应、会偷家的Anthropic赛跑,这是完全不同的博弈结构。

关于researcher被替代,我想加一句:将被替代的researcher,必将是本就不该在这个领域里的mediocre ones。一个真正的researcher不是”跑实验、写论文”的执行者,而是能提出新问题、识别新范式、定义新评价标准的人。如果你的工作可以被AI Scientist自动化,那只能说明你做的是”已知问题的求解”而非”未知问题的发现”。这一类人的退场,对整个领域来说是一次清洗,而不是损失。

关于算力瓶颈与英伟达的统治

文章描述的算力稀缺、内存厂商扩产周期、neo cloud雨后春笋,这些都是真实的现状描述。但作者隐含的结论是:所以算力是壁垒,所以英伟达是结构性赢家,所以2028年前没人能拉开差距。

这恰恰是我前面说的”被错误假设束缚”。让我们回到第一性原理来提问:我们真的有必要用这么大的卡、这么大的集群去serve智能吗?智能的密度已经被最大化了吗?

如果模型可以做小,并且保持精度,那么SLA一定会更好,因为推理路径更短、故障域更小、可冗余度更高。如果我们找到了在低精度(2bit、甚至ternary)上完美保存巨大模型的高维流形信息的方法,而我相信我们正在路上,那么我们一定会看到一个全新的计算范式,它不依赖于英伟达的tensor core,也不依赖于HBM3e的产能爬坡。

数据中心遭到的社会反对,根源不是数据中心本身,而是”模型规模和infra规模会无止境增长”这个隐含假设。如果我们打破这个假设,反对就消失了。一个能在iPhone上跑Claude级别模型的世界,不需要缅因州的数据中心,也不需要Meta的token排行榜。

关于估值框架

文章里有一句话我觉得是整篇最一针见血的洞察:做垂直agent的倍数最低(5倍),做通用agent的倍数更高(10倍),做模型的最高(20–30倍)。

把这句话翻译成更本质的语言就是:谁距离智能的本质越近,谁的倍数就越高。这是一个非常优雅的市场判断,它在经济维度上重述了我之前说的,智能的衡量在于熵减密度而非堆砌速度。

这也解释了为什么二级市场会率先重新定价SaaS:SaaS距离智能的本质太远,它只是工作流的数字化,永远只能赚一个”流程规整费”。

关于燃烧瓶、AI暗杀名单与可能到来的经济崩溃

这是文章最沉重的一部分。我想给出的答案,与我对整个加速狂热的回应是一致的:做最接近智能本质的技术创新,并且把所有成果对全人类公开。

历史上践行这条路的人是谁?尼古拉·特斯拉,他在交流电上做出了影响全人类的让步。Linus Torvalds,他把Linux和Git交给了世界。Aaron Swartz,他为知识自由付出了生命。John Carmack,一次又一次地把id Tech引擎开源。这些人都没有遭到燃烧瓶。

相比之下,OpenAI从一个非营利组织演变为一家估值数千亿美金的封闭公司;Anthropic用”安全”的名义把模型权重锁起来。我并不为他们CEO收到的威胁辩护暴力,但我认为,他们今天面对的社会反弹,与他们没有像DeepSeek那样深度求索智能本质(“深度求索”这个名字本身就是一个宣言)、没有像早期互联网精神那样将成果还给人类,是有因果关系的。

我自己有一段亲身经历可以参照。2017–2018年我在Google Brain任职,那时穿着Google Brain的卫衣或T恤在机场候机时,确实偶尔会得到不友善的言论,人们把对大公司算法、隐私、就业冲击的不满,投射到了我身上。但与此同时,DeepMind在用AlphaFold真正改写了结构生物学,用AlphaGo重新定义了科学探索的方式。今天,sama做了什么(World Coins的真实目的是什么?他在听证会上说的我不拿薪水只因热爱和他被袭击的豪宅放在一起,说明了什么?)Dario的格局又在哪里?

我并不是说”卖API”本身就是原罪,DeepSeek也在卖API,但DeepSeek把权重和方法开源了。我隐约觉得,AI的开源本质是一件不能丢掉的事。这其实关乎一个非常具体的二选一:在那个无法被外部窥视的黑盒后面,你最终选择服务谁?是政府的监控合同?是军队的目标识别系统?是某个超大型企业的成本削减项目?还是把推理成本与智能成本一起压低,让从硅谷到古巴、从首尔到加沙、从内罗毕到喀什的每一个普通人都能真正使用上AI?这两条路并非细节差异,而是会产生两个完全不同的未来。前者把智能变成一种新的稀缺特权——像中世纪的识字能力一样被少数机构垄断;后者才是真正意义上”造福人类”的兑现。OpenAI早期的章程曾明确指向后者,今天他们走向了哪里,每个人心里都清楚。

如果AI最后真的让癌症变成慢性病,那一定不会是因为某家公司的API卖得贵,而是因为某个开源模型让全世界的biologist都能在自己的实验室里跑起来。Dario引用的那句”癌症已经被攻克”,如果停留在Anthropic的内部演讲里,就是空话。

结语

我同意孟的那个观察:硅谷自己都跟不上自己了。但我的结论与他相反。

跟不上不是病,而是症状。病在方向。当所有人都在用同一个范式(更大模型、更多token、更密集GPU)疯狂加速时,”跟不上”恰恰是这个范式即将耗尽的信号。在这种时候,真正的机会不在赛道里,而在赛道之外:在那些还没有被定义benchmark的领域,在那些智能密度可以提升一个数量级的方向,在那些可以让普通人从AI浪潮中真正受益、而不是被AI替代的开放生态里。

孟在文章结尾说,希望孩子长大的世界里,多一些被AI治愈的人,而不是更多燃烧瓶和枪声。我深以为然。但要走到那个世界,我们需要的不是更多的token,而是更多敢停下来、敢往与众不同的方向走、并且认真思考”成果应该如何流向社会”这个问题的研究者和创业者。

我并不天真地认为”全部开源、全部免费”就是终极答案。这里至少有两层真实存在的张力。第一层是危险性:技术总会有一部分落入意图不善的人手里,这是任何颠覆性发明从印刷术到核能都绕不过去的事。但与此对应的反问也同样不可回避——谁有资格来定义”危险者”?当”安全”的解释权被少数几家公司或几国政府独占时,”安全”本身就会变成新的权力工具。第二层是可持续性:技术的发明人也需要活下去,需要从自己创造的东西里获得合理回报,否则下一代研究者根本不会出现。把这两个问题诚实地摆出来,比假装它们不存在要重要得多。

我自己倾向于这样一个粗略的方向:核心的科学成果(架构、方法、对智能本质的理解)应当尽可能地公开和被复现,因为这是文明级别的公共品;而工程化、产品化、企业级服务这一层,让市场充分发挥作用、让发明者获得应得的回报,是完全合理的。Linux和Red Hat、PostgreSQL和它周围的商业生态,已经反复证明了这种”科学开放、工程商业”的分层是可以同时跑通的。今天AI产业最大的扭曲,是把这两层混在一起,用”安全”的名义把第一层也一起锁住,再用第一层的封闭去支撑第二层的高估值。这不是不可逆的。

少则得,多则惑。

这是《道德经》第二十二章里的话,也是2026年这一刻最值得AI从业者反复念诵的话。