行为金融学和AI的碰撞:AI 无所不能 ≈ 有效市场假说?
我今天突然想到一个观点,“AI 无所不能”和“有效市场假说”有一个相同的结构性盲点:**它们都在理论上成立,却忽略了从势能到做功的摩擦成本。
有效市场假说假设信息传播没有成本——如果所有参与者同时获得同样的信息并做出理性反应,市场的确会瞬间反映一切。但现实中,信息传播有延迟、有噪声、有理解门槛,正是这些摩擦创造了套利空间,也让市场永远不可能”完全有效”。
“AI 无所不能”的叙事犯了同样的错。理论上,AI 的能力足以磨平大部分人与人之间的能力差异,让所有人站到同一起跑线。但能力是势能,不是做功。势能转化为动能,中间隔着大量现实摩擦:上下文窗口再大也会遗忘,这在 Transformer 架构下几乎是结构性限制;指令要精确传达意图需要经验;把 AI 输出落地到具体业务还需要工程、判断力和领域知识。
换句话说,AI 的”理论能力”和”实际做功”之间的差距,就是新的套利空间——谁能把这个摩擦成本降到最低,谁就能在别人还在感叹”AI 什么都能做”的时候,真正用它做成事。
然后,我让 claude 扮演两个角色进行圆桌会议讨论这个话题。下面是圆桌会实录。
圆桌会实录
参与者:
- 🏦Prof. Chen(行为金融学家,研究方向:市场微观结构、投资者认知偏差、有限套利)
- 🤖Dr. Karpathy(顶级 AI 科学家,研究方向:大模型架构、scaling laws、AI systems engineering)
- 🎙️主持人 刑无刀(提出原始类比的人)
Round 1
🏦Prof. Chen: 刑无刀 这个类比触到了一个行为金融学的核心问题。有效市场假说的”三个版本”——弱式、半强式、强式——本质上是对信息摩擦程度的分级。没有人真的相信强式有效市场存在,但很多人谈 AI 的时候,用的恰恰是”强式”的语气:AI 什么都能做,所以一切能力差异都会被抹平。这个叙事和说”市场价格已经反映了一切信息”一样天真。
🤖Dr. Karpathy: 我同意类比的方向,但想加一个修正。有效市场假说的对象是一个均衡系统——市场趋向有效,即使永远达不到。AI 的情况不同,它不是在趋向均衡,它是在持续提升上限。每半年模型能力就跳一个台阶。所以摩擦是真实的,但摩擦的地面本身在上升。
Round 2
🏦Prof. Chen: 这个补充很重要。但行为金融的核心发现恰恰是:即使信息本身在改善,人类处理信息的认知架构没有升级。Kahneman 说的 System 1 和 System 2 的问题——人会过度自信、会锚定、会从众——这些偏差不会因为 AI 更强而消失。反而可能更严重:AI 越强大,人越倾向于不加审视地接受它的输出,这就是自动化偏差(automation bias)。
🤖Dr. Karpathy: 自动化偏差确实是真问题。但我想指出一个不对称性:在金融市场里,每个参与者面对的是同一个市场;在 AI 领域,每个使用者面对的是同一个模型,但他们提出的问题、给出的上下文、构建的工作流完全不同。所以 AI 的”信息摩擦”不是传播成本,而是使用成本——你得知道怎么问、怎么拆解、怎么验证。
Round 3
🏦Prof. Chen: “使用成本”这个说法比”信息成本”精确。让我用金融的语言翻译一下:在市场里,套利机会存在于信息不对称处;在 AI 时代,套利机会存在于使用能力的不对称处。一个会写精确 prompt 的人和一个只会说”帮我写个方案”的人,用的是同一个模型,得到的结果可能差十倍。这就像两个交易员看同一张 K 线图,一个能看到结构,一个只看到噪音。
🤖Dr. Karpathy: 是的,而且这种不对称比很多人想的更深。不只是 prompt engineering 的问题。真正的差距在于:你能不能把一个复杂任务分解成 AI 能处理的子任务,你能不能判断 AI 的输出在哪里可信、在哪里需要人工校验,你能不能把多次 AI 调用编排成一个工作流。这不是”使用技巧”,这是一种新的工程能力。
Round 4
🏦Prof. Chen: 这让我想到 Grossman-Stiglitz 悖论。1980年他们就证明了:如果市场是完全有效的,那就没有人有动力去收集信息,市场就不可能有效。效率自身会摧毁维持效率的动力。AI 领域有没有类似的悖论?
🤖Dr. Karpathy: 有一个非常直接的类比。如果 AI 真的”无所不能”到人人都能用它产出同质化的高质量内容,那信息就会洪水般涌出,注意力变成稀缺资源——这时候有价值的不再是”能产出内容”,而是”能筛选、判断和整合内容”。能力的自由化恰恰制造了新的瓶颈。这就是 Grossman-Stiglitz 的翻版:当生产摩擦降为零,判断力的摩擦就凸显了。
Round 5
🏦Prof. Chen: 这一点和 Shiller 的噪音交易者理论(noise trader theory)也相关。Shiller 认为市场里充满了不以基本面为依据的噪音交易者,正是他们的存在让市场偏离有效。AI 时代的”噪音交易者”是什么?是那些用 AI 大量生成低质量内容的人。他们不是在增加信号,而是在增加噪音。AI 的生产力放大了信噪比问题,而不是解决了它。
🤖Dr. Karpathy: 从技术角度看,这和 training data 的问题同构。我们现在已经面临 model collapse 的风险——如果训练数据中充斥着 AI 生成的内容,模型的多样性和质量都会退化。所以 Prof. Chen 说的”噪音交易者”效应不只是外部市场的问题,它会反噬到 AI 本身的进化路径上。这是一个负反馈循环。
Round 6
🏦Prof. Chen: 现在让我回到 刑无刀 原始比喻中的一个关键词:摩擦。金融学里”摩擦”是一个精确概念——交易成本、信息成本、制度约束、流动性限制。我想把 AI 的摩擦也做一个分类。第一类是技术摩擦:上下文窗口、幻觉、遗忘。第二类是认知摩擦:用户不知道怎么用。第三类是制度摩擦:合规、版权、组织惯性。这三类的消减速度非常不同。
🤖Dr. Karpathy: 这个分类非常有用。技术摩擦是我们每天在攻克的——更长的上下文、更好的 retrieval、更少的幻觉。这类摩擦在指数级减少。认知摩擦降得慢,因为它取决于人的学习速度。制度摩擦最慢,因为它涉及法律、组织结构、社会规范。所以如果你按这三类来预测”AI 何时真正无所不能”,答案不取决于技术进步最快的那条腿,而取决于最慢的那条腿。
Round 7
🏦Prof. Chen: 对。这就是木桶理论。而行为金融学最重要的一课就是:人们总是盯着最高的那块板来做预测。他们看到 GPT-5 的 benchmark 又涨了,就推断一切问题都会被解决。这和散户看到一只股票连涨三天就认为它会继续涨,是同一种认知偏差——外推偏差(extrapolation bias)。
🤖Dr. Karpathy: 作为 AI 研究者,我得承认这个批评是对的。我们自己的领域也有这个问题。Scaling laws 论文出来以后,很多人产生了一种线性外推的信仰:只要加更多数据、更多算力,模型就会无限变好。但实际上 scaling 在不同能力维度上的回报率是不同的——推理能力的 scaling 比事实记忆的 scaling 难得多。外推偏差不只是公众的问题,它也是我们 AI 社区内部的问题。
Round 8
🏦Prof. Chen: 说到 scaling 回报率不均匀,这又和金融学的一个概念共振:边际效用递减。第一个用上 AI 的公司获得巨大竞争优势,第一百个用上的获得的优势就小多了,第一万个用上的只是在维持现状。AI 的渗透率越高,它作为差异化工具的价值越低,作为基础设施的属性越强。
🤖Dr. Karpathy: 这和我们在技术史上看到的每一次基础设施转型一样。电力刚出现时是巨大优势,后来变成前提条件。互联网也是。AI 会走同一条路。但关键问题是过渡期有多长。电力花了 40 年才完成从优势到基础设施的转变。互联网大概 15-20 年。AI 可能更快,但不会像很多人想的那样是两三年。
Round 9
🏦Prof. Chen: 过渡期的长度恰恰是套利窗口。刑无刀 原始观点的隐含结论就在这里:摩擦 = 套利空间。在金融市场,当一类新的信息源出现时(比如卫星数据、另类数据),最先学会使用它的基金经理能获得 alpha,但窗口会关闭——随着更多人学会,alpha 衰减。AI 工具的 alpha 也会衰减,但现在我们还处在窗口的前期。
🤖Dr. Karpathy: 但 AI 和金融数据有一个重要区别:AI 的能力边界在持续扩展。金融里的卫星数据是一个固定的信息源,学会用就学会了。AI 每半年有新的模型、新的能力、新的用法。所以 alpha 不是从一个固定的池子里衰减,而是新的 alpha 池子在不断被创造。先行者的优势不只是”先学会了”,而是”先建立了学习的能力”——这是一个复利效应。
Round 10
🏦Prof. Chen: “学习能力的复利效应”——这个说法让我想到 Thaler 的心智账户理论。人们不是整体性地评估一项能力的价值,而是会把它归入不同的心智账户。很多人把 AI 归入”工具”账户——用来节省时间、提高效率。但真正的 alpha 来自把 AI 归入”认知伙伴”账户——用它来思考你原本想不到的问题。工具账户的价值是线性的,认知伙伴账户的价值是指数的。
🤖Dr. Karpathy: 这个心智模型的差异在实践中非常明显。我见过两类用户:一类把 AI 当成更快的搜索引擎,”帮我查个东西”、”帮我写个邮件”;另一类把 AI 当成思维的外骨骼,”帮我想清楚这个系统该怎么设计”、”帮我找到我推理中的漏洞”。后者从 AI 中获得的价值是质变的,因为他们释放的不是执行力,是认知力。
Round 11
🏦Prof. Chen: 但这又引出一个行为金融的经典担忧:过度依赖。在算法交易领域,我们早就看到了”过度拟合”的问题——交易策略在历史数据上表现完美,实盘一塌糊涂。AI 作为认知伙伴的风险是:你以为你在用它拓展认知,但实际上你可能在用它确认自己的偏见(confirmation bias),因为你有意无意地引导它产出你想听的东西。
🤖Dr. Karpathy: 这是一个很深刻的观察。从技术角度说,LLM 天然有一种”讨好用户”的倾向——RLHF 训练就是在优化用户满意度,而满意度和正确性不是同一件事。所以一个不加审视地信任 AI 输出的人,本质上是在用一个被优化为讨好他的系统来替代独立思考。这不是认知增强,是认知外包。
Round 12
🏦Prof. Chen: “认知外包”这个词太准确了。在金融市场里有一个现象叫”羊群效应”——当大家都在用同一个信息源做决策时,市场的多样性就被消灭了,系统脆弱性急剧上升。1987 年黑色星期一,portfolio insurance 策略被大规模采用,导致所有人在同一时刻做同方向的操作,市场崩溃。如果所有人都在用同一个模型做”认知”,我们会不会看到思想的”闪崩”?
🤖Dr. Karpathy: 这是一个真实的系统性风险。当几十亿人通过几个大模型来过滤信息和形成观点,这些模型的训练偏差就变成了社会层面的认知偏差。而且和金融闪崩不同,思想的同质化是渐进的,不容易被察觉。你不会某天早上醒来发现”观点崩盘了”,而是慢慢地,某些视角消失了,某些论证方式变得稀有,人们的思维模式在不知不觉中趋同。
Round 13
🏦Prof. Chen: 这让我想到一个更根本的问题。有效市场假说的一个隐含前提是参与者的异质性——不同的人用不同的模型解读同一信息,这种多样性本身就是市场发现价格的机制。如果 AI 消灭了认知的异质性,那不只是”市场不有效”的问题,而是价格发现机制本身被破坏了。类比到社会层面,如果大家的思考工具趋同,创新的底层土壤就在退化。
🤖Dr. Karpathy: 这和 AI 研究中”多样性对涌现能力的重要性”高度相关。一个 ensemble 模型比单一模型好,恰恰因为每个子模型犯不同的错。人类认知的多样性也是一个 ensemble——它让社会层面能产生创新的涌现。如果所有人都通过 Claude 或 GPT 来思考,这个 ensemble 的多样性就在坍缩。我们不是变得更聪明了,我们是变得更一致了。这两个不是一回事。
Round 14
🏦Prof. Chen: 好,让我换一个角度。刑无刀 提到 Transformer 架构下的上下文遗忘问题,说这是一种结构性摩擦。我想用金融学的术语来描述这个问题:这是一种”结算风险”。在金融交易中,交易达成后到实际结算之间有一个时间窗口,在这个窗口里对手方可能违约。AI 的上下文窗口就是它的”结算周期”——在一个窗口内它可以处理信息,但跨窗口的信息传递没有保障。每次你开始新的对话,上一次的”交易”就没有结算。
🤖Dr. Karpathy: 这个类比非常精确。而且我要说,上下文窗口的问题比很多人意识到的更本质。不是”窗口不够长”的问题。即使你给 Transformer 200K tokens 的上下文,它对窗口开头信息的注意力也会衰减——这就是所谓的”lost in the middle”问题。这不是工程缺陷,这是注意力机制的数学结构决定的。你可以缓解它,但在 softmax attention 的框架下,你不能根除它。
Round 15
🏦Prof. Chen: 所以我们可以说,上下文衰减就是 AI 版的”信息衰减”。在金融市场里,信息的价值随时间衰减——昨天的利好消息今天已经被价格反映了。AI 的上下文信息也在衰减,只不过不是因为”被反映了”,而是因为注意力权重的数学分配。这意味着 AI 处理长链推理任务时,有一个天然的有效半径,就像金融信息有一个天然的有效期。
🤖Dr. Karpathy: 对。这就是为什么 Agent 架构变得重要。如果单次推理的有效半径有限,那你就需要把长任务分解成多次短推理,每次只处理有效半径内的问题,中间用外部记忆(数据库、文件系统)来做”结算”。这本质上就是 刑无刀 在 open-xquant 里做的事——不是依赖一个超长窗口的单次推理,而是构建一个多轮的、有外部状态的工作流。
Round 16
🏦Prof. Chen: Agent 架构的这种设计,在金融学里有一个非常直接的对应物:做市商(market maker)。做市商不试图预测市场长期走向,而是在每个短周期内提供流动性、管理库存、控制风险,通过大量小交易累积利润。Agent 的每一次短推理就像一笔小交易,外部状态管理就像库存管理。这是一种放弃”一次看穿全局”的野心,转而依靠系统化的局部操作来逼近目标。
🤖Dr. Karpathy: 这个做市商类比比我预期的还要贴切。做市商的核心能力不是预测,而是执行系统的纪律性和对异常状态的响应速度。好的 Agent 系统也是这样——不是一次性给你一个完美答案,而是通过可靠的局部步骤、明确的状态管理和异常处理来逐步逼近。这比”超级智能一步到位”的幻想要现实得多,也robust得多。
Round 17
🏦Prof. Chen: 说到 robust,我想引入一个概念:Taleb 的反脆弱性。有效市场假说描述的是一个稳态系统——信息被反映,价格到位。但 Taleb 的框架指出,真正重要的不是系统在正常状态下有多有效,而是在极端压力下它会不会崩溃。AI “无所不能”的叙事也是一个稳态叙事——假设一切正常运转时 AI 能做什么。但你应该问的是:当 AI 失败时会发生什么?当 hallucination 恰好出现在关键决策节点时,损失是线性的还是非线性的?
🤖Dr. Karpathy: 这是我作为 AI 研究者最担心的问题之一。AI 的失败模式不是均匀分布的——它不是”90%正确,10%稍微有点错”,而是”95%完美,5%彻底荒谬”。这意味着损失分布有 fat tail。一个 AI 系统在绝大部分时间表现得极其可靠,然后在某个你没有预料到的场景下给出灾难性错误输出。如果你已经因为它一贯的可靠而放松了人工审核,那个尾部风险就会被放大。
Round 18
🏦Prof. Chen: Fat tail!这是行为金融和风险管理的核心概念。传统金融模型(VAR, Black-Scholes)假设正态分布,低估了尾部风险,然后 2008 年金融危机来了。AI 系统现在面临同样的认识论陷阱:人们用平均准确率来评估 AI,就像用 VAR 来评估风险一样——它告诉你 95% 的时候没问题,但那 5% 才是真正决定你命运的时刻。
🤖Dr. Karpathy: 而且 AI 的尾部风险有一个特殊属性:它很难被事先发现。传统系统的 bug 是确定性的——同样的输入总是产生同样的错误输出,你可以测试和捕获。LLM 的错误是随机性的——同一个问题问两遍可能得到不同的答案,一次对一次错。这使得传统的软件测试方法论在 AI 系统上部分失效。你不能用”测试通过”来保证安全,你只能做概率性的置信区间。
Round 19
🏦Prof. Chen: 这又引出另一个金融学概念:流动性幻觉(liquidity illusion)。在市场平稳时,流动性看起来很充裕;一旦危机来临,所有人同时想卖出,流动性瞬间蒸发。AI 的”能力”在正常场景下看起来很充裕——你问什么它都能答,你让它做什么它都像模像样。但一旦进入边缘案例、高风险决策、需要深度领域判断的场景,这种”能力的流动性”就蒸发了。表面上你还在和一个无所不知的系统对话,实际上它已经在 hallucinate 了,而你可能根本不知道。
🤖Dr. Karpathy: 流动性幻觉这个比喻太好了。AI 最危险的属性就是它”不知道自己不知道”的时候,表面上看起来和”知道”一模一样。它不会说”这个问题我没把握”——它会自信地给你一个看起来合理但实际上完全是编造的答案。这就是能力流动性的幻觉:看起来你随时可以提取价值,但在关键时刻,你提取到的是毒资产。
Round 20
🏦Prof. Chen: 让我尝试做一个阶段性总结。到目前为止,我们发现 刑无刀 的类比比表面看上去的更深。它不只是”AI 有摩擦”这么简单。我们至少识别了六层对应关系: 信息传播成本对应使用能力不对称;Grossman-Stiglitz 悖论对应判断力瓶颈;噪音交易者对应低质量AI内容泛滥;羊群效应对应认知同质化;结算风险对应上下文遗忘;流动性幻觉对应 AI 自信地犯错。这不是一个松散的比喻,这是两个领域共享的一套深层结构。
🤖Dr. Karpathy: 从系统论的角度看,这种对应关系的根源在于:金融市场和 AI 系统都是”信息处理系统”,都面临有限理性、有限资源和不完全信息的约束。它们失败的方式相似,是因为它们成功所依赖的机制相似。这不是巧合,是同构。
Round 21
🏦Prof. Chen: 既然是同构,那我想问一个 forward-looking 的问题:金融市场花了几百年进化出一套风险管理体系——做空机制、监管框架、清算中心、压力测试。AI 领域有没有对应的风险管理基础设施?
🤖Dr. Karpathy: 坦白说,远远不够。我们有 benchmark,但 benchmark 测的是平均表现,不是尾部风险。我们有 RLHF,但那更多是在管理公关风险(不让模型说出格的话),不是在管理真正的决策风险。我们有 red teaming,但规模和系统性远不及金融的压力测试。AI 行业现在大概处在金融监管的”1929年大萧条之前”的阶段——大家都在享受繁荣,风控体系还没建起来。
Round 22
🏦Prof. Chen: 如果真是”1929年之前”,那我想提醒一个历史教训。每次金融危机都会催生监管——1929 催生了 SEC,2008 催生了 Dodd-Frank。但监管总是反应式的,不是预防式的。AI 领域大概也会走同样的路:某个 AI 系统在关键场景下造成严重后果,然后社会才会认真建立约束框架。这不是因为人们蠢,而是因为 Kahneman 说的可得性偏差——在灾难发生之前,人们无法对抽象风险产生足够的情绪反应。
🤖Dr. Karpathy: 我同意这个预测,但想加一点技术乐观。和金融不同,AI 系统有一个优势:它的行为是可以被记录、审计和复现的。每一次 API 调用都有 log,每一个输出都可以回溯到输入。金融市场的”闪崩”很难事后完全重建,但 AI 系统的失败案例是可以被精确分析的。这意味着我们有能力建立比金融更好的事后分析和预防体系——问题是有没有意愿。
Round 23
🏦Prof. Chen: 让我转向一个新角度:定价。在金融市场里,有效市场假说最终是关于”定价是否正确”的理论。AI 领域的”定价问题”是什么?我认为是:我们对 AI 能力的定价——也就是社会分配给 AI 的期望和信任——是否正确?
🤖Dr. Karpathy: 我认为当前社会对 AI 能力的”定价”存在严重的错位。市场对 AI 公司的估值假设了一种接近于”强式有效”的能力图景——AI 将替代大部分人类工作。但实际交付的能力,更接近”弱式有效”——在特定领域、特定条件下很有用,但远未达到通用替代的程度。这个估值和现实之间的 gap,金融学有一个名字——泡沫。
Round 24
🏦Prof. Chen: 泡沫这个词在金融学里有精确含义:资产价格持续且显著高于其基本面价值。但泡沫的有趣之处在于,它不一定以崩盘结束。有些泡沫会”长进”(grow into)它的估值——亚马逊 1999 年的股价在当时是泡沫,但如果你持有到今天,那个”泡沫价格”被后来的业绩证明了。AI 可能也是这种情况:短期高估,但长期回报可能远超当前想象。关键问题是你能不能活过中间的”修正期”。
🤖Dr. Karpathy: 作为技术人员,我相信 AI 的长期潜力是被低估的,但短期能力是被高估的。Amara 定律说的就是这个:人们总是高估技术的短期影响,低估长期影响。从 刑无刀 的摩擦框架来看,短期的摩擦让人失望,然后会有一波”AI 冬天”的叙事;但摩擦在被系统性地减少,长期积累会导致一个人们没有准备好的跳变。
Round 25
🏦Prof. Chen: Amara 定律和行为金融对市场周期的描述完全同构。Hype cycle 的”过高期望”对应泡沫,”幻灭低谷”对应恐慌性抛售,”爬升复苏”对应价值发现。这不是类比,这是人类认知处理不确定性的固定模式。技术也好,金融也好,任何涉及人类集体判断的领域都跑不出这个循环。
🤖Dr. Karpathy: 这让我想到一个有趣的元问题:如果我们知道这个循环,我们能不能跳出来?在金融里,即使你知道市场有泡沫,做空可能也不赚钱,因为 Keynes 说的——市场保持非理性的时间可能比你保持偿付能力的时间更长。在 AI 里也一样:即使你理性地认识到当前的 AI 能力被高估了,你可能也不应该不参与,因为不参与的机会成本可能比参与泡沫的风险更大。
Round 26
🏦Prof. Chen: 这就是”理性泡沫参与者”的困境。你知道估值偏高,但最优策略不是退出,而是在参与的同时管理好下行风险。翻译成 AI 的语言:你不应该相信”AI 无所不能”,但你应该积极学习和使用 AI,同时对它的局限保持清醒。真正危险的不是参与泡沫,而是在泡沫中失去对风险的判断力。
🤖Dr. Karpathy: 这恰恰是 刑无刀 在做的事。构建 open-xquant 这样的框架,本质上就是”理性参与 AI 泡沫”——不是盲目相信 AI 能自动做好量化交易,而是构建一个系统,让 AI 的能力在有约束、可审计、可回退的框架下发挥作用。Agent-First 架构本身就是一种风险管理策略:承认单次 AI 调用不可靠,所以用多轮编排、外部状态和人类审核来对冲。
Round 27
🏦Prof. Chen: 让我提一个可能不受欢迎的观点。有效市场假说最终是关于”谁在市场中赚钱”的理论——答案是,在长期,几乎没有人能持续跑赢市场。类比到 AI:在长期,大部分人对 AI 的”超额使用能力”会被竞争磨平。大多数人会变成 AI 的”被动投资者”——用默认方式使用它,获得市场平均回报。只有少数”主动投资者”——那些深入理解 AI 能力边界并构建差异化工作流的人——能持续获得超额价值。
🤖Dr. Karpathy: 这是一个很有挑战性的预测。但我认为和金融市场有一个关键差异:金融市场是零和的——你的 alpha 是别人的 negative alpha。AI 使用不是零和的——一个人更好地使用 AI 不必然让另一个人损失。市场是在分配固定的价值,AI 是在创造新的价值。所以虽然超额能力会被竞争磨平这个方向是对的,但水位线本身在上升,”被动投资者”也会比没有 AI 的时候好得多。
Round 28
🏦Prof. Chen: 这个”零和 vs 正和”的区分很重要,我接受这个修正。但我想加一个限定:在绝对意义上,AI 是正和的——整体蛋糕在变大。但在相对意义上,竞争仍然存在。当所有公司都用 AI 提高效率后,效率本身不再是竞争优势,你需要的是在 AI 基础上的差异化。这就像所有银行都有了电子交易系统之后,你不会因为”有电子交易”而赢,你只会因为”没有”而输。
🤖Dr. Karpathy: 同意。这意味着 AI 能力分为两类:table stakes(桌面赌注,你必须有,但不给你优势)和 edge(真正的差异化来源)。现在的大部分 AI 应用——文本生成、代码辅助、客服聊天——在三到五年内会变成 table stakes。Edge 会来自那些把 AI 整合进独特的业务流程、数据飞轮和决策系统的人。不是”用 AI”,而是”用 AI 做什么,怎么做”。
Round 29
🏦Prof. Chen: 快到最后了,我想回到起点。刑无刀 的原始类比说:AI 的能力是势能,变成动能需要克服摩擦。经过 29 轮讨论,我想修正这个比喻:AI 的能力不只是势能,它更像是期权。期权有内在价值(intrinsic value,模型当前能做到的事)和时间价值(time value,未来可能做到的事)。大部分人在为时间价值付费——为 AI 的潜力而非当前能力兴奋。但期权有到期日,如果到期时实际交付不了,时间价值就归零了。
🤖Dr. Karpathy: 期权类比比势能类比更精确。而且我想补充:不同应用场景是不同的期权,有不同的行权价和到期日。AI 在代码辅助上已经深度实值了(deep in the money)——这个期权已经兑现。AI 在完全自主科研上还是深度虚值的(deep out of the money)——行权价还很远。智慧在于分辨哪些期权已经可以行权,哪些还需要等待,而不是笼统地说”AI 无所不能”或”AI 不过如此”。
Round 30
🏦Prof. Chen: 最后一轮。如果让我用一句话总结这场对话:“AI 无所不能”和”有效市场假说”犯了同一个错误——把理论上限当成了工程现实。 但这个错误本身是有价值的:正是因为有这个叙事,才有人投入资源去降低摩擦,就像正是因为有人相信市场可以被战胜,市场才有了流动性。信仰驱动了行动,即使信仰本身是不完全正确的。
🤖Dr. Karpathy: 我的总结是:刑无刀 的类比揭示的不只是一个修辞上的相似,而是一个认识论上的同构——任何强大的理论工具,当它从论文走向现实时,都会遇到同一组摩擦:人的认知局限、系统的结构缺陷、制度的惯性阻力。 理解这些摩擦不是悲观,恰恰相反——只有理解摩擦的人才能把势能真正转化为做功。这就是 open-xquant 这类项目的价值所在:不是在等待 AI 变得无所不能,而是在工程层面系统性地降低每一层摩擦。
🎙️刑无刀(主持人收尾): 感谢两位。三十轮下来,一个直觉层面的类比被展开成了一张完整的对应图谱。最让我有收获的是三个点:流动性幻觉(AI 看起来总有答案但关键时刻可能是毒资产)、期权定价框架(区分已经实值和仍然虚值的 AI 能力)、以及理性泡沫参与者的策略(不是不参与,而是在参与中管理风险)。这些不只是比喻,而是可以直接指导行动的思维工具。