「AI 学得比我快吗?」——你可能问错了问题
上周有读者读完我”认知底座”那三篇,私信问我一个问题:
“你说的这些道理我都认。但有件事我想不通——我花三小时想清楚一条 insight 的时候,模型可能已经爬了 100 万条新数据。我这么一周一周攒,到底图什么?”
这是整个系列讲完之后,留在最多人心里的那个终极怀疑。
我决定单开一篇讲清楚。因为如果这个问题不按下去,前三篇讲的所有方法论都只是暂时安心的安慰剂——读者建着建着会停下来,想:跟 AI 比速度,我凭什么?
一、你问的”快”,其实是两个不同的”快”
模型学习的快,是绝对能力的跳跃。几个月一次版本迭代,每次跨度巨大。GPT-5 在某些任务上可能比 GPT-4 强 10 倍。这种”快”是横向的——覆盖越来越广的知识面,越来越接近人类所有公开知识的总和。
你学习的快,是个人理解的累积。每周几条 insight,每条带着具体场景、具体人、具体时间。这种”快”是纵向的——在一个特定行业里扎得越来越深。
这两种”快”放一起比较本身就是一个陷阱。就像问”高铁和深潜器哪个快”:都叫快,但一个横着走,一个竖着走。
做 AI + 传统行业的人最容易掉的坑,就是用”横向快”的标尺去量自己的”纵向快”。量完一比,觉得自己什么都不是——模型一天学的东西你一辈子都学不完。但这个比较本身就错了。
二、模型爬不到的三样东西
既然是不同维度的快,那真正该问的不是”谁学得快”,而是:模型学不到的是什么?
三样东西,它永远爬不到,或者爬到也没用。
第一,被禁止爬的。 保险公司的核保案例、医院的病历、政务的内部决策纪要——这些东西在法律和合规层面就离不开特定的围墙。中国的数据安全法、个人信息保护法、行业监管规定只会越收越紧,不会越放越开。模型能爬到的永远是公开层,你能接触到的是围墙内层。
这条围墙未来只会越筑越高。做金融、医疗、政务的同行最清楚——你们手里接触的数据,不是”暂时不在模型训练集里”,是”永远不会在”。
第二,根本没被写下来的。 老王跟你说的”这条规则当年是这么定的,其实精算没算过”——这句话从来没有出现在任何文档里,包括公司内部系统。它只活在老王的脑子里,和你的脑子里。
一个传统行业里,隐性知识的总量远大于显性知识的总量。这不是夸张。二十年经验的核保师、医生、律师、工匠,他们脑子里的东西 90% 没有写成文本。模型爬 1000 倍的公开数据,也爬不到老王那句话。
第三,场景化的判断链。 就算有一天所有行业数据都公开了——这是不可能发生的,但假设——模型也学不会”在这个具体项目、这个具体业务方、这个具体时间点应该怎么选”。
因为那个判断需要的上下文是此时此刻此人,不是统计分布。模型能给你这个行业的平均答案,给不了你这个局的具体答案。
“方案不可行,不是因为技术,而是因为渠道差异会让它在三四线市场失真”——这句话里”三四线市场”是哪几个城市、”渠道差异”是哪几个具体渠道、”失真”到什么程度才算不可行,全都不在公开数据里。模型能说出这句话的模板,说不出这句话的分寸。
三、两种框架,两条路线
把上面的话连起来,就到了一个更大的问题:AI 时代对应两条截然不同的路线。
第一条叫 Harness Agent 路线。 给 AI 造脚手架,让它能自主完成任务——读代码、调工具、执行计划。终局是”AI 替代人类劳动”,人负责按 Enter。这是现在主流资本和研究投入的方向,Claude Code、Devin、各种 autonomous agent 都是这条路。
第二条叫认知底座路线。 用 AI 辅助人的判断,让人在 AI 协助下处理远超从前复杂度的行业问题。终局是”增强的人”——不是 AI 干完,是你能干更多。这条路线现在是少数派,但对某些身份不可替代。
| Harness Agent | 认知底座 | |
|---|---|---|
| 谁是主角 | AI | 人 |
| 谁给谁造脚手架 | 人造给 AI | AI 造给人 |
| 成功标准 | 任务完成 | 人变聪明了 |
| 时间尺度 | 分钟到小时 | 以年为单位 |
| 可迁移性 | 一套部署千万人 | 换个人完全失效 |
| 输出对象 | 代码、文档、行动 | 判断、理解 |
这两条路线不是对错问题,是适用场景问题。
Harness agent 适合那些”已经想清楚怎么做、只是需要执行”的任务。把需求描述清楚,AI 替你干,效率碾压。日常开发、批处理、信息整理,用 harness 是对的。
认知底座适合那些”根本没人想清楚该怎么做”的判断题。在你这个行业、这个具体项目里,该不该上 RAG、该怎么采数据、该怎么跟业务方谈——这些问题没有现成答案,需要一个有行业理解的人去现场判断。这种身份,认知底座是主线。
真正有意思的是这两条路在实践中会咬合:你认知底座里的判断,最后会变成你给 harness agent 的 prompt 里的约束。
没有底座的人用 harness agent,是在让 AI 猜答案;有底座的人用 harness agent,是在让 AI 执行已经想清楚的方案。
四、一个反直觉的结论
前面两节拼起来,是一个数学上的结论,但结论本身反直觉。
一个做 AI + 传统行业的人,他的整体价值可以粗略拆成三项:
通识 × 专识 × 判断力
- 通识:AI 基础知识、编程能力、公开可得的行业概念。模型通识每年涨 N 倍。
- 专识:这个行业围墙内的知识、隐性经验、具体项目的细节。模型几乎不增长。
- 判断力:在具体情境下做出正确选择的能力。模型不增长。
三项是乘法关系,不是加法。
所以模型通识 × 10 倍,如果你专识 + 判断力也 × 3 倍,整体产出就是 30 倍——前提是你的第二、三项不是零。
反过来,如果你只靠通识跟模型比——你第一项接近零(因为模型永远比你强),第二、三项没刻意积累——你的整体价值就是接近零。
模型越强,有专识和判断力的人越值钱,不是越贬值。 这个结论反直觉,但数学上就是这样。
贬值的从来不是”人”,是”只有通识的人”。AI 淘汰的不是人类,是那些选择跟 AI 在通识赛道上赛跑的人。
五、一个筛选标准
如果上面的推理你认同,那从今天起,每次你想往 insights/ 里记一条判断之前,问自己一个问题:
这条,AI 爬得到吗?
- 能在公开文章、论文、技术博客里找到 → AI 爬得到 → 别记。这不是你的护城河,记了也不会给你加分。
- 在公司内部文档里、某次会议纪要里、监管窗口指导里 → AI 爬不到 → 记。
- 只存在于某个具体人的脑子里、某次走廊对话里、你自己的判断里 → AI 永远爬不到 → 必须记,而且要尽快记,这些东西消失得最快。
这个筛选标准会让你的认知底座自动往三块地盘聚拢:
- 围墙内的数据 —— AI 进不去
- 没被写下来的隐性知识 —— AI 见不到
- 生成判断的推理链 —— AI 学不会
这三块地盘守住,你就永远不会被 AI 取代——因为 AI 再强,到了这三块地盘的边界前,它必须停下来问你。
六、收束
回到开头那个读者的问题:”我这么一周一周攒,到底图什么?”
图的不是跑赢 AI——那场比赛人类必输,接受这一点才能开始下一步思考。
图的是:在 AI 变得无比强大的世界里,给自己守住一块 AI 进不来的地盘。这块地盘不大,但它是你的。它不会因为模型从 GPT-5 升级到 GPT-6 就失效,不会因为某家新创业公司发布了新 agent 就贬值。它唯一会因为一件事失效——你不再往里面添砖。
所以认知底座不是跟 AI 竞赛,而是主动退出一场必输的比赛,进入一场只跟自己比的比赛。
你真正的竞争对手从来不是 AI,是那些还在通识赛道上奋力奔跑、不肯停下来建自己地盘的同行。
AI 淘汰的是他们,不是你。
「模型之外的事」系列番外。在 AI 的喧嚣里,替你找到真正能用的东西。不搬运新闻,不贩卖焦虑。