1 minute read

上周有读者读完我”认知底座”那三篇,私信问我一个问题:

“你说的这些道理我都认。但有件事我想不通——我花三小时想清楚一条 insight 的时候,模型可能已经爬了 100 万条新数据。我这么一周一周攒,到底图什么?”

这是整个系列讲完之后,留在最多人心里的那个终极怀疑。

我决定单开一篇讲清楚。因为如果这个问题不按下去,前三篇讲的所有方法论都只是暂时安心的安慰剂——读者建着建着会停下来,想:跟 AI 比速度,我凭什么?

一、你问的”快”,其实是两个不同的”快”

模型学习的快,是绝对能力的跳跃。几个月一次版本迭代,每次跨度巨大。GPT-5 在某些任务上可能比 GPT-4 强 10 倍。这种”快”是横向的——覆盖越来越广的知识面,越来越接近人类所有公开知识的总和。

你学习的快,是个人理解的累积。每周几条 insight,每条带着具体场景、具体人、具体时间。这种”快”是纵向的——在一个特定行业里扎得越来越深。

这两种”快”放一起比较本身就是一个陷阱。就像问”高铁和深潜器哪个快”:都叫快,但一个横着走,一个竖着走。

做 AI + 传统行业的人最容易掉的坑,就是用”横向快”的标尺去量自己的”纵向快”。量完一比,觉得自己什么都不是——模型一天学的东西你一辈子都学不完。但这个比较本身就错了。


二、模型爬不到的三样东西

既然是不同维度的快,那真正该问的不是”谁学得快”,而是:模型学不到的是什么?

三样东西,它永远爬不到,或者爬到也没用。

第一,被禁止爬的。 保险公司的核保案例、医院的病历、政务的内部决策纪要——这些东西在法律和合规层面就离不开特定的围墙。中国的数据安全法、个人信息保护法、行业监管规定只会越收越紧,不会越放越开。模型能爬到的永远是公开层,你能接触到的是围墙内层。

这条围墙未来只会越筑越高。做金融、医疗、政务的同行最清楚——你们手里接触的数据,不是”暂时不在模型训练集里”,是”永远不会在”。

第二,根本没被写下来的。 老王跟你说的”这条规则当年是这么定的,其实精算没算过”——这句话从来没有出现在任何文档里,包括公司内部系统。它只活在老王的脑子里,和你的脑子里。

一个传统行业里,隐性知识的总量远大于显性知识的总量。这不是夸张。二十年经验的核保师、医生、律师、工匠,他们脑子里的东西 90% 没有写成文本。模型爬 1000 倍的公开数据,也爬不到老王那句话。

第三,场景化的判断链。 就算有一天所有行业数据都公开了——这是不可能发生的,但假设——模型也学不会”在这个具体项目、这个具体业务方、这个具体时间点应该怎么选”。

因为那个判断需要的上下文是此时此刻此人,不是统计分布。模型能给你这个行业的平均答案,给不了你这个局的具体答案。

“方案不可行,不是因为技术,而是因为渠道差异会让它在三四线市场失真”——这句话里”三四线市场”是哪几个城市、”渠道差异”是哪几个具体渠道、”失真”到什么程度才算不可行,全都不在公开数据里。模型能说出这句话的模板,说不出这句话的分寸。


三、两种框架,两条路线

把上面的话连起来,就到了一个更大的问题:AI 时代对应两条截然不同的路线。

第一条叫 Harness Agent 路线。 给 AI 造脚手架,让它能自主完成任务——读代码、调工具、执行计划。终局是”AI 替代人类劳动”,人负责按 Enter。这是现在主流资本和研究投入的方向,Claude Code、Devin、各种 autonomous agent 都是这条路。

第二条叫认知底座路线。 用 AI 辅助人的判断,让人在 AI 协助下处理远超从前复杂度的行业问题。终局是”增强的人”——不是 AI 干完,是你能干更多。这条路线现在是少数派,但对某些身份不可替代。

  Harness Agent 认知底座
谁是主角 AI
谁给谁造脚手架 人造给 AI AI 造给人
成功标准 任务完成 人变聪明了
时间尺度 分钟到小时 以年为单位
可迁移性 一套部署千万人 换个人完全失效
输出对象 代码、文档、行动 判断、理解

这两条路线不是对错问题,是适用场景问题。

Harness agent 适合那些”已经想清楚怎么做、只是需要执行”的任务。把需求描述清楚,AI 替你干,效率碾压。日常开发、批处理、信息整理,用 harness 是对的。

认知底座适合那些”根本没人想清楚该怎么做”的判断题。在你这个行业、这个具体项目里,该不该上 RAG、该怎么采数据、该怎么跟业务方谈——这些问题没有现成答案,需要一个有行业理解的人去现场判断。这种身份,认知底座是主线。

真正有意思的是这两条路在实践中会咬合:你认知底座里的判断,最后会变成你给 harness agent 的 prompt 里的约束。

没有底座的人用 harness agent,是在让 AI 猜答案;有底座的人用 harness agent,是在让 AI 执行已经想清楚的方案。


四、一个反直觉的结论

前面两节拼起来,是一个数学上的结论,但结论本身反直觉。

一个做 AI + 传统行业的人,他的整体价值可以粗略拆成三项:

通识 × 专识 × 判断力

  • 通识:AI 基础知识、编程能力、公开可得的行业概念。模型通识每年涨 N 倍。
  • 专识:这个行业围墙内的知识、隐性经验、具体项目的细节。模型几乎不增长。
  • 判断力:在具体情境下做出正确选择的能力。模型不增长。

三项是乘法关系,不是加法。

所以模型通识 × 10 倍,如果你专识 + 判断力也 × 3 倍,整体产出就是 30 倍——前提是你的第二、三项不是零。

反过来,如果你只靠通识跟模型比——你第一项接近零(因为模型永远比你强),第二、三项没刻意积累——你的整体价值就是接近零。

模型越强,有专识和判断力的人越值钱,不是越贬值。 这个结论反直觉,但数学上就是这样。

贬值的从来不是”人”,是”只有通识的人”。AI 淘汰的不是人类,是那些选择跟 AI 在通识赛道上赛跑的人。


五、一个筛选标准

如果上面的推理你认同,那从今天起,每次你想往 insights/ 里记一条判断之前,问自己一个问题:

这条,AI 爬得到吗?

  • 能在公开文章、论文、技术博客里找到 → AI 爬得到 → 别记。这不是你的护城河,记了也不会给你加分。
  • 在公司内部文档里、某次会议纪要里、监管窗口指导里 → AI 爬不到 →
  • 只存在于某个具体人的脑子里、某次走廊对话里、你自己的判断里 → AI 永远爬不到 → 必须记,而且要尽快记,这些东西消失得最快。

这个筛选标准会让你的认知底座自动往三块地盘聚拢:

  • 围墙内的数据 —— AI 进不去
  • 没被写下来的隐性知识 —— AI 见不到
  • 生成判断的推理链 —— AI 学不会

这三块地盘守住,你就永远不会被 AI 取代——因为 AI 再强,到了这三块地盘的边界前,它必须停下来问你。


六、收束

回到开头那个读者的问题:”我这么一周一周攒,到底图什么?”

图的不是跑赢 AI——那场比赛人类必输,接受这一点才能开始下一步思考。

图的是:在 AI 变得无比强大的世界里,给自己守住一块 AI 进不来的地盘。这块地盘不大,但它是你的。它不会因为模型从 GPT-5 升级到 GPT-6 就失效,不会因为某家新创业公司发布了新 agent 就贬值。它唯一会因为一件事失效——你不再往里面添砖。

所以认知底座不是跟 AI 竞赛,而是主动退出一场必输的比赛,进入一场只跟自己比的比赛。

你真正的竞争对手从来不是 AI,是那些还在通识赛道上奋力奔跑、不肯停下来建自己地盘的同行。

AI 淘汰的是他们,不是你。


「模型之外的事」系列番外。在 AI 的喧嚣里,替你找到真正能用的东西。不搬运新闻,不贩卖焦虑。