















































原创 2026-04-09高维学堂
►高维君说:
2026年3月31日,估值3800 亿美元的全球第二大 AI 独角兽 Anthropic因为一次配置失误,将其王牌产品Claude Code的全部源代码意外暴露在公共代码仓库中。1,884个源文件、51.2万行代码、59.8MB的映射文件——一场看次偶然的事故,撕开了AI竞赛中最大的底牌。
这不是一篇技术文章。我们要从这51万行代码中,读出每个创始人都必须理解的三个AI真相。
作 者 | 高维君
来 源 | 高维学堂(ID:gaoweixuetang)
▌ 一个实习生的常规检查,揭开了什么?
2026年3月31日,区块链基础设施公司Solayer的实习生Chaofan Shou,在检查Anthropic发布的Claude Code安装包时,发现了一个本不该存在的源代码映射文件,大小59.8MB。这类文件本应在发布中被删除,却因为发布流程中的配置失误,被意外上传至公共 npm 仓库,相当于完成了一场非官方却效果等同的开源。
消息传播速度极快,Chaofan Shou 在 X 平台披露消息后仅 30 分钟,相关 GitHub 克隆仓库便收获超 5000 颗 Star。量子位、36 氪等科技媒体迅速跟进报道,称其为 “意外开源”“源码被扒光”。技术人员只需用常规工具,数分钟就能还原完整源码,相当于这家 AI 巨头将核心产品的全部设计图纸,毫无防护地公之于众。
但真正让整个科技界震动的,不是泄露本身,而是这些源代码揭示的内容。
它展示了一个远超行业预期的系统——不是一个聊天机器人,不是一个代码补全工具,而是一套完整的"数字员工操作系统"。
第一个真相
AI不是工具,
是"数字员工操作系统"
很多创始人对AI的认知还停留在 “模型 + 提示词” 的效率工具——帮人写写文案、做做表格、搜搜资料。
但Anthropic的源码告诉我们,这家公司正在构建的东西,和"效率工具"完全不是一个级别。
▌ 一个叫KAIROS的系统
源码中出现了150多处对KAIROS的引用,还配套6个子标志和一整套专属工具链——这是整个代码库中除核心功能外投入最大的系统。
KAIROS是什么?它是一个自主Agent系统,设计目标是让AI像一个真正的员工一样,7×24小时持续工作:
☉ 它有自己的工作循环,不需要人类持续对话就能保持运转;
☉ 它可以通过Channel与外部系统对接。
换一种说法:这不是一个"你问它答"的工具,而是一个可以自主接受任务、规划执行、汇报进度、持续迭代的数字员工。
这个"数字员工"甚至配备了54个集成工具,有比你想象中更完整的"能力体系",包括:文件读写与编辑、代码执行、网络搜索与浏览器控制、项目管理、通知与协作。
每一个都有明确的权限边界和调用规范。这不是东拼西凑的功能堆砌,而是经过系统设计的"岗位能力模型"。
▌ 更关键的是:它有记忆
如果一个员工每天上班都不记得昨天做了什么,你会辞退他。而KAIROS拥有一套精心设计的四层记忆架构:

更精妙的是还有第五层——Dream(记忆巩固),每次对话结束后自动运行,从对话历史中提取有价值的信息巩固到长期记忆中。它的灵感来自认知科学中的记忆层次理论:工作记忆容量有限、快速衰减,但通过"记忆巩固"过程,重要信息可以转化为长期记忆。
创始人需要理解的第一个真相:你未来雇用的"数字员工",不是一个只会响应指令的程序。它有自己的工作循环、记忆系统、工具箱和通信能力。它更像一个真正的员工,而不是一个软件。
这意味着什么?意味着你要像管理员工一样管理AI——给它明确的职责边界、清晰的汇报机制、合理的权限设置。而不是简单地把它当作一个"工具"来"使用"。
第二个真相
"上下文工程"正在取代"提示词"
2026年初,LangChain发布了一项引起广泛关注的研究:仅通过改进Harness(系统提示词装配工程)、不更换底层模型,就将AI编码Agent的测试评分从52.8%提升到了66.5%。
这意味着什么?
意味着同一个AI大脑,在不同的"装配工程"下,能力相对提升了26%。
这就像同一个985毕业生,放在一家管理混乱的公司和一家流程完善的公司,产出可能天差地别。差异不在人,在于系统。
这套决定 AI 能力上限的「装配工程」,究竟能精密到什么程度?此次意外泄露的 Anthropic 源码,给出了最直观的答案。
▌ 源码揭示的"装配工程"
Anthropic的这套"装配工程"官方命名为"Context Engineering"(上下文工程)。
与传统Prompt Engineering的区别在于:
前者优化"单次对话中的一条提示词"。而Context Engineering涵盖整个系统——编排、状态管理、错误恢复、可观测性、多会话协调。传统的Prompt Engineering只是Context Engineering的一个组成部分。
源码展示了Claude Code的系统提示词由七个静态段落组成"宪法"骨架,再叠加十多个动态段落,形成一套高度模块化、缓存优化、多层注入的提示词流水线。
其中最值得关注的设计原则"静动分离"——将不变的"宪法"(行为准则)与易变的"执行细节"(工具状态、用户配置)用边界标记分开,最大化缓存命中率。这直接影响运营成本:每次缓存命中可节省90%的输入Token成本。
由此引出业界最关心的问题是:源码泄露后,Anthropic的护城河还在吗?
答案是:代码可以被复制,但护城河不在代码本身。
容易复制的是工程架构上的设计思路,难以复制的是模型能力、巨额工程投入、长期基础设施、独家数据积累的综合壁,包括:
☉ KAIROS的完整生态(需要强大的底层模型支持)
☉ 19,842行的自研Ink框架(巨大的工程投入)
☉ 四层记忆架构的Dream巩固机制(需要长期运行的Agent基础设施)
☉ 模型能力本身(Claude 的能力决定工具调用的效果)
☉ 数据飞轮(独家测试数据与持续迭代形成的优化闭环)
创始人需要理解的第二个真相是:AI竞争的护城河,不在于某一项技术,而在于"上下文工程"的系统能力——工具编排、安全约束、记忆管理、错误恢复、持续优化的飞轮效应,这些环环相扣、缺一不可。
不要迷信"选对一个AI工具"就能建立优势。真正的优势来自于你的组织如何系统性地将AI嵌入业务流程——你给AI什么上下文、什么工具、什么权限边界、什么反馈机制、什么记忆系统。这是你自己的"上下文工程"。
第三个真相
AI安全不是技术问题,
是管理哲学选择
▌ 两条截然不同的路
源码泄露后的竞品对比分析,揭示了AI领域最深层的分歧:对AI自主性的态度。
☉ Anthropic(Claude Code)—— 监督自主,默认倾向:先问再做。
☉ OpenAI(Codex CLI)—— 无监督自主,默认倾向:先做再报告。
安全模型的不同不仅是产品设计的差异,更是两种不同的管理哲学:

Anthropic的方法就像给一个能力很强的员工设置审批流程——信任 AI 能力,仅在关键决策点设置审批。
OpenAI的方法则像把员工关在特殊的房间里工作——没有网络,不接触核心系统,将AI置于隔离环境,即使他想做坏事也做不到。在系统调用层面拦截违规操作,Agent代码根本无法绕过。
这两种哲学,对应着企业管理中一个古老的命题:你是选择"流程控制"还是"物理隔离"?
对于大多数创业企业来说,答案可能不是非此即彼,而是根据业务场景选择合适的策略。
创始人需要理解的第三个真相:AI安全不是一个技术参数,而是一个需要你做出选择的管理命题。你的AI越强大,你就越需要一套清晰的"AI治理框架"——不是限制AI的能力,而是确保AI的能力在你的控制之下发挥。
这和管理人才是一个道理:你不会因为害怕优秀员工犯错就不敢授权,但你一定会为关键岗位设置明确的权责边界和审批流程。
这三件事
创始人现在就应该做
这次源码泄露事件,本质上是一次"AI行业的开卷考试"——它让所有人看到了最前沿AI产品的真实架构和设计思想。
基于这些发现,我认为每个创始人现在就应该做三件事:
第一,重新定义"AI岗位",而不只是"AI工具"
不要再问"我们用什么AI工具",要问"我们的业务流程中,哪些环节可以交给一个具有工作循环、记忆系统和工具箱的数字员工?"
这意味着你需要:
☉ 梳理核心业务流程,找出可以由AI自主执行的环节;
☉ 为AI"岗位"设计明确的职责说明书——它可以做什么、不可以做什么、遇到问题向谁汇报;
☉ 建立AI工作成果的检验机制——就像你会检查新员工的工作产出一样。
第二,开始建设你自己的"上下文工程"
AI产品的竞争正在从"模型能力"转向"上下文工程"。对于使用AI的企业来说,同样如此——你给AI什么上下文,决定了AI给你什么产出。
具体来说:
☉ 把你公司的业务知识、操作规范、决策标准系统化、结构化——这是你喂给AI的"上下文";
☉ 建立AI可以调用的内部工具和数据接口——这是AI的"工具箱";
☉ 设计清晰的权限边界和审批节点——这是你的"AI治理框架"。
你的上下文工程做得越好,AI给你的回报就越大。
第三,现在就建立"AI治理框架"
不要等AI出了问题才想起来管理。源码显示,Anthropic从第一天就把安全治理嵌入了产品架构——七层安全防护体系、17种Hook生命周期事件、三级权限模型。
你的企业至少需要回答这些问题:
☉ AI可以接触哪些数据,不可以接触哪些数据?
☉ AI的哪些操作需要人工审批,哪些可以自主执行?
☉ AI出错时,回滚机制是什么?
☉ 谁对AI的产出负最终责任?
这些问题今天不回答,明天就可能变成事故。
写在最后
回到这次事件本身。
一个配置失误暴露了51万行源码——这本身就是一个绝佳的管理案例。它告诉我们:即使是最顶尖的AI公司,在最基本的流程管理上也可能犯错。
但更值得关注的是,当我们拆开这些源码,看到的不是一堆代码,而是一种全新的组织形态的雏形——AI不再是人类的工具,而正在成为组织中的一个"角色",拥有自己的记忆、工具、工作流程和行为准则。
这是一个比"AI取代人类"更深刻、也更务实的趋势:AI正在以"数字员工"的形态,嵌入到企业的组织架构中。
面对越来越多的数字员工,如何管理它们、如何给它们设定边界、如何让它们和人类团队协作——这是每个创始人必须面对的新命题。
不是明天,就是现在。■
*本文基于《Claude Code源码终极调研报告》(v0.019, 2026年4月1日)的深度分析。该报告对Anthropic因npm Source Map配置失误而泄露的1,884个源文件进行了全面技术解读。本文不涉及任何代码的再分发或商业利用。