Claude Code百万上下文:从围城到红楼梦
- 1
- 2
- 3
- 4 Claude Code百万上下文:从围城到红楼梦
- 5
- 6
- 7
- 8
- 9
《AI时代漫游指南》第 95 章·上下文经济学·第一条:
「AI 的能力不取决于它有多聪明,而取决于它能同时看到多少东西。能看到整片森林的人,比只能看到一棵树的天才更容易找到出路。」
你有没有遇到过这样的场景——
你跟 AI 助手聊了半小时,讨论了一个复杂方案。
你说”按照刚才说的方案执行”。
它回你:“抱歉,你能再说一遍刚才的方案吗?”
或者你让它帮你分析一份 80 页的报告,它说”太长了,能分成几部分发给我吗?”
这不是 AI 不聪明,是 AI 被困在了”围城”里——20 万 token 的围城。
编者注:上下文窗口就是 AI 的”工作记忆”。人类的工作记忆大概能同时处理 7±2 个信息块(米勒定律),AI 的上下文窗口就是它的米勒定律——只不过,它的上限刚刚被拉高了 5 倍。
发生了什么?
2026 年 3 月 13 日,Anthropic 宣布:
Claude 的 100 万 token 上下文窗口正式全面开放。
而且——取消了长上下文加价。
以前,用超过 20 万 token 的请求要额外加钱。
现在,发一个 90 万 token 的请求和发一个 9000 token 的请求,单价完全一样。
这意味着什么?
100 万 token ≈ 75 万字 ≈ 两本《三体》 ≈ 1500 页文档。
你可以一次性把一整本书、一份完整的法律合同、半年的财务报表喂给 AI,然后问它任何问题。
不用拆分。不用摘要。不用”请翻到第 3 部分”。
编者注:为了帮你建立直觉——以前的 20 万 token 大概能装下一本《围城》(14 万字)。现在的 100 万 token 能装下整部《红楼梦》(73 万字)。从围城到红楼梦,不只是厚度的变化,是视野的变化。
一个重度用户的真实视角
我不是在写新闻稿。
过去两个月,我用 Claude Code 管理着一个包含 6 个服务、40 多个接口的内容管理系统。193 个会话,2000+ 条消息。
所以当 1M 上下文开放的消息传来,我的第一反应不是”哇好大”,而是——
我太知道 20 万 token 不够用是什么感觉了。
痛点一:聊着聊着就”失忆”
跟 Claude Code 深度讨论一个功能——比如设计一个定时发布系统。
讨论到第 10 轮左右,它开始”变笨”。不是突然变笨,而是微妙地忘掉了早期达成的共识。
到第 15 轮,我得重新解释一遍需求。
这就是”上下文压缩”在背后搞鬼。 当对话太长,系统会悄悄压缩早期内容,保留”摘要”但丢掉细节。
Anthropic 的数据显示:1M 窗口上线后,压缩事件减少了 15%。这意味着更多对话内容能原封不动地保留。
编者注:上下文压缩就像你的同事在做会议记录时偷偷删掉了一些”不重要”的内容。问题是,他觉得不重要的,可能恰好是你觉得最重要的。
痛点二:跨模块理解力不足
以前在 20 万 token 下,AI 在修改一个模块时,很难同时理解另一个模块的接口约定。
我需要手动把相关信息复制过来,或者写很长的说明文件来”提示”它。
为了应对这个问题,我发展出了一套分层记忆系统:
| 方式 | 初始消耗 | 可用对话轮数 |
|---|---|---|
| 传统:把所有内容喂进去 | 80-120K | 1-2 轮 |
| 分层管理 | 12-18K | 12-15 轮 |
有了 1M 窗口,AI 终于有足够的空间来”思考”和”记忆”,不再需要频繁遗忘。
痛点三:复杂分析要”分批投喂”
以前我分析公众号 30 天的后台数据,20 万 token 装不下全量数据,需要分批喂入。
直到我精简数据格式一次性灌入后,AI 才发现了关键模式:55.4% 的流量来自搜一搜,而朋友圈分享只占 0.4%。
这个洞察直接改变了我的内容策略。
分批喂入 ≠ 看到全貌。 1M 窗口最大的价值,就是让 AI 有机会看到你看到的全局。
编者注:这就好比你让一个分析师看报告,给他一页一页翻,和把整份报告摊在桌上——后者能看到前者看不到的关联。
要注意什么?
20 万真的不够用
过去两个月,我几乎每个深度会话都会触发上下文压缩——不是”用不到 20 万”,恰恰相反,几乎每次都用光了。
讨论需求、设计架构、写代码、调试、测试——一个完整功能做下来,20 万 token 根本不够。
100 万窗口对重度用户来说不是”锦上添花”,是真刚需。
不是所有模型都行
Anthropic 的测试数据显示,在 1M 上下文的检索任务中:
| 模型 | 准确率 |
|---|---|
| Opus 4.6 | 78.3% |
| Sonnet 4.5 | 18.5% |
差距是 4 倍。能装 ≠ 能用好。
编者注:这就像给你一个能装 1000 本书的书架。关键不是书架多大,而是你能不能在 1000 本书里快速找到需要的那一页。
和竞品比起来怎样?
| 工具 | 价格 | 上下文窗口 |
|---|---|---|
| Claude Max | $100-200/月 | 100 万 |
| Cursor Pro | $20/月 | 20 万起 |
| GitHub Copilot Pro+ | $39/月 | 模型依赖 |
| Windsurf | $15-35/月 | 模型依赖 |
价格是真正的新闻。 以前用 100 万上下文,token 要加价。现在取消了加价——把”长上下文”从奢侈品变成了日用品。
编者注:类比一下——以前坐飞机行李超重要加钱。现在航空公司说”随便带,不加钱”。你可能不会每次都带 50 公斤行李,但你再也不用焦虑”万一超了怎么办”。
普通人怎么用?
你不需要是程序员。100 万上下文对知识工作者的价值:
场景 1:一口气读完整本书
把一本书的 PDF 扔给 Claude,问”这本书的核心论点和我上周的会议纪要有什么关联?“——以前做不到,现在可以。
场景 2:合同审查
把一份 200 页的合同和相关法规一起喂入,问”第 37 条和第 89 条是否存在矛盾?“——AI 能同时看到两处条款,而不是分别看完再凭”记忆”回答。
场景 3:跨文档分析
同时上传 5 份季度财报,问”Q3 的异常数据在 Q4 有没有延续?“——全量数据在眼前,趋势分析准确率飙升。
场景 4:深度讨论不怕断
跟 AI 讨论一个方案,讨论 50 轮也不用担心它忘记开头说了什么。
这对需要反复推敲的创意工作、策略制定、复杂决策特别有用。
两个月的经验:窗口再大也需要好习惯
在 20 万 token 时代,我就被迫学会了:信息管理比窗口大小更重要。
我建了一套分层记忆系统,Token 消耗降低 6-10 倍,对话轮数从 1-2 轮提升到 12-15 轮。
这套系统在 1M 时代不但没有过时,反而更重要——
- 分层管理依然必要:1M 不是让你把所有东西都塞进去,而是让 AI 有更多空间”思考”
- 定期”换脑”仍然推荐:超长会话的后半段质量可能下降
- 信任但验证:确认 AI 引用的信息是否准确
大窗口 + 好习惯 = 真正的生产力。
大窗口 + 坏习惯 = 更贵的账单。
编者注:这就像你终于有了一个巨大的书房。但如果你把所有书扔在地上,找东西反而更慢。书架、分类、索引——这些”无聊”的工作,才是大空间的价值放大器。
写在最后
100 万 token 上下文不是 AI 的终极形态——它只是一个重要的里程碑。
真正让我兴奋的不是”数字变大了”,而是一个微妙的转变:
AI 终于从”对话工具”变成了”工作伙伴”。
对话工具需要你不断重复自己、分批投喂、小心翼翼地管理上下文。
工作伙伴则记得你们之前讨论过什么、知道项目的全貌、理解决策背后的原因。
我们离真正的”AI 同事”还有多远?不知道。
但至少,AI 终于走出了围城,走进了红楼梦的世界——一个足够大、足够完整、值得深度探索的世界。
「从围城到红楼梦,不是页数的变化,是 AI 终于有资格说”我读过全文”了。」
——《AI时代漫游指南》第 95 章·上下文经济学
如果你觉得这篇文章有用:
- 关注「AI时代漫游指南」,我们每周分享 AI 效率实战
- 转发给那个总抱怨”AI 老是忘事”的朋友
本文基于 2026 年 3 月 14 日的实测体验和公开数据撰写。AI 产品更新快,请以官方最新信息为准。
相关文章
Claude Code 15 个实用技巧:从够用到真正好用
大多数人只用到了 Claude Code 20% 的能力。这 15 个技巧覆盖从上下文管理、工作流加速到防坑实践——每一条都来自真实使用中的摸索。
Claude Code Hooks:让 AI 编程有迹可循、可审计、可回滚
Claude Code 的 Hooks 系统让你能在 AI 执行操作的前后注入自定义逻辑——自动备份、风险拦截、操作日志、通知推送。这是从"信任 AI"到"验证 AI"的关键一步。
Claude Code 的记忆架构:如何让 AI 真正记住你的项目
大多数人用 Claude Code 的方式是错的——每次对话都从零开始,反复解释背景。本文分享我在真实多 Agent 系统中摸索出的五层记忆架构,让 AI 持续积累项目知识。
这篇文章对你有帮助吗?
分享这篇文章
引用此文
讨论
这篇文章让你感觉
喜欢这篇文章?
订阅 RSS,第一时间收到新文章推送
私人笔记
仅保存在本地浏览器讨论
评论加载中...