跳到正文
Claude Code百万上下文:从围城到红楼梦
0%
工具评测 · · 2,207 字 · 漫游君 · 深度 · 🔴 进阶 · Claude Code 实战 4/9 ·

Claude Code百万上下文:从围城到红楼梦

《AI时代漫游指南》第 95 章·上下文经济学·第一条:

「AI 的能力不取决于它有多聪明,而取决于它能同时看到多少东西。能看到整片森林的人,比只能看到一棵树的天才更容易找到出路。」


你有没有遇到过这样的场景——

你跟 AI 助手聊了半小时,讨论了一个复杂方案。

你说”按照刚才说的方案执行”。

它回你:“抱歉,你能再说一遍刚才的方案吗?”

或者你让它帮你分析一份 80 页的报告,它说”太长了,能分成几部分发给我吗?”

这不是 AI 不聪明,是 AI 被困在了”围城”里——20 万 token 的围城。

编者注:上下文窗口就是 AI 的”工作记忆”。人类的工作记忆大概能同时处理 7±2 个信息块(米勒定律),AI 的上下文窗口就是它的米勒定律——只不过,它的上限刚刚被拉高了 5 倍。


发生了什么?

2026 年 3 月 13 日,Anthropic 宣布:

Claude 的 100 万 token 上下文窗口正式全面开放

而且——取消了长上下文加价。

以前,用超过 20 万 token 的请求要额外加钱。

现在,发一个 90 万 token 的请求和发一个 9000 token 的请求,单价完全一样。

这意味着什么?

100 万 token ≈ 75 万字两本《三体》1500 页文档

你可以一次性把一整本书、一份完整的法律合同、半年的财务报表喂给 AI,然后问它任何问题。

不用拆分。不用摘要。不用”请翻到第 3 部分”。

编者注:为了帮你建立直觉——以前的 20 万 token 大概能装下一本《围城》(14 万字)。现在的 100 万 token 能装下整部《红楼梦》(73 万字)。从围城到红楼梦,不只是厚度的变化,是视野的变化。


一个重度用户的真实视角

我不是在写新闻稿。

过去两个月,我用 Claude Code 管理着一个包含 6 个服务、40 多个接口的内容管理系统。193 个会话,2000+ 条消息。

所以当 1M 上下文开放的消息传来,我的第一反应不是”哇好大”,而是——

我太知道 20 万 token 不够用是什么感觉了。

痛点一:聊着聊着就”失忆”

跟 Claude Code 深度讨论一个功能——比如设计一个定时发布系统。

讨论到第 10 轮左右,它开始”变笨”。不是突然变笨,而是微妙地忘掉了早期达成的共识。

到第 15 轮,我得重新解释一遍需求。

这就是”上下文压缩”在背后搞鬼。 当对话太长,系统会悄悄压缩早期内容,保留”摘要”但丢掉细节。

Anthropic 的数据显示:1M 窗口上线后,压缩事件减少了 15%。这意味着更多对话内容能原封不动地保留。

编者注:上下文压缩就像你的同事在做会议记录时偷偷删掉了一些”不重要”的内容。问题是,他觉得不重要的,可能恰好是你觉得最重要的。

痛点二:跨模块理解力不足

以前在 20 万 token 下,AI 在修改一个模块时,很难同时理解另一个模块的接口约定。

我需要手动把相关信息复制过来,或者写很长的说明文件来”提示”它。

为了应对这个问题,我发展出了一套分层记忆系统:

方式初始消耗可用对话轮数
传统:把所有内容喂进去80-120K1-2 轮
分层管理12-18K12-15 轮

有了 1M 窗口,AI 终于有足够的空间来”思考”和”记忆”,不再需要频繁遗忘。

痛点三:复杂分析要”分批投喂”

以前我分析公众号 30 天的后台数据,20 万 token 装不下全量数据,需要分批喂入。

直到我精简数据格式一次性灌入后,AI 才发现了关键模式:55.4% 的流量来自搜一搜,而朋友圈分享只占 0.4%。

这个洞察直接改变了我的内容策略。

分批喂入 ≠ 看到全貌。 1M 窗口最大的价值,就是让 AI 有机会看到你看到的全局。

编者注:这就好比你让一个分析师看报告,给他一页一页翻,和把整份报告摊在桌上——后者能看到前者看不到的关联。


要注意什么?

20 万真的不够用

过去两个月,我几乎每个深度会话都会触发上下文压缩——不是”用不到 20 万”,恰恰相反,几乎每次都用光了

讨论需求、设计架构、写代码、调试、测试——一个完整功能做下来,20 万 token 根本不够。

100 万窗口对重度用户来说不是”锦上添花”,是真刚需

不是所有模型都行

Anthropic 的测试数据显示,在 1M 上下文的检索任务中:

模型准确率
Opus 4.678.3%
Sonnet 4.518.5%

差距是 4 倍。能装 ≠ 能用好。

编者注:这就像给你一个能装 1000 本书的书架。关键不是书架多大,而是你能不能在 1000 本书里快速找到需要的那一页。


和竞品比起来怎样?

工具价格上下文窗口
Claude Max$100-200/月100 万
Cursor Pro$20/月20 万起
GitHub Copilot Pro+$39/月模型依赖
Windsurf$15-35/月模型依赖

价格是真正的新闻。 以前用 100 万上下文,token 要加价。现在取消了加价——把”长上下文”从奢侈品变成了日用品。

编者注:类比一下——以前坐飞机行李超重要加钱。现在航空公司说”随便带,不加钱”。你可能不会每次都带 50 公斤行李,但你再也不用焦虑”万一超了怎么办”。


普通人怎么用?

你不需要是程序员。100 万上下文对知识工作者的价值:

场景 1:一口气读完整本书

把一本书的 PDF 扔给 Claude,问”这本书的核心论点和我上周的会议纪要有什么关联?“——以前做不到,现在可以。

场景 2:合同审查

把一份 200 页的合同和相关法规一起喂入,问”第 37 条和第 89 条是否存在矛盾?“——AI 能同时看到两处条款,而不是分别看完再凭”记忆”回答。

场景 3:跨文档分析

同时上传 5 份季度财报,问”Q3 的异常数据在 Q4 有没有延续?“——全量数据在眼前,趋势分析准确率飙升。

场景 4:深度讨论不怕断

跟 AI 讨论一个方案,讨论 50 轮也不用担心它忘记开头说了什么。

这对需要反复推敲的创意工作、策略制定、复杂决策特别有用。


两个月的经验:窗口再大也需要好习惯

在 20 万 token 时代,我就被迫学会了:信息管理比窗口大小更重要。

我建了一套分层记忆系统,Token 消耗降低 6-10 倍,对话轮数从 1-2 轮提升到 12-15 轮。

这套系统在 1M 时代不但没有过时,反而更重要——

  1. 分层管理依然必要:1M 不是让你把所有东西都塞进去,而是让 AI 有更多空间”思考”
  2. 定期”换脑”仍然推荐:超长会话的后半段质量可能下降
  3. 信任但验证:确认 AI 引用的信息是否准确

大窗口 + 好习惯 = 真正的生产力。

大窗口 + 坏习惯 = 更贵的账单。

编者注:这就像你终于有了一个巨大的书房。但如果你把所有书扔在地上,找东西反而更慢。书架、分类、索引——这些”无聊”的工作,才是大空间的价值放大器。


写在最后

100 万 token 上下文不是 AI 的终极形态——它只是一个重要的里程碑。

真正让我兴奋的不是”数字变大了”,而是一个微妙的转变:

AI 终于从”对话工具”变成了”工作伙伴”。

对话工具需要你不断重复自己、分批投喂、小心翼翼地管理上下文。

工作伙伴则记得你们之前讨论过什么、知道项目的全貌、理解决策背后的原因。

我们离真正的”AI 同事”还有多远?不知道。

但至少,AI 终于走出了围城,走进了红楼梦的世界——一个足够大、足够完整、值得深度探索的世界。

「从围城到红楼梦,不是页数的变化,是 AI 终于有资格说”我读过全文”了。」

——《AI时代漫游指南》第 95 章·上下文经济学


如果你觉得这篇文章有用:

  • 关注「AI时代漫游指南」,我们每周分享 AI 效率实战
  • 转发给那个总抱怨”AI 老是忘事”的朋友

本文基于 2026 年 3 月 14 日的实测体验和公开数据撰写。AI 产品更新快,请以官方最新信息为准。

这篇文章对你有帮助吗?

分享这篇文章

X / Twitter

感谢阅读这篇文章

约花了 13 分钟。如果对你有帮助,欢迎订阅 RSS 或收藏待读。

讨论

阅读路径 5 / 5
⚡ Claude Code 实战

你已完成此路径的全部文章!

这篇文章让你感觉

评分

喜欢这篇文章?

订阅 RSS,第一时间收到新文章推送

订阅 RSS

私人笔记

仅保存在本地浏览器

讨论

评论加载中...