从会聊天到会指挥——AI Agent 改变工作方式的本质
上周有个朋友跟我吐槽:他花了整整三个小时手写一个数据迁移脚本,从旧数据库格式转到新的 schema,中间还踩了好几个编码和日期格式的坑。我听完说,“你试过让 Agent 来做这个吗?“他不信。第二天我当着他的面演示了一遍——花了大概两分钟描述需求:数据源是什么格式、目标是什么格式、有哪些特殊字段需要转换,然后 Agent 自己读了两边的 schema,写了迁移脚本,我花了十分钟审查结果,搞定。
他当场沉默了几秒钟,然后说了句:“这不是换了个工具的问题啊。”
对。这不是学一个新工具的事。这是重新定义你工作方式的事。
想想看:以前遇到不会的问题,你被卡住了;现在遇到不会的,你可以描述给 AI,让它来帮你。以前从零开始写,现在从 AI 的初稿开始改。以前独自闷头干,现在随时有一个不知疲倦的搭档可以商量。整个工作的节奏变了——重复劳动靠自动化,人只做判断。
你还在”怎么做X”吗?
说实话,现在大部分人用 AI 的方式,还停留在当年用百度搜索的水平——只不过搜索框变成了聊天框。
你问 ChatGPT:“怎么做竞品分析?“它给你列个步骤清单:第一步确定竞品,第二步收集信息,第三步对比功能,第四步写报告。你看完觉得,嗯,说的都对,但跟我百度搜出来的东西有什么区别呢?
换一种问法试试:
我们是做 B 端 SaaS 的,老板让我做一份竞品分析,但我之前没做过,不知道从哪下手。
- 竞品分析里最核心的几个维度是什么?哪些容易被新手忽略?
- B 端产品和 C 端产品的竞品分析有什么本质区别?
- 做完分析后,怎样呈现才能让老板觉得有决策价值而不是流水账?
感觉到差别了吗?第一种问法要的是答案,第二种问法要的是认知框架。
| 普通提问 | 元问题 |
|---|---|
| ”怎么做X?" | "做X之前我应该知道什么?“ |
| 直接要答案 | 先要地图,再找路线 |
| 得到操作步骤 | 得到认知框架 |
| 遇到下一个问题还是不会 | 能自己判断下一步该问什么 |
第一种方式,你永远在问具体操作;第二种方式,你在构建思考问题的能力。这是 Chat 层面就能做到的事情,只是大多数人还没意识到。
但即便你把 Chat 用到极致,它仍然有一个天花板——它只能跟你聊,不能替你干活。
从问答到干活:Agent 到底有什么不同
Chat 和 Agent 的区别,用一张表就能讲清楚:
| Chat(你已经在用的) | Agent(今天聊的重点) | |
|---|---|---|
| 交互 | 一问一答 | 自主规划、多步执行 |
| 能力 | 只能生成文本 | 能读写文件、执行代码、调用工具 |
| 上下文 | 单次对话窗口 | 理解整个项目/仓库 |
| 控制 | 人驱动每一步 | 人定目标,Agent 自主拆解执行 |
| 类比 | 问答机器人 | 能真正干活的助手 |
关键区别在最后一行。Chat 是你问它答,本质上还是你在干活、它在出主意。Agent 不一样——你给它一个目标,它自己去想怎么拆解,自己动手执行,遇到问题自己调整。
Agent 工作的时候,脑子里转的是一个循环:先想清楚需要做哪些步骤,然后动手去做(读文件、写代码、跑命令),做完看看结果怎么样,再反思目标达成了没有、需不需要调整方案。这个”想-做-看-调”的循环会一直转,直到任务完成或者它觉得需要你来拍个板。
这跟 Chat 的”你问一句它答一句”完全是两回事。Chat 模式下你是执行者,AI 是顾问;Agent 模式下你变成了指挥者,AI 是那个真正动手的人。
你在哪一层?
既然工作方式要变,那就得问一个问题:你现在在什么水平?
我觉得用 AI 的能力可以分成三层,你可以自己对号入座:
Level 1:基础使用。 会用 Chat 提问,能理解 AI 的回答,做简单的问答交互。如果你已经在日常工作中用 ChatGPT、Claude 或者其他 AI 聊天工具,你就在这一层了。说实话,大部分人卡在了这里。
Level 2:高效协作。 这一层的核心技能有三个:给 AI 足够的上下文(知道什么信息该喂给它、怎么喂);通过迭代式对话逐步引导 AI 到正确方向(别指望一句话搞定,分步引导、逐步精化才是常态);知道什么时候该信任它、什么时候必须亲自验证。从 Level 1 到 Level 2 的跃迁,关键词就一个:Context Engineering(后面会聊到)。
Level 3:架构师思维。 能把复杂问题拆解成 AI 可执行的子任务,能设计人和 AI 之间的协作工作流(谁做什么、什么时候需要人介入),能准确判断 AI 输出的质量和风险。到了这一层,AI 不再是你的工具,而是你团队里一个需要管理的”成员”。
大部分人的目标应该是从 Level 1 扎扎实实地走到 Level 2。Level 3 需要实战经验积累,急不来,但 Level 2 是现在就可以开始练的。
从”能用”到”好用”的核心:Context Engineering
你可能听过 Prompt Engineering——怎么写好提示词。Context Engineering 是它的升级版,关注的问题更大:怎么组装最优的信息组合,让 AI 产出最好的结果?
很多人以为 AI 看到的就是你在对话框里打的那几句话。但在 Agent 模式下,AI 实际看到的远不止这些:
- 你说的话(Prompt)
- 项目里的文件(Agent 自己读的代码和文档)
- 预置的配置文件(比如项目级的约定和规范)
- 工具输出(执行命令后返回的结果)
- 对话历史(之前聊过的内容)
这些加在一起,才是 AI 实际的”上下文”。你能影响的不只是”你说的话”,而是所有这些信息的质量和组合方式。
业界总结了四个策略来管理上下文:
- Write(持久化):把团队编码规范、架构约定、常用命令写进配置文件,Agent 每次启动自动读取,不用每次对话都重复解释。
- Select(检索):告诉 Agent “参考 UserController 的风格来写”,而不是让它从零猜——你指向的参考越具体,输出越贴合项目。
- Compress(压缩):对话太长 Agent 会”变笨”(技术上叫 Context Rot),及时压缩上下文保留关键信息。
- Isolate(隔离):改完 A 功能后清掉上下文再开始 B 功能,避免信息串线。
这四个策略展开来讲有很多实操细节,值得单独一篇文章来聊。这里你只需要记住一个核心认知:AI 的输出质量,七分取决于你喂给它的上下文质量。Prompt 写得再花哨,上下文不到位,结果也好不到哪去。
AI 很快,但责任还是你的
聊到这里,有一个必须正视的话题:AI 是实习生,不是专家。
它很快、知识面广、不知疲倦,但它需要你给方向、做审查。跟实习生协作的正确姿势是:描述清楚背景、目标和约束,比手把手告诉它”第一步做X、第二步做Y”效果好得多。同时别指望一句话得到完美结果——迭代式对话才是常态,分步引导、逐步精化。
更关键的是——AI 不知道自己不知道。它不会说”这个我没见过,不确定”,它会自信满满地编一个看起来合理但可能完全错误的答案。
这不是在吓唬你。AI 生成的代码看起来专业、跑起来没报错,但可能编造了不存在的包名,可能忽略了你们项目的架构约定,可能在关键路径上留下了安全隐患。这些问题不会自动暴露,只有审查才能发现。
所以不管 AI 多快多好用,工作流程永远是三步:生成、审查、署名。
让 AI 产出初稿,你来审查正确性(逻辑对不对、事实准不准)、适用性(放在你的项目里合不合适)和安全性(有没有引入风险),确认没问题了,才算是你的产出。
“AI 写的代码我直接提交了,出 bug 不怪我”——不好意思,怪你。点”确认”的那个人,就是要负责的那个人。AI 不承担后果,你承担。
这不是为了泼冷水。恰恰相反——当你建立了靠谱的审查习惯之后,AI 帮你提速的效果才能真正释放出来。没有审查的加速,只是更快地制造技术债。
今天就可以开始
说了这么多,核心就一句话:AI Agent 改变的不是工具箱,是你在工作中扮演的角色——从执行者变成指挥者。
这个转变不需要你一夜之间完成。今天就可以做一件小事:挑一个你手头在做的、重复性比较高的任务,试着交给 Agent 来做。不用挑什么高大上的场景,越日常越好。写个脚本、整理个文档、分析一份数据——先感受一下”描述需求然后审查结果”跟”自己从头做”之间的差别。
一旦你体验过一次那种”我花两分钟描述,它花五分钟干活,我花十分钟审查”的节奏,你就再也回不去了。
延伸阅读
- 四层提问法——10分钟建立陌生领域认知框架 — 一个拿来就用的提问方法,10 分钟从零建立认知
- 从 Prompt Engineering 到 Context Engineering — 从”能用”到”好用”的核心技能
- AI 生成的代码,你敢直接提交吗 — AI 写得越快,审查越不能省
- Agent 时代的模糊需求哲学 — 为什么有时候说得模糊反而效果更好