什么时候应该停止追问 AI
用得越多,越发现 AI coding 真正的成本不在 token 费,而在你愿意为一个错误方向投入多少轮对话。
典型的失败模式是这样的:你抛出一个问题,模型给了一份实现;你跑了一下不太对,把错误贴回去;它说"哦我修一下",再来一版;还是不对;你又贴;它再修……
四五轮之后你会发现自己在和一个**越来越自信但越来越偏离正确路径**的对手对话。每一步都看起来在前进,整体却越绕越远。
三个停止信号
我现在会强制自己在以下情况下停下来,不再追问,先离开模型独立思考一会儿:
1. 模型开始重复换皮
同样的逻辑骨架,换了下变量名、调了下参数顺序、补了几行注释,本质没变。这表示它已经在"局部最优"附近震荡了,不会自己跳出去。继续追问只会得到第六个、第七个换皮版本。
2. 你听不懂它的解释了
当它说"问题出在 X 模块的 Y 时序上,所以我们需要在 Z 处加一个 mutex",而你心里没法立刻判断这话对不对——这时候你已经失去了主导权,是它在带你走,不是你在用它。
这不一定是它错。可能它真的对、你不懂;也可能它错得很复杂、你看不出来。但无论哪种,你都不应该让它继续写代码,应该停下来先把背景搞清楚。
3. 你开始用"它说"作为判断依据
"我觉得这个方案行,因为 Claude 也说应该这样做"——一旦你在内部论证里出现这种话,就该警惕了。模型没有在"判断",它在"基于你的描述生成最像答案的输出"。把它的输出作为论证的支点,等于在用一个反射镜证明自己是对的。
停下来之后干嘛
不是"我自己写"。是把问题往上抽一层:
- 这个问题我描述准了吗?
- 是不是其实有更简单的形式?
- 我以为的"应该这样做"是真的应该,还是只是惯性?
- 有没有一个 30 秒就能验证我假设的小实验?
这些问题不能丢给模型——丢给它你只会拿到非常配合的"是的你的描述很好"。这层思考必须自己做。
"AI 让人变笨"是个伪命题,但风险在哪
AI 不会让人变笨。变笨的是把"思考"外包给 AI 的那一部分思考——也就是那种"我先把问题甩给它,看看它怎么说,再决定我怎么想"的反射动作。这个反射动作的形成不需要太久,几个月就够。
对策也很朴素:每隔一段时间,强制自己关掉 AI 写一段代码、调一个 bug、搜一份资料,重新感受一下"自己想"的肌肉。不为了恋旧,纯粹为了维护工具使用的主导权。