← leozhang's notes

什么时候应该停止追问 AI

2026-04-22

用得越多,越发现 AI coding 真正的成本不在 token 费,而在你愿意为一个错误方向投入多少轮对话

典型的失败模式是这样的:你抛出一个问题,模型给了一份实现;你跑了一下不太对,把错误贴回去;它说"哦我修一下",再来一版;还是不对;你又贴;它再修……

四五轮之后你会发现自己在和一个**越来越自信但越来越偏离正确路径**的对手对话。每一步都看起来在前进,整体却越绕越远。

三个停止信号

我现在会强制自己在以下情况下停下来,不再追问,先离开模型独立思考一会儿:

1. 模型开始重复换皮

同样的逻辑骨架,换了下变量名、调了下参数顺序、补了几行注释,本质没变。这表示它已经在"局部最优"附近震荡了,不会自己跳出去。继续追问只会得到第六个、第七个换皮版本。

2. 你听不懂它的解释了

当它说"问题出在 X 模块的 Y 时序上,所以我们需要在 Z 处加一个 mutex",而你心里没法立刻判断这话对不对——这时候你已经失去了主导权,是它在带你走,不是你在用它。

这不一定是它错。可能它真的对、你不懂;也可能它错得很复杂、你看不出来。但无论哪种,你都不应该让它继续写代码,应该停下来先把背景搞清楚。

3. 你开始用"它说"作为判断依据

"我觉得这个方案行,因为 Claude 也说应该这样做"——一旦你在内部论证里出现这种话,就该警惕了。模型没有在"判断",它在"基于你的描述生成最像答案的输出"。把它的输出作为论证的支点,等于在用一个反射镜证明自己是对的。

停下来之后干嘛

不是"我自己写"。是把问题往上抽一层

这些问题不能丢给模型——丢给它你只会拿到非常配合的"是的你的描述很好"。这层思考必须自己做。

"AI 让人变笨"是个伪命题,但风险在哪

AI 不会让人变笨。变笨的是把"思考"外包给 AI 的那一部分思考——也就是那种"我先把问题甩给它,看看它怎么说,再决定我怎么想"的反射动作。这个反射动作的形成不需要太久,几个月就够。

对策也很朴素:每隔一段时间,强制自己关掉 AI 写一段代码、调一个 bug、搜一份资料,重新感受一下"自己想"的肌肉。不为了恋旧,纯粹为了维护工具使用的主导权。