暗无天日

=============>DarkSun的个人博客

AI 越强越需要你盯着——反馈循环实操指南

原文:OpenClaw之父:AI越强越辣鸡?人类审美与反馈循环才是核心控制系统

一个反直觉的事实

Peter Steinberger(OpenClaw 的创造者)说了一句扎心的话:你可以让 AI 一整晚疯狂写代码,CPU 跑得滚烫,第二天早上醒来一看,得到的是一坨终极版的流水垃圾。

原因很简单:AI 到目前为止还没有"审美"这个东西。

很多人以为 AI 输出差是因为它还不够聪明。但真相恰恰相反——AI 已经够聪明了,聪明到它能在错误的道路上跑得飞快,然后把一堆结构完整但灵魂空洞的东西堆到你面前。这种"高质量垃圾"比低质量垃圾更可怕,因为它看起来好像是对的,让你一开始很难发现问题。

AI 本质上是一个超级听话的执行器。它没有内置的审美闭环,没有长期的价值判断系统。它唯一能做的,就是拼命放大你输入的方向。输入模糊,它放大模糊;输入混乱,它放大混乱。

为什么 AI 会制造"高级垃圾"

Peter 用了一个很形象的词来形容 AI: spiky smart ——浑身是刺的聪明。

AI 在某些点上极度聪明,可以写出一个优雅到让人想哭的函数。但与此同时,它可能在整体架构上犯一个连初级程序员都不会犯的基础错误。这种"局部极强,整体不稳"的结构会制造一个诡异的结果:每个碎片都让你觉得不错,但拼在一起就像精神分裂——哪里都不对劲。

背后的原因是 AI 缺乏全局目标约束。它不会主动停下来问自己:我现在做的事情,是不是在逼近一个更好的最终结果?它只是在机械地响应你当前输入的每一个字,尽可能把当前这一步做得漂亮。

一旦你作为人类没有给出清晰的方向引导,AI 就会进入"局部最优循环"——每一步都做到了当前条件下的最好,但这些局部最好的步骤叠加在一起,整体方向越来越偏,最后彻底跑题。第一轮偏差一点你不纠正,第二轮 AI 就在偏差的基础上继续优化。三四轮之后,你得到一个结构极其精致、逻辑极其严密、但主题完全错误的庞然大物。

反馈循环的五步法

Peter 揭示了一个关键原则: 下一个 prompt 取决于你当前看到了什么、感受到了什么、思考了什么

这句话定义了真正有效的人机协作方式。把它拆解成五个连续的动作:

第一步:生成

写一个足够启动的 prompt,让 AI 先动起来。不要试图写一个完美的 prompt——这世界上不存在完美的 prompt。你只需要一个能跑起来的、大概差不多的版本。它的作用不是直接拿去用,而是给你一个初始结果来观察。

第二步:观察

拿到初始结果之后,认真看。不是扫一眼,是认认真真地看。找问题,找漏洞,找不对劲的地方。这一步是整个系统的心脏,你不能跳过它,不能敷衍它。

第三步:判断

决定这个结果里哪些部分是对的,哪些是错的,哪些需要保留,哪些需要扔掉。这就是 Peter 说的 taste ——不是"你喜欢红色还是蓝色"这种个人偏好,而是面对一堆代码、一篇文章、一个设计方案时,你能不能立刻判断出哪个结构更合理、哪个方向更正确。

第四步:调整

基于你的判断,修改你的 prompt。发现了什么问题,就针对那个问题去改。不要一次改十个问题,一次只改一个最关键的。然后让 AI 再生成下一轮结果。

第五步:再生成

让 AI 根据新的 prompt 输出下一个版本。然后回到第二步,重新开始观察。

这五个动作连在一起形成一个循环。每一次循环,你都在让结果变得更好一点。AI 扮演的角色是"超级快速试错器",你扮演的角色是"方向判断器"。

很多人只用了一次"生成"就结束了。写了一版 prompt,AI 给了一版结果,看了一眼觉得还行就收工。他们没有进入循环,只走了第一步就以为到了终点。

两个致命陷阱

陷阱一:Prompt 迷信

整个 AI 圈蔓延着一种迷信:只要把需求写得足够详细、足够全面,AI 就能一次性给完美结果。

这个想法从根本上误解了创造的本质。创造不是一个从完整输入到完美输出的线性过程,而是一个从模糊到清晰的演化过程。你不可能跳过演化本身,直接拿到最终结果。

当你试图一次性描述所有需求时,你在做一个危险的假设:你假设自己已经百分之百理解了目标。但绝大多数复杂项目在刚开始的时候,你自己都是一头雾水。你写下的每一条"要求",其实都是拍脑袋想出来的未经检验的猜测。AI 不会告诉你猜测是错的,它只会把这些猜测当成圣旨,以最高效率执行一个错误的指令。

真正的解法不是写更长的 prompt,而是换一种工作方式——把 AI 当成可以反复对话、反复调整的协作伙伴。

陷阱二:代理陷阱(Agentic Trap)

Peter 提出了 agentic trap 的概念:你在过程还没有稳定的时候,就把控制权彻底交给了 AI。

一开始你还参与一下,写写 prompt,看看结果,然后觉得差不多了就让 AI 自己跑完剩下的所有工作。这看起来是在节省时间,本质上是在主动放弃方向控制权。

问题在复杂项目里尤其明显。前期只要稍微偏一点点——偏了一度角——后期跑出去一公里之后,你就偏出去几十米了。AI 不会停下来问"这样对吗",它会继续沿着错误的路狂奔,跑得比你还快。等你终于发现问题的时候,AI 已经生成了上千个文件、几万行代码、几十个相互依赖的模块。想回头修正最初的小偏差,需要推翻一大半已经完成的工作。

关键问题从来不是"用不用 agent",而是"什么时候放手"。在系统的目标和路径还没有完全清晰之前,你一步都不能离开驾驶座。

你的核心角色

整个讨论最终落在一个词上: taste

这不是"审美"两个字能概括的。它是一种综合判断力——在复杂情境下分辨好坏对错的能力。面对一堆代码,你能不能立刻判断出哪个结构更合理;面对一篇文章,你能不能感知到哪个表达更清晰;面对一个方案,你能不能识别出哪个方向更正确。

AI 目前完全没有这种能力。它可以学习海量数据,模仿所有已知模式,但它不知道什么是"好",只知道什么是"常见"。常见不等于好,多数人认同不等于正确。

所以 AI 永远需要一个外部的评估系统来给它提供判断标准。这个外部系统就是你。你必须成为那个说"这个不行,那个可以"的人。一旦你失去了主动判断的能力和习惯,AI 再强也没有任何意义——因为你已经无法区分好坏了。

AI 放大能力,人类决定方向。两者结合成一个不断运转的循环系统:不断生成,不断判断,不断调整。这个过程本身就是你作为创造者的核心工作。

无主之地 : AI : 反馈循环 : prompt工程 : 人机协作