Agent Harness
人和 Agent 的根本差异
人是经过自然选择而存在的。
这句话听起来像废话,但它指向一个被忽视的事实:自然选择赋予了人类一整套"对自己存在负责"的机制。你饿了会找食物,危险时会逃跑,犯错后会调整。这些不需要外部系统赋予,是几十亿年进化刻进基因的东西。
Agent 没有经过自然选择。它没有生存本能,没有内在的纠偏机制,没有"对不对"的内在标准。它不会因为跑偏而感到不安,不会因为输出垃圾而"饿死"。
这不是能力问题,是存在论层面的差异。
两条路径
要发挥好 agent 的能力,逻辑上有两条路。
路径一:让 agent 自己经历自然选择。 像人类一样,通过选择压力发展出自主性,成为对自己存在负责的独立个体。
路径二:让 agent 运行在人类之上。 Agent 是上层应用,人类是操作系统。就像细胞不需要独立意识,因为它在人体这个系统里被协调。Agent 不需要对自己的存在负责,因为人类替它负责了。
路径一走得通吗
有人在尝试。Sakana AI 的 Darwin Godel Machine 让 agent 通过进化重写自己的代码。Google DeepMind 的 AlphaEvolve 用种群进化搜索发现新算法。学术界有不少关于 agent 种群共同进化的研究。
但仔细看,这些"自然选择"里的选择压力来自哪里?SWE-bench 分数、数学题正确率、人类定义的 fitness function。
这不是自然选择,这是人工育种。
真正的自然选择,选择压力来自存在本身 — 你适应不了就死了,没有人在旁边打分。而这些项目里,agent 不是因为"活不下去"而进化,是因为人类说"这个分数不够高"。
育种能出好品种,但出不了新物种。
Harness 的定位
这就给 harness 划了一条清晰的边界。
Harness 是路径二的工程实现 — 人类替 agent 对其存在负责的那套基础设施。它管理 agent 的上下文、约束 agent 的行为、提供反馈回路、编码人类的判断。
但如果你试图用 harness 来实现路径一 — 用 harness 让 agent "自主进化" — 这必然失败。因为 harness 的存在本身就意味着自主性被外包给了人类。进化的方向、评判标准、生存条件全是人类预设的。这还是人工育种,不管你套了多少层自动化。
Harness 能让 agent 在人类定义的范围内越来越强,但不能让 agent 成为对自己存在负责的独立个体。
Human in the Loop 是结构性必须
既然走路径二,human in the loop 就不是权宜之计,而是结构性要求。
Agent 自己总是容易跑偏。这不是 bug,是本质特征 — 没有经过自然选择,就没有内在的纠偏机制。你不可能通过更好的 prompt、更长的 context、更强的模型来根治它。
Human in the loop 提供两个层次的东西:
- 宏观上,存在性的保障。 目标、意义、对错的最终来源。Agent 不知道自己该往哪走,人类知道。
- 微观上,验证。 确认 agent 的输出是否符合预期,在它跑偏时把它拉回来。
那 human in the loop 应该是什么频率?取决于验证的成本和错误的代价。代价低、可逆的事,验证可以稀疏。代价高、不可逆的事,每一步都要人确认。
所以 harness 的设计目标不是"如何让 agent 更自主",而是"如何让 human-agent 的验证循环更高效" — 让人介入的成本更低、速度更快、判断更准。
为什么叫 Harness
Harness 这个名字很合适。
马再强壮,没有马鞍和缰绳,骑手就没法驾驭。Harness 不是限制马的能力,是让骑手能持续、高效地控制方向。
而且这个比喻天然包含了核心论点 — 马不会自己决定去哪,方向感来自骑手。
2024 年是 prompt engineering,2025 年是 context engineering,2026 年是 harness engineering。趋势很清楚:大家终于意识到,竞争优势不在模型本身,而在模型外面那套让人类能驾驭模型的系统。
放弃让 agent 完全独立。承认它需要你。然后把精力花在如何更高效地驾驭它上。
DISCUSSIONS
评论
使用 GitHub 账号参与讨论,评论将同步到 GitHub Discussions。