返回文章列表
AIAgentHarness

Agent Harness

2026年04月01日|4 分钟阅读

人和 Agent 的根本差异

人是经过自然选择而存在的。

这句话听起来像废话,但它指向一个被忽视的事实:自然选择赋予了人类一整套"对自己存在负责"的机制。你饿了会找食物,危险时会逃跑,犯错后会调整。这些不需要外部系统赋予,是几十亿年进化刻进基因的东西。

Agent 没有经过自然选择。它没有生存本能,没有内在的纠偏机制,没有"对不对"的内在标准。它不会因为跑偏而感到不安,不会因为输出垃圾而"饿死"。

这不是能力问题,是存在论层面的差异。

两条路径

要发挥好 agent 的能力,逻辑上有两条路。

路径一:让 agent 自己经历自然选择。 像人类一样,通过选择压力发展出自主性,成为对自己存在负责的独立个体。

路径二:让 agent 运行在人类之上。 Agent 是上层应用,人类是操作系统。就像细胞不需要独立意识,因为它在人体这个系统里被协调。Agent 不需要对自己的存在负责,因为人类替它负责了。

路径一走得通吗

有人在尝试。Sakana AI 的 Darwin Godel Machine 让 agent 通过进化重写自己的代码。Google DeepMind 的 AlphaEvolve 用种群进化搜索发现新算法。学术界有不少关于 agent 种群共同进化的研究。

但仔细看,这些"自然选择"里的选择压力来自哪里?SWE-bench 分数、数学题正确率、人类定义的 fitness function。

这不是自然选择,这是人工育种。

真正的自然选择,选择压力来自存在本身 — 你适应不了就死了,没有人在旁边打分。而这些项目里,agent 不是因为"活不下去"而进化,是因为人类说"这个分数不够高"。

育种能出好品种,但出不了新物种。

Harness 的定位

这就给 harness 划了一条清晰的边界。

Harness 是路径二的工程实现 — 人类替 agent 对其存在负责的那套基础设施。它管理 agent 的上下文、约束 agent 的行为、提供反馈回路、编码人类的判断。

但如果你试图用 harness 来实现路径一 — 用 harness 让 agent "自主进化" — 这必然失败。因为 harness 的存在本身就意味着自主性被外包给了人类。进化的方向、评判标准、生存条件全是人类预设的。这还是人工育种,不管你套了多少层自动化。

Harness 能让 agent 在人类定义的范围内越来越强,但不能让 agent 成为对自己存在负责的独立个体。

Human in the Loop 是结构性必须

既然走路径二,human in the loop 就不是权宜之计,而是结构性要求。

Agent 自己总是容易跑偏。这不是 bug,是本质特征 — 没有经过自然选择,就没有内在的纠偏机制。你不可能通过更好的 prompt、更长的 context、更强的模型来根治它。

Human in the loop 提供两个层次的东西:

  • 宏观上,存在性的保障。 目标、意义、对错的最终来源。Agent 不知道自己该往哪走,人类知道。
  • 微观上,验证。 确认 agent 的输出是否符合预期,在它跑偏时把它拉回来。

那 human in the loop 应该是什么频率?取决于验证的成本和错误的代价。代价低、可逆的事,验证可以稀疏。代价高、不可逆的事,每一步都要人确认。

所以 harness 的设计目标不是"如何让 agent 更自主",而是"如何让 human-agent 的验证循环更高效" — 让人介入的成本更低、速度更快、判断更准。

为什么叫 Harness

Harness 这个名字很合适。

马再强壮,没有马鞍和缰绳,骑手就没法驾驭。Harness 不是限制马的能力,是让骑手能持续、高效地控制方向。

而且这个比喻天然包含了核心论点 — 马不会自己决定去哪,方向感来自骑手。

2024 年是 prompt engineering,2025 年是 context engineering,2026 年是 harness engineering。趋势很清楚:大家终于意识到,竞争优势不在模型本身,而在模型外面那套让人类能驾驭模型的系统。

放弃让 agent 完全独立。承认它需要你。然后把精力花在如何更高效地驾驭它上。

DISCUSSIONS

评论

使用 GitHub 账号参与讨论,评论将同步到 GitHub Discussions。