最近一段时间,AI Agent 被描述为“可以接管一切”的存在。

写代码、跑项目、自动执行复杂流程,甚至有人认为它已经可以替代工程师。

但在实际使用之后,我的感受恰恰相反:

Agent 很强,但它的边界,同样非常清晰。


一、上下文窗口 ≠ 记忆

很多人会提到:

“现在模型已经支持 200k 上下文,甚至更高”

但这其实是一个误解。

上下文窗口,只是当前推理时可见的信息范围
而不是“记忆”。

当信息超出当前窗口:

  • 要么被丢弃
  • 要么被压缩
  • 要么被检索拼接

无论哪种方式,本质都是:

重建,而不是持有。


二、中断,不是修正,而是重构

在使用 Agent 时,我发现一个非常关键的问题:

👉 它无法被中途稳定纠正。

当你发现它执行方向有偏差时,你只能:

  • 让它继续执行
  • 或者中断,然后补充信息

但问题在于:

中断之后,它会重新理解整个上下文。

这意味着:

  • 新信息加入
  • 语义权重重新分布
  • 原本正确的部分,也可能被重新解释

最终结果是:

你不是在修正一个系统,而是在“重建一个系统”。


三、流程越长,漂移越严重

Agent 在短任务中表现很好,但在长流程中会出现一个明显现象:

语义漂移(drift)

表现为:

  • 初期步骤是正确的
  • 中期开始出现轻微偏差
  • 后期逐渐偏离原目标
  • 最终进入循环或无效执行

如果你让一个 Agent 持续运行数小时甚至更长时间,

你会发现:

它消耗了大量 tokens,但结果并没有收敛。


四、问题的本质:结构无法持久化

这些问题的根源,并不是“模型不够聪明”,而是:

结构无法被稳定承载。

当前 Agent 的“记忆”本质上是:

  • 检索
  • 拼接
  • 临时上下文

而不是:

  • 不变量
  • 约束系统
  • 演化结构

五、为什么这很重要?

因为复杂系统的本质不是“完成任务”,而是:

在变化中保持结构稳定。

一个系统可以允许局部错误,
但不能失去结构一致性。


六、结论

所以一个更现实的判断是:

  • Agent 很适合任务
  • 但不适合系统

除非有一天,AI 可以做到:

结构本身被持久化,而不是依赖人类维护


否则:

工程的结构主权,仍然在人类手中。