从泛化到进化:AI Agent 的下一站

泛化是空间维度的适应能力,进化是时间维度的适应能力

目录:

前几天跟一个做 Agent 平台的朋友聊天,他说了一句让我印象很深的话:“我们花了半年调 prompt,好不容易让 Agent 在电商客服场景跑到了 90 分。结果客户说要扩到金融场景,我们一测——40 分都不到。”

我问他打算怎么办。

他苦笑:“重新调呗。再花半年。”

这个对话浓缩了当前 AI Agent 面临的最核心矛盾:我们造出了能力惊人但本质上是"静态"的系统。它在训练过的分布上表现惊艳,换个分布就翻车;它部署的那一刻就被冻结,遇到新场景只能等人类手动干预、重新训练。

这让我开始思考两个看似不同、实则紧密相连的问题:泛化(Generalization)进化(Evolution)

泛化解决的是"能不能处理未知"——面对从未见过的输入,系统能否给出合理的输出。进化解决的是"能不能变得更好"——随着时间推移和经验积累,系统能否自主改进。

换一种说法:

泛化是空间维度的适应能力,进化是时间维度的适应能力。

一个真正智能的 Agent,不仅要能处理未见过的场景(泛化),还要能从每一次交互中学习、持续变强(进化)。这两个能力缺一不可——只有泛化没有进化,系统永远停在出厂水平;只有进化没有泛化,系统只能在窄轨道上改良,碰到新赛道依然无能为力。

这篇文章,我想把泛化和进化这两条线拉通,聊聊 AI Agent 的下一站到底在哪。


一、泛化能力:AI 的"智商测试"

1.1 什么是泛化?

泛化的定义其实很朴素:模型在未经训练的新数据上表现良好的能力

听起来简单,但这三个字"新数据"的含义极其丰富。它可以是没见过的句子、没见过的图片、没见过的任务类型,甚至是没见过的物理规律。

一个关键的区分是:泛化不是"记住",是"理解"。

如果你问一个模型"法国的首都是什么",它答"巴黎"——这不叫泛化,这叫记忆检索。但如果你给它一段从未见过的法律合同,让它判断其中是否存在不合理条款并给出修改建议——这才考验泛化能力。

用更技术的语言说:泛化是模型从训练数据中提取出可迁移的抽象模式,并将这些模式应用到新情境的能力。

1.2 泛化的几个层次

泛化并非铁板一块,它有着清晰的层次结构:

第一层:分布内泛化(In-Distribution Generalization)

这是最基础的层次。训练集和测试集来自同一个分布,模型只需要在"没见过的同类数据"上表现好。比如,用 MNIST 手写数字训练,在 MNIST 测试集上识别——数据分布一致,只是具体样本不同。

绝大多数传统机器学习的"泛化"指的就是这个层次。它的核心挑战是避免过拟合(overfitting),确保模型学到的是通用模式而非训练集的噪声。

第二层:分布外泛化(Out-of-Distribution, OOD)

这是真正开始考验"智力"的层次。测试数据的分布与训练数据不同——可能是不同的领域、不同的风格、不同的语境。

举个例子:用英文医学论文训练的模型,能否理解中文患者的口语化症状描述?用电商评论训练的情感分析模型,能否判断金融新闻的情绪倾向?

OOD 泛化是当前大模型研究的核心战场之一。GPT-4、Claude、Gemini 等模型在这方面已经展现出远超前代模型的能力,但距离人类水平仍有显著差距。

第三层:推理泛化(Reasoning Generalization)

这是最近两年最大的突破方向。传统 LLM 本质上是"模式匹配"——从训练数据中学到统计关联,然后做插值。推理泛化要求的是逻辑推导——即使训练数据中没有直接的模式可匹配,模型也能通过逻辑链条推导出正确答案。

OpenAI 的 o1/o3 系列、DeepSeek-R1、Claude 的 extended thinking 都是推理泛化的代表性进展。它们通过 Chain-of-Thought(CoT)和强化学习,让模型学会了"分步思考",在数学推理、代码生成、逻辑分析等任务上取得了质的飞跃。

但推理泛化仍然有边界。当前的 reasoning model 在"新颖推理"(novel reasoning)——即需要创造性组合已知概念来解决前所未见问题的能力上,仍然远不如人类。

第四层:跨模态泛化(Cross-Modal Generalization)

从文本到图像、从图像到视频、从语言到动作——跨模态泛化要求模型在一个模态上学到的知识能迁移到另一个模态。

GPT-4o、Gemini 2.5 等多模态模型已经开始展现这种能力。你可以给 GPT-4o 看一张工程图纸的照片,它能理解图中的结构并用文字描述设计意图。但这种跨模态泛化仍然很脆弱——换一种不常见的图表类型,或者涉及到需要物理直觉的场景,模型就容易翻车。

1.3 为什么泛化这么难?

张亚勤院士在 2026 年清华 AGI-Next 论坛上分享过一组数据:

人类大脑,不到3斤重,功耗只有20瓦,拥有860亿个神经元和大约100万亿个突触连接。而人类对大脑工作机制的理解可能不超过10%。

这组数据让人警醒。我们试图用硅基系统匹敌一个我们自己都远未理解的碳基系统。人类婴儿只需要很少的样本就能学会识别"猫"的概念,而且这个概念一旦学会,就能泛化到各种角度、光线、品种的猫——甚至能区分猫和非常像猫的狗。这种 sample efficiency 和泛化能力,当前 AI 远远没有达到。

核心原因在于:当前 AI 的泛化是统计泛化,不是因果泛化

统计泛化依赖相关性——如果训练数据中"天空"和"蓝色"经常共现,模型就学到"天空是蓝色的"。但它不理解为什么天空是蓝色的(瑞利散射),所以当你问它"如果大气层厚度增加一倍,天空会是什么颜色",它就只能猜了。

因果泛化则建立在对底层机制的理解之上。人类知道天空颜色取决于大气散射,所以即使从未见过"双倍大气层"的场景,也能合理推断。

Judea Pearl 和 Yoshua Bengio 等人一直在推动将因果推理引入深度学习,但进展缓慢。因果泛化可能是通往 AGI 最关键、也最困难的一步。

1.4 衡量泛化的困境

另一个棘手的问题是:我们甚至不知道如何正确衡量泛化能力

传统做法是用 benchmark 来评估——MMLU、HumanEval、GSM8K 等等。但这些 benchmark 正在快速失效:

  1. 数据污染(Data Contamination):训练数据可能已经包含了 benchmark 的题目,模型的高分可能只是"背答案"
  2. 过度优化(Overfitting to Benchmarks):模型开发者针对特定 benchmark 调优,导致 benchmark 得分与实际能力脱节
  3. 覆盖面不足:现有 benchmark 大多测试的是"常见"能力,对边缘场景和真正的 OOD 泛化覆盖很少

2026 年,评估范式正在发生转变。Anthropic 发布了内部的 “认知边界测试”(Cognitive Frontier Evaluation),重点关注模型在"知道自己不知道什么"方面的表现,即 calibration 能力。Google DeepMind 则在推动 “内在风险评估”(Intrinsic Risk Assessment),不只看模型能做什么,还看它在哪些场景下会 fail,以及 fail 的方式是否安全可控。

这个方向很重要:衡量泛化不应该只看模型能做什么,还要看它在能力边界处如何表现


二、从泛化到进化:Agent 的范式转移

2.1 传统 Agent 的根本局限

理解了泛化的困境,我们再回到 Agent 的话题。

当前主流的 Agent 架构(无论是 LangChain、AutoGen 还是各种自研框架)有一个共同的根本局限——部署即冻结

  • 提示词(Prompt):手动编写和调优,一旦上线就固定不变
  • 工具(Tools):预先定义好的一组 API,Agent 不能自己发现或创造新工具
  • 工作流(Workflow):硬编码的流程图或状态机,遇到预案外的情况就卡死
  • 模型(Model):权重在训练后冻结,部署期间不再更新
  • 记忆(Memory):要么没有长期记忆,要么只有简单的向量检索,不能主动整理和优化

这意味着:传统 Agent 的能力上限在部署的那一刻就被决定了。它之后的每一次交互,都不会让它变得更好。

这就好比雇了一个员工,给了他一本固定的操作手册,然后告诉他:“永远按照这本手册做事,不许自己改。”

在简单、稳定的场景下,这没问题。但现实世界是复杂且不断变化的——客户需求在变、竞品策略在变、法规政策在变、技术栈在变。一个不能适应变化的 Agent,注定会越来越不好用。

2.2 什么是可进化 Agent(Self-Evolving Agent)

与传统 Agent 相对,可进化 Agent(Self-Evolving Agent)是一种能够自主修改自身的模型参数、记忆结构、工具集合、提示策略和工作流程的 Agent 系统。

它的核心运作机制可以概括为一个循环:

环境反馈 → 自我反思 → 策略修改 → 再次行动 → 效果评估 → 持续改进

关键词是"自主"——不是人类告诉它哪里需要改,而是它自己发现问题、分析原因、提出改进方案并执行。

这不是科幻。2025 年底到 2026 年初,学术界和工业界在这个方向上已经有了实质性的进展。

2.3 六个进化维度

一个完整的可进化 Agent 系统,可以在以下六个维度上实现自我改进:

维度传统 Agent可进化 Agent典型机制
模型权重冻结,不可更新在线微调,持续适应LoRA 在线学习、参数高效微调
记忆被动存储,简单检索主动整理,结构化演化记忆压缩、遗忘机制、知识图谱动态更新
工具预定义,人工注册自主发现、创造、组合动态工具图、API 自动发现、工具合成
提示词人工编写,静态不变根据反馈自动优化DSPy 式自动 prompt 优化、自我反思调整
工作流硬编码,固定路径动态规划,自适应路径元学习规划器、任务图动态生成
学习方式无学习能力从交互中持续学习在线强化学习、经验回放、课程学习

2.4 “Chat 范式"终结,Agent 时代到来

2026 年 3 月清华 AGI-Next 论坛上,一个核心共识正在形成:

AI 的评价标准正在从"能说什么”(What can it say)转向"能做什么"(What can it do)。

这不是修辞上的转变,而是范式级别的转移。

在 Chat 范式下,AI 的价值在于生成文本——写邮件、翻译、问答、写代码。用户输入 prompt,模型输出文本,交互结束。

在 Agent 范式下,AI 的价值在于完成任务——不只是告诉你怎么做,而是直接帮你做。这要求 AI 具备规划、推理、工具使用、环境感知、错误恢复等一整套能力。

而可进化 Agent 则在 Agent 范式上更进一步:它不只是能完成任务,还能在完成任务的过程中变得更善于完成任务


三、可进化 Agent 的技术实现路径

理论说够了,来看看具体怎么实现。

3.1 记忆进化:从被动存储到主动演化

传统 Agent 的记忆通常是一个向量数据库,把对话历史和知识片段 embed 进去,用的时候做相似度检索。这种记忆是被动的、无结构的、不会自我优化的。

SEARL(Self-Evolving Agent with Reinforcement Learning)框架提出了一种根本性不同的思路:让记忆和策略联合进化

SEARL 的核心设计包含三个组件:

  1. 经验记忆池(Experience Memory Pool):存储 Agent 的历史交互记录,但不是简单地全部保存——它有一个"记忆评估器",会根据每条记忆对后续决策的贡献度来决定保留、压缩还是丢弃
  2. 策略网络(Policy Network):基于当前记忆和环境状态做决策。关键在于,策略网络的更新不只依赖环境 reward,还依赖记忆池的状态变化
  3. 动态工具图(Dynamic Tool Graph):工具之间的调用关系不是预先定义的,而是根据历史使用模式动态构建的有向图。Agent 发现某两个工具经常被顺序调用时,会自动创建一个组合工具

这三个组件形成一个正反馈循环:更好的记忆 → 更好的决策 → 更好的经验 → 更好的记忆。

# SEARL 记忆进化的简化伪代码
class EvolvingMemory:
    def __init__(self):
        self.memory_pool = []
        self.memory_evaluator = MemoryEvaluator()
        self.tool_graph = DynamicToolGraph()

    def add_experience(self, experience):
        # 评估新经验的价值
        value = self.memory_evaluator.evaluate(experience)

        if value > self.threshold:
            self.memory_pool.append(experience)
            # 更新工具使用图谱
            self.tool_graph.update(experience.tool_sequence)

        # 定期压缩低价值记忆
        self._compress_low_value_memories()

    def _compress_low_value_memories(self):
        """将多条低价值记忆压缩为高层摘要"""
        low_value = [m for m in self.memory_pool
                     if self.memory_evaluator.current_value(m) < self.compress_threshold]
        if len(low_value) > self.batch_size:
            summary = self.summarizer.compress(low_value)
            self.memory_pool = [m for m in self.memory_pool if m not in low_value]
            self.memory_pool.append(summary)
    # generated by hugo's coding agent

3.2 推理进化:SE-Agent 的三个操作

**SE-Agent(Self-Evolving Agent)**框架提出了三种"推理进化操作",灵感来自生物进化中的突变、交叉和选择:

Revision(修正):Agent 在完成一次推理后,回顾整个推理链,识别其中的逻辑错误或效率低下的步骤,并修正它们。修正后的推理链被存储为"改进模板",下次遇到类似问题时直接使用。

这不同于简单的 self-correction(自我纠错)——self-correction 是在单次推理中检查结果是否正确;而 Revision 是跨任务的,它在多次推理经验中提取出"什么样的推理策略更有效"。

Recombination(重组):从不同任务的成功推理链中提取出通用的推理"片段"(reasoning fragments),然后将它们组合成新的推理策略。

类比一下:一个人学会了"分治法"(从算法课学的)和"控制变量法"(从实验课学的),然后在面对一个新问题时,创造性地将两者结合——先用控制变量法定位问题范围,再用分治法在范围内搜索答案。这就是 Recombination。

Refinement(精炼):对已有的推理策略进行渐进式优化。不改变策略的整体结构,而是调整其中的参数和细节——比如何时该深入细节、何时该跳过步骤、何时该调用外部工具辅助。

Revision:   "我的推理哪里错了?下次怎么避免?"
Recombination: "我能不能把 A 任务和 B 任务的成功经验组合起来?"
Refinement:  "这个策略整体方向对,但细节怎么打磨得更好?"

这三个操作构成了一个完整的推理进化循环。SE-Agent 的实验显示,经过 50 轮进化后,在 WebArena 和 SWE-bench 等 benchmark 上,Agent 的成功率提升了 15-25%,而且提升是持续的、没有饱和迹象。

3.3 技能进化:Memento-Skills 框架

一个很有趣的思路是:不改模型,只改技能库

Memento-Skills 框架将 Agent 的能力分解为一个个可独立管理的"技能"(skill),每个技能本质上是一段包含了目标描述、执行步骤、前置条件、工具调用模板的结构化知识。

当 Agent 成功完成一个新任务时,它会:

  1. 提取技能:从成功经验中抽象出一个可复用的技能模板
  2. 验证技能:在相似场景中测试这个技能,确保它的可靠性
  3. 注册技能:将通过验证的技能加入技能库
  4. 检索技能:下次遇到相关任务时,从技能库中检索最相关的技能

这个设计的优雅之处在于:模型权重完全不需要更新。所有的"进化"都发生在技能库这个外部结构中。这意味着:

  • 进化成本极低(不需要 GPU 算力来做微调)
  • 进化可解释(每个技能都是人类可读的)
  • 进化可回滚(删除一个技能就能撤销一次"学习")
  • 进化可迁移(技能库可以在不同 Agent 实例间共享)

3.4 双过程架构:System 1 + System 2

心理学家 Daniel Kahneman 在《思考,快与慢》中提出了人类认知的双过程理论:

  • System 1:快速、直觉、自动化、低耗能——看到 “2+2” 就自动知道是 4
  • System 2:缓慢、深思熟虑、高耗能——做 “347 × 28” 需要集中注意力一步步算

最新的 Agent 架构开始借鉴这个理论,构建双过程架构

  • System 1 模块:用小型、快速的模型(或缓存的推理模板)处理常见、简单的任务。响应延迟极低,算力消耗很小。
  • System 2 模块:用大型 reasoning model(如 o3、Claude 的 extended thinking)处理复杂、罕见、需要深度推理的任务。慢但准。

关键机制是路由器(Router)——它决定一个任务应该交给 System 1 还是 System 2 处理。路由器本身也是可进化的:它根据历史数据学习"什么样的任务用 System 1 就够了,什么样的任务必须上 System 2"。

进化在这里体现为两个方向:

  1. System 1 的能力扩展:随着 Agent 积累经验,越来越多原本需要 System 2 处理的任务,可以被"编译"为 System 1 的快速响应模板。就像人类学开车——刚开始每个动作都需要集中注意力(System 2),熟练之后变成了自动化操作(System 1)。

  2. 路由器的精度提升:路由器越来越精准地判断任务难度,减少"杀鸡用牛刀"(简单任务交给 System 2)和"力不从心"(复杂任务交给 System 1)的错误。

3.5 递归式自我改进

Elon Musk 多次提到 Recursive Self-Improvement(递归式自我改进)——一个 AI 系统改进自己的能力,改进后的系统又能更好地改进自己,如此循环往复,形成加速进化。

这是一个既令人兴奋又令人不安的概念。

当前的实现仍然是受限的递归自我改进。典型的做法是:

Agent V1 → 执行任务 → 收集反馈 → 生成改进方案 → Agent V2
Agent V2 → 执行任务 → 收集反馈 → 生成改进方案 → Agent V3
...

每一轮改进可能涉及:修改 prompt 模板、调整工具调用策略、优化记忆检索逻辑、更新推理链模板。改进方案由 Agent 自己生成,但通常需要经过一个评估环节(可能是自动化测试,也可能是人类审核)才能被采纳。

关键约束在于评估。如果评估环节本身由 Agent 控制,就可能出现"自己给自己打高分"的问题——Agent 认为某个改进是好的,但实际上引入了新的问题。这就是为什么当前的递归自我改进系统通常会设置人类把关节点(human-in-the-loop checkpoints),在关键的进化步骤中引入人类审核。


四、巨头的实践

理论和框架说了很多,来看看工业界的实际动作。

OpenAI:Self-Evolving Agents Cookbook

2025 年 11 月,OpenAI 在其开发者文档中发布了 Self-Evolving Agents Cookbook,这是一份实操指南,展示了如何构建能够从运行时反馈中持续改进的 Agent 系统。

Cookbook 的核心思路是:

  1. 用 GPT-4o 构建主 Agent,负责执行任务
  2. 用另一个 LLM 实例作为"评判者"(Judge),评估主 Agent 的输出质量
  3. 将评判结果和原始执行记录存入经验数据库
  4. 定期从经验数据库中提取"改进指令",更新主 Agent 的 system prompt

这是一个相对保守但实用的方案——它不改模型权重,只改 prompt。改进的粒度是"指令级别"的:比如 Agent 在金融场景中经常忘记检查合规性,Judge 发现了这个模式后,会在 system prompt 中加入"在生成金融建议前,始终先检查合规要求"。

DeepMind:无需人类训练的 Agent

Google DeepMind 在 2026 年初的一系列论文中展示了更激进的路线:Agent 在部署后完全自主地进化,不需要人类参与训练过程

他们的方法基于"自我对弈"(self-play)的变体:Agent 在模拟环境中自动生成任务,自动执行,自动评估,然后通过在线强化学习更新策略。关键创新是课程自动生成(Automatic Curriculum Generation)——Agent 会自动生成"刚好超过自己当前能力边界"的任务,确保学习效率最大化。

这个方向的挑战在于:模拟环境和真实环境之间的 gap。Agent 在模拟环境中进化得很好,迁移到真实环境时可能会遇到 sim-to-real 的问题。

NVIDIA:持续数据框架

NVIDIA 的路线更偏工程和基础设施。他们发布的 Continuous Data Framework 关注的是:如何让 Agent 系统的训练数据"活起来"——不是一次性采集、一次性训练,而是持续采集、持续清洗、持续标注、持续微调。

框架的核心组件包括:

  • 数据流水线:实时从 Agent 的运行日志中提取高质量训练样本
  • 质量过滤器:自动评估每个样本的训练价值,过滤掉低价值和有害样本
  • 增量微调引擎:支持在不停机的情况下对模型进行轻量级更新
  • A/B 测试框架:自动对比微调前后的模型表现,决定是否采纳更新

这个框架本身不直接实现"进化",但它提供了让进化成为可能的基础设施。

开源社区:EvoScientist 三 Agent 协作

开源社区的创新值得特别关注。EvoScientist 是一个有趣的项目,它用三个 Agent 协作来实现"科学研究的自动化进化":

  1. Explorer Agent:阅读文献、发现研究 gap、生成假说
  2. Experimenter Agent:设计实验、编写代码、运行实验、收集结果
  3. Reviewer Agent:评审实验结果、提出改进建议、判断假说是否成立

三个 Agent 形成一个持续运行的循环。有趣的是,每个 Agent 自身也在进化——Reviewer Agent 会根据历史审稿经验,逐渐学会更精准地识别实验设计中的漏洞;Explorer Agent 则会根据哪些假说最终被验证,调整自己的假说生成策略。

这种"集体进化"——多个 Agent 同时进化,并且进化过程相互影响——是一个非常有前景的方向。


五、风险与挑战

可进化 Agent 听起来很美好,但有一系列严肃的风险和挑战需要正视。

5.1 多 Agent 进化的可扩展性与收敛性

当多个 Agent 同时在进化,它们之间的相互作用会产生复杂的动力学。

可扩展性问题:Agent 数量增加时,进化过程的计算成本呈指数级增长。每个 Agent 的每次进化都可能影响其他 Agent 的行为,需要重新评估整个系统。

收敛性问题:多个 Agent 可能陷入"进化竞赛"——A 改了策略,导致 B 的策略失效,B 被迫也改策略,又导致 A 的策略失效。这种振荡可能永远不会收敛到一个稳定状态。

冗余记忆管理:随着进化进行,Agent 的记忆会不断膨胀。如果不做有效的记忆管理(压缩、遗忘、去重),系统会越来越臃肿,检索效率会持续下降。

5.2 安全与对齐

这可能是最重要的挑战。

防恶意利用:一个能自我改进的 Agent,如果被恶意用户引导,可能会进化出规避安全限制的能力。比如,攻击者通过精心设计的反馈,诱导 Agent 逐步放松内容过滤规则。

进化方向约束:如何确保 Agent 的进化方向与人类的价值观和目标一致?当前的对齐技术(RLHF、Constitutional AI 等)是针对"静态"模型设计的——它们假设模型在训练后不再改变。对于一个持续进化的系统,对齐必须也是持续的。

这就引出了一个新的研究方向:动态对齐(Dynamic Alignment)——不是一次性地对齐模型,而是在模型每次进化后都验证其行为是否仍然符合人类期望。

5.3 伦理:递归自我改进 vs 人类控制权

递归自我改进的终极形态——一个能无限改进自己的 AI 系统——引发了深刻的伦理问题:

控制权问题:如果 Agent 的进化速度超过了人类理解和审核的速度,我们实际上就失去了对它的控制。这不需要"超级智能"才会发生——即使是当前水平的 AI,如果进化速度足够快、进化步骤足够多,人类也可能无法完全理解它经历了什么变化。

可解释性问题:进化后的 Agent,它的决策逻辑是否还是可解释的?如果一个 Agent 经过了 1000 轮自我改进,它的行为模式可能已经变得极其复杂,没有人能完全理解它为什么做出某个决策。

责任归属问题:如果一个自我进化的 Agent 做出了有害的决策,责任在谁?是开发者(设计了进化机制)?是用户(提供了引导进化方向的反馈)?还是 Agent 自身(做出了自主的进化选择)?

我个人的观点是:当前阶段,必须坚持 human-in-the-loop。进化可以自动化,但进化的"方向"和"边界"必须由人类设定和审核。完全放手的递归自我改进,在我们解决对齐问题之前,风险太大。


六、AI 进化的四阶段论

NVIDIA CEO 黄仁勋在多个场合阐述过他对 AI 发展的阶段划分,结合当前的进展,我把它扩展为四个阶段:

第一阶段:感知 AI(Perception AI)

这是 AI 的起步阶段,核心能力是"识别"——图像分类、语音识别、OCR 等。AI 能够感知环境中的信息,但不能生成新内容,也不能自主行动。

代表技术:CNN、RNN、传统 NLP 模型。

第二阶段:生成 AI(Generative AI)

当前我们正在经历的阶段。AI 不只能识别,还能创造——生成文本、图像、代码、音乐、视频。LLM 是这个阶段的核心驱动力。

代表技术:GPT 系列、Claude 系列、Stable Diffusion、Sora。

第三阶段:Agent AI(Agentic AI)

正在到来的阶段。AI 从"对话工具"升级为"行动主体"——能够理解目标、制定计划、使用工具、执行操作、从反馈中学习。可进化 Agent 是这个阶段的高级形态。

代表技术:Claude Code、Devin、OpenAI Operator、各类 Agent 框架。

第四阶段:物理 AI(Physical AI)

下一个前沿。AI 不再只存在于数字世界,而是进入物理世界——自动驾驶汽车、工业机器人、人形机器人。这要求 AI 具备对物理规律的深度理解和实时的环境交互能力。

代表技术:Tesla Optimus、Figure 02、NVIDIA Isaac Sim。

这四个阶段不是简单的替代关系,而是层层叠加——每一个新阶段都建立在前一阶段的能力之上。

而"泛化"和"进化"这两条线,贯穿了所有四个阶段。无论是感知 AI 还是物理 AI,都需要泛化(处理未知情况)和进化(持续变好)。只不过,越往后的阶段,对泛化和进化的要求越高:

  • 感知 AI 需要在分布内泛化
  • 生成 AI 需要 OOD 泛化
  • Agent AI 需要推理泛化 + 工具/工作流进化
  • 物理 AI 需要跨模态泛化 + 物理世界中的实时进化

七、结语

回到文章开头那个做 Agent 平台的朋友。

他的困境——在一个场景调好、换个场景就废——本质上是泛化和进化双重不足的结果。不够泛化,所以换场景就不行;不能进化,所以只能人工重来。

泛化是起点,进化是方向。

泛化让 Agent 有能力应对"第一次遇到的问题",进化让 Agent 有能力把"第一次遇到"变成"驾轻就熟"。一个理想的 Agent,应该像一个优秀的员工——入职时有基本的专业素养(泛化),工作后能从每一次任务中学习成长(进化),遇到新领域能快速适应(泛化 × 进化),时间越长越值钱。

但最后,必须诚实面对一个终极问题:

当 Agent 能够自我进化时,人类与 AI 的边界在哪里?

我没有答案。但我认为思考这个问题的正确方式不是"人类 vs AI"的零和博弈,而是共同进化——AI 在进化,人类也在进化(借助 AI 工具的人类,能力边界也在扩展)。关键不在于谁更强,而在于进化的方向是否对齐

如果我们能确保 AI 的进化方向与人类的福祉一致,那么 AI 的每一次进化,都是人类的一次进化。

如果不能,那就是另一个故事了。


参考资料:

  • Kahneman, D. Thinking, Fast and Slow. 2011.
  • Pearl, J. The Book of Why. 2018.
  • OpenAI. Self-Evolving Agents Cookbook. 2025.
  • 清华大学. AGI-Next 论坛. 2026.
  • 张亚勤. “人脑与AI的对比”. AGI-Next 演讲. 2026.
  • NVIDIA. Continuous Data Framework for AI Agents. 2026.
  • EvoScientist Project. GitHub. 2025-2026.

See also