目录:
前几天跟一个做 Agent 平台的朋友聊天,他说了一句让我印象很深的话:“我们花了半年调 prompt,好不容易让 Agent 在电商客服场景跑到了 90 分。结果客户说要扩到金融场景,我们一测——40 分都不到。”
我问他打算怎么办。
他苦笑:“重新调呗。再花半年。”
这个对话浓缩了当前 AI Agent 面临的最核心矛盾:我们造出了能力惊人但本质上是"静态"的系统。它在训练过的分布上表现惊艳,换个分布就翻车;它部署的那一刻就被冻结,遇到新场景只能等人类手动干预、重新训练。
这让我开始思考两个看似不同、实则紧密相连的问题:泛化(Generalization) 和 进化(Evolution)。
泛化解决的是"能不能处理未知"——面对从未见过的输入,系统能否给出合理的输出。进化解决的是"能不能变得更好"——随着时间推移和经验积累,系统能否自主改进。
换一种说法:
泛化是空间维度的适应能力,进化是时间维度的适应能力。
一个真正智能的 Agent,不仅要能处理未见过的场景(泛化),还要能从每一次交互中学习、持续变强(进化)。这两个能力缺一不可——只有泛化没有进化,系统永远停在出厂水平;只有进化没有泛化,系统只能在窄轨道上改良,碰到新赛道依然无能为力。
这篇文章,我想把泛化和进化这两条线拉通,聊聊 AI Agent 的下一站到底在哪。
一、泛化能力:AI 的"智商测试"
1.1 什么是泛化?
泛化的定义其实很朴素:模型在未经训练的新数据上表现良好的能力。
听起来简单,但这三个字"新数据"的含义极其丰富。它可以是没见过的句子、没见过的图片、没见过的任务类型,甚至是没见过的物理规律。
一个关键的区分是:泛化不是"记住",是"理解"。
如果你问一个模型"法国的首都是什么",它答"巴黎"——这不叫泛化,这叫记忆检索。但如果你给它一段从未见过的法律合同,让它判断其中是否存在不合理条款并给出修改建议——这才考验泛化能力。
用更技术的语言说:泛化是模型从训练数据中提取出可迁移的抽象模式,并将这些模式应用到新情境的能力。
1.2 泛化的几个层次
泛化并非铁板一块,它有着清晰的层次结构:
第一层:分布内泛化(In-Distribution Generalization)
这是最基础的层次。训练集和测试集来自同一个分布,模型只需要在"没见过的同类数据"上表现好。比如,用 MNIST 手写数字训练,在 MNIST 测试集上识别——数据分布一致,只是具体样本不同。
绝大多数传统机器学习的"泛化"指的就是这个层次。它的核心挑战是避免过拟合(overfitting),确保模型学到的是通用模式而非训练集的噪声。
第二层:分布外泛化(Out-of-Distribution, OOD)
这是真正开始考验"智力"的层次。测试数据的分布与训练数据不同——可能是不同的领域、不同的风格、不同的语境。
举个例子:用英文医学论文训练的模型,能否理解中文患者的口语化症状描述?用电商评论训练的情感分析模型,能否判断金融新闻的情绪倾向?
OOD 泛化是当前大模型研究的核心战场之一。GPT-4、Claude、Gemini 等模型在这方面已经展现出远超前代模型的能力,但距离人类水平仍有显著差距。
第三层:推理泛化(Reasoning Generalization)
这是最近两年最大的突破方向。传统 LLM 本质上是"模式匹配"——从训练数据中学到统计关联,然后做插值。推理泛化要求的是逻辑推导——即使训练数据中没有直接的模式可匹配,模型也能通过逻辑链条推导出正确答案。
OpenAI 的 o1/o3 系列、DeepSeek-R1、Claude 的 extended thinking 都是推理泛化的代表性进展。它们通过 Chain-of-Thought(CoT)和强化学习,让模型学会了"分步思考",在数学推理、代码生成、逻辑分析等任务上取得了质的飞跃。
但推理泛化仍然有边界。当前的 reasoning model 在"新颖推理"(novel reasoning)——即需要创造性组合已知概念来解决前所未见问题的能力上,仍然远不如人类。
第四层:跨模态泛化(Cross-Modal Generalization)
从文本到图像、从图像到视频、从语言到动作——跨模态泛化要求模型在一个模态上学到的知识能迁移到另一个模态。
GPT-4o、Gemini 2.5 等多模态模型已经开始展现这种能力。你可以给 GPT-4o 看一张工程图纸的照片,它能理解图中的结构并用文字描述设计意图。但这种跨模态泛化仍然很脆弱——换一种不常见的图表类型,或者涉及到需要物理直觉的场景,模型就容易翻车。
1.3 为什么泛化这么难?
张亚勤院士在 2026 年清华 AGI-Next 论坛上分享过一组数据:
人类大脑,不到3斤重,功耗只有20瓦,拥有860亿个神经元和大约100万亿个突触连接。而人类对大脑工作机制的理解可能不超过10%。
这组数据让人警醒。我们试图用硅基系统匹敌一个我们自己都远未理解的碳基系统。人类婴儿只需要很少的样本就能学会识别"猫"的概念,而且这个概念一旦学会,就能泛化到各种角度、光线、品种的猫——甚至能区分猫和非常像猫的狗。这种 sample efficiency 和泛化能力,当前 AI 远远没有达到。
核心原因在于:当前 AI 的泛化是统计泛化,不是因果泛化。
统计泛化依赖相关性——如果训练数据中"天空"和"蓝色"经常共现,模型就学到"天空是蓝色的"。但它不理解为什么天空是蓝色的(瑞利散射),所以当你问它"如果大气层厚度增加一倍,天空会是什么颜色",它就只能猜了。
因果泛化则建立在对底层机制的理解之上。人类知道天空颜色取决于大气散射,所以即使从未见过"双倍大气层"的场景,也能合理推断。
Judea Pearl 和 Yoshua Bengio 等人一直在推动将因果推理引入深度学习,但进展缓慢。因果泛化可能是通往 AGI 最关键、也最困难的一步。
1.4 衡量泛化的困境
另一个棘手的问题是:我们甚至不知道如何正确衡量泛化能力。
传统做法是用 benchmark 来评估——MMLU、HumanEval、GSM8K 等等。但这些 benchmark 正在快速失效:
- 数据污染(Data Contamination):训练数据可能已经包含了 benchmark 的题目,模型的高分可能只是"背答案"
- 过度优化(Overfitting to Benchmarks):模型开发者针对特定 benchmark 调优,导致 benchmark 得分与实际能力脱节
- 覆盖面不足:现有 benchmark 大多测试的是"常见"能力,对边缘场景和真正的 OOD 泛化覆盖很少
2026 年,评估范式正在发生转变。Anthropic 发布了内部的 “认知边界测试”(Cognitive Frontier Evaluation),重点关注模型在"知道自己不知道什么"方面的表现,即 calibration 能力。Google DeepMind 则在推动 “内在风险评估”(Intrinsic Risk Assessment),不只看模型能做什么,还看它在哪些场景下会 fail,以及 fail 的方式是否安全可控。
这个方向很重要:衡量泛化不应该只看模型能做什么,还要看它在能力边界处如何表现。
二、从泛化到进化:Agent 的范式转移
2.1 传统 Agent 的根本局限
理解了泛化的困境,我们再回到 Agent 的话题。
当前主流的 Agent 架构(无论是 LangChain、AutoGen 还是各种自研框架)有一个共同的根本局限——部署即冻结:
- 提示词(Prompt):手动编写和调优,一旦上线就固定不变
- 工具(Tools):预先定义好的一组 API,Agent 不能自己发现或创造新工具
- 工作流(Workflow):硬编码的流程图或状态机,遇到预案外的情况就卡死
- 模型(Model):权重在训练后冻结,部署期间不再更新
- 记忆(Memory):要么没有长期记忆,要么只有简单的向量检索,不能主动整理和优化
这意味着:传统 Agent 的能力上限在部署的那一刻就被决定了。它之后的每一次交互,都不会让它变得更好。
这就好比雇了一个员工,给了他一本固定的操作手册,然后告诉他:“永远按照这本手册做事,不许自己改。”
在简单、稳定的场景下,这没问题。但现实世界是复杂且不断变化的——客户需求在变、竞品策略在变、法规政策在变、技术栈在变。一个不能适应变化的 Agent,注定会越来越不好用。
2.2 什么是可进化 Agent(Self-Evolving Agent)
与传统 Agent 相对,可进化 Agent(Self-Evolving Agent)是一种能够自主修改自身的模型参数、记忆结构、工具集合、提示策略和工作流程的 Agent 系统。
它的核心运作机制可以概括为一个循环:
环境反馈 → 自我反思 → 策略修改 → 再次行动 → 效果评估 → 持续改进
关键词是"自主"——不是人类告诉它哪里需要改,而是它自己发现问题、分析原因、提出改进方案并执行。
这不是科幻。2025 年底到 2026 年初,学术界和工业界在这个方向上已经有了实质性的进展。
2.3 六个进化维度
一个完整的可进化 Agent 系统,可以在以下六个维度上实现自我改进:
| 维度 | 传统 Agent | 可进化 Agent | 典型机制 |
|---|---|---|---|
| 模型 | 权重冻结,不可更新 | 在线微调,持续适应 | LoRA 在线学习、参数高效微调 |
| 记忆 | 被动存储,简单检索 | 主动整理,结构化演化 | 记忆压缩、遗忘机制、知识图谱动态更新 |
| 工具 | 预定义,人工注册 | 自主发现、创造、组合 | 动态工具图、API 自动发现、工具合成 |
| 提示词 | 人工编写,静态不变 | 根据反馈自动优化 | DSPy 式自动 prompt 优化、自我反思调整 |
| 工作流 | 硬编码,固定路径 | 动态规划,自适应路径 | 元学习规划器、任务图动态生成 |
| 学习方式 | 无学习能力 | 从交互中持续学习 | 在线强化学习、经验回放、课程学习 |
2.4 “Chat 范式"终结,Agent 时代到来
2026 年 3 月清华 AGI-Next 论坛上,一个核心共识正在形成:
AI 的评价标准正在从"能说什么”(What can it say)转向"能做什么"(What can it do)。
这不是修辞上的转变,而是范式级别的转移。
在 Chat 范式下,AI 的价值在于生成文本——写邮件、翻译、问答、写代码。用户输入 prompt,模型输出文本,交互结束。
在 Agent 范式下,AI 的价值在于完成任务——不只是告诉你怎么做,而是直接帮你做。这要求 AI 具备规划、推理、工具使用、环境感知、错误恢复等一整套能力。
而可进化 Agent 则在 Agent 范式上更进一步:它不只是能完成任务,还能在完成任务的过程中变得更善于完成任务。
三、可进化 Agent 的技术实现路径
理论说够了,来看看具体怎么实现。
3.1 记忆进化:从被动存储到主动演化
传统 Agent 的记忆通常是一个向量数据库,把对话历史和知识片段 embed 进去,用的时候做相似度检索。这种记忆是被动的、无结构的、不会自我优化的。
SEARL(Self-Evolving Agent with Reinforcement Learning)框架提出了一种根本性不同的思路:让记忆和策略联合进化。
SEARL 的核心设计包含三个组件:
- 经验记忆池(Experience Memory Pool):存储 Agent 的历史交互记录,但不是简单地全部保存——它有一个"记忆评估器",会根据每条记忆对后续决策的贡献度来决定保留、压缩还是丢弃
- 策略网络(Policy Network):基于当前记忆和环境状态做决策。关键在于,策略网络的更新不只依赖环境 reward,还依赖记忆池的状态变化
- 动态工具图(Dynamic Tool Graph):工具之间的调用关系不是预先定义的,而是根据历史使用模式动态构建的有向图。Agent 发现某两个工具经常被顺序调用时,会自动创建一个组合工具
这三个组件形成一个正反馈循环:更好的记忆 → 更好的决策 → 更好的经验 → 更好的记忆。
# SEARL 记忆进化的简化伪代码
class EvolvingMemory:
def __init__(self):
self.memory_pool = []
self.memory_evaluator = MemoryEvaluator()
self.tool_graph = DynamicToolGraph()
def add_experience(self, experience):
# 评估新经验的价值
value = self.memory_evaluator.evaluate(experience)
if value > self.threshold:
self.memory_pool.append(experience)
# 更新工具使用图谱
self.tool_graph.update(experience.tool_sequence)
# 定期压缩低价值记忆
self._compress_low_value_memories()
def _compress_low_value_memories(self):
"""将多条低价值记忆压缩为高层摘要"""
low_value = [m for m in self.memory_pool
if self.memory_evaluator.current_value(m) < self.compress_threshold]
if len(low_value) > self.batch_size:
summary = self.summarizer.compress(low_value)
self.memory_pool = [m for m in self.memory_pool if m not in low_value]
self.memory_pool.append(summary)
# generated by hugo's coding agent
3.2 推理进化:SE-Agent 的三个操作
**SE-Agent(Self-Evolving Agent)**框架提出了三种"推理进化操作",灵感来自生物进化中的突变、交叉和选择:
Revision(修正):Agent 在完成一次推理后,回顾整个推理链,识别其中的逻辑错误或效率低下的步骤,并修正它们。修正后的推理链被存储为"改进模板",下次遇到类似问题时直接使用。
这不同于简单的 self-correction(自我纠错)——self-correction 是在单次推理中检查结果是否正确;而 Revision 是跨任务的,它在多次推理经验中提取出"什么样的推理策略更有效"。
Recombination(重组):从不同任务的成功推理链中提取出通用的推理"片段"(reasoning fragments),然后将它们组合成新的推理策略。
类比一下:一个人学会了"分治法"(从算法课学的)和"控制变量法"(从实验课学的),然后在面对一个新问题时,创造性地将两者结合——先用控制变量法定位问题范围,再用分治法在范围内搜索答案。这就是 Recombination。
Refinement(精炼):对已有的推理策略进行渐进式优化。不改变策略的整体结构,而是调整其中的参数和细节——比如何时该深入细节、何时该跳过步骤、何时该调用外部工具辅助。
Revision: "我的推理哪里错了?下次怎么避免?"
Recombination: "我能不能把 A 任务和 B 任务的成功经验组合起来?"
Refinement: "这个策略整体方向对,但细节怎么打磨得更好?"
这三个操作构成了一个完整的推理进化循环。SE-Agent 的实验显示,经过 50 轮进化后,在 WebArena 和 SWE-bench 等 benchmark 上,Agent 的成功率提升了 15-25%,而且提升是持续的、没有饱和迹象。
3.3 技能进化:Memento-Skills 框架
一个很有趣的思路是:不改模型,只改技能库。
Memento-Skills 框架将 Agent 的能力分解为一个个可独立管理的"技能"(skill),每个技能本质上是一段包含了目标描述、执行步骤、前置条件、工具调用模板的结构化知识。
当 Agent 成功完成一个新任务时,它会:
- 提取技能:从成功经验中抽象出一个可复用的技能模板
- 验证技能:在相似场景中测试这个技能,确保它的可靠性
- 注册技能:将通过验证的技能加入技能库
- 检索技能:下次遇到相关任务时,从技能库中检索最相关的技能
这个设计的优雅之处在于:模型权重完全不需要更新。所有的"进化"都发生在技能库这个外部结构中。这意味着:
- 进化成本极低(不需要 GPU 算力来做微调)
- 进化可解释(每个技能都是人类可读的)
- 进化可回滚(删除一个技能就能撤销一次"学习")
- 进化可迁移(技能库可以在不同 Agent 实例间共享)
3.4 双过程架构:System 1 + System 2
心理学家 Daniel Kahneman 在《思考,快与慢》中提出了人类认知的双过程理论:
- System 1:快速、直觉、自动化、低耗能——看到 “2+2” 就自动知道是 4
- System 2:缓慢、深思熟虑、高耗能——做 “347 × 28” 需要集中注意力一步步算
最新的 Agent 架构开始借鉴这个理论,构建双过程架构:
- System 1 模块:用小型、快速的模型(或缓存的推理模板)处理常见、简单的任务。响应延迟极低,算力消耗很小。
- System 2 模块:用大型 reasoning model(如 o3、Claude 的 extended thinking)处理复杂、罕见、需要深度推理的任务。慢但准。
关键机制是路由器(Router)——它决定一个任务应该交给 System 1 还是 System 2 处理。路由器本身也是可进化的:它根据历史数据学习"什么样的任务用 System 1 就够了,什么样的任务必须上 System 2"。
进化在这里体现为两个方向:
System 1 的能力扩展:随着 Agent 积累经验,越来越多原本需要 System 2 处理的任务,可以被"编译"为 System 1 的快速响应模板。就像人类学开车——刚开始每个动作都需要集中注意力(System 2),熟练之后变成了自动化操作(System 1)。
路由器的精度提升:路由器越来越精准地判断任务难度,减少"杀鸡用牛刀"(简单任务交给 System 2)和"力不从心"(复杂任务交给 System 1)的错误。
3.5 递归式自我改进
Elon Musk 多次提到 Recursive Self-Improvement(递归式自我改进)——一个 AI 系统改进自己的能力,改进后的系统又能更好地改进自己,如此循环往复,形成加速进化。
这是一个既令人兴奋又令人不安的概念。
当前的实现仍然是受限的递归自我改进。典型的做法是:
Agent V1 → 执行任务 → 收集反馈 → 生成改进方案 → Agent V2
Agent V2 → 执行任务 → 收集反馈 → 生成改进方案 → Agent V3
...
每一轮改进可能涉及:修改 prompt 模板、调整工具调用策略、优化记忆检索逻辑、更新推理链模板。改进方案由 Agent 自己生成,但通常需要经过一个评估环节(可能是自动化测试,也可能是人类审核)才能被采纳。
关键约束在于评估。如果评估环节本身由 Agent 控制,就可能出现"自己给自己打高分"的问题——Agent 认为某个改进是好的,但实际上引入了新的问题。这就是为什么当前的递归自我改进系统通常会设置人类把关节点(human-in-the-loop checkpoints),在关键的进化步骤中引入人类审核。
四、巨头的实践
理论和框架说了很多,来看看工业界的实际动作。
OpenAI:Self-Evolving Agents Cookbook
2025 年 11 月,OpenAI 在其开发者文档中发布了 Self-Evolving Agents Cookbook,这是一份实操指南,展示了如何构建能够从运行时反馈中持续改进的 Agent 系统。
Cookbook 的核心思路是:
- 用 GPT-4o 构建主 Agent,负责执行任务
- 用另一个 LLM 实例作为"评判者"(Judge),评估主 Agent 的输出质量
- 将评判结果和原始执行记录存入经验数据库
- 定期从经验数据库中提取"改进指令",更新主 Agent 的 system prompt
这是一个相对保守但实用的方案——它不改模型权重,只改 prompt。改进的粒度是"指令级别"的:比如 Agent 在金融场景中经常忘记检查合规性,Judge 发现了这个模式后,会在 system prompt 中加入"在生成金融建议前,始终先检查合规要求"。
DeepMind:无需人类训练的 Agent
Google DeepMind 在 2026 年初的一系列论文中展示了更激进的路线:Agent 在部署后完全自主地进化,不需要人类参与训练过程。
他们的方法基于"自我对弈"(self-play)的变体:Agent 在模拟环境中自动生成任务,自动执行,自动评估,然后通过在线强化学习更新策略。关键创新是课程自动生成(Automatic Curriculum Generation)——Agent 会自动生成"刚好超过自己当前能力边界"的任务,确保学习效率最大化。
这个方向的挑战在于:模拟环境和真实环境之间的 gap。Agent 在模拟环境中进化得很好,迁移到真实环境时可能会遇到 sim-to-real 的问题。
NVIDIA:持续数据框架
NVIDIA 的路线更偏工程和基础设施。他们发布的 Continuous Data Framework 关注的是:如何让 Agent 系统的训练数据"活起来"——不是一次性采集、一次性训练,而是持续采集、持续清洗、持续标注、持续微调。
框架的核心组件包括:
- 数据流水线:实时从 Agent 的运行日志中提取高质量训练样本
- 质量过滤器:自动评估每个样本的训练价值,过滤掉低价值和有害样本
- 增量微调引擎:支持在不停机的情况下对模型进行轻量级更新
- A/B 测试框架:自动对比微调前后的模型表现,决定是否采纳更新
这个框架本身不直接实现"进化",但它提供了让进化成为可能的基础设施。
开源社区:EvoScientist 三 Agent 协作
开源社区的创新值得特别关注。EvoScientist 是一个有趣的项目,它用三个 Agent 协作来实现"科学研究的自动化进化":
- Explorer Agent:阅读文献、发现研究 gap、生成假说
- Experimenter Agent:设计实验、编写代码、运行实验、收集结果
- Reviewer Agent:评审实验结果、提出改进建议、判断假说是否成立
三个 Agent 形成一个持续运行的循环。有趣的是,每个 Agent 自身也在进化——Reviewer Agent 会根据历史审稿经验,逐渐学会更精准地识别实验设计中的漏洞;Explorer Agent 则会根据哪些假说最终被验证,调整自己的假说生成策略。
这种"集体进化"——多个 Agent 同时进化,并且进化过程相互影响——是一个非常有前景的方向。
五、风险与挑战
可进化 Agent 听起来很美好,但有一系列严肃的风险和挑战需要正视。
5.1 多 Agent 进化的可扩展性与收敛性
当多个 Agent 同时在进化,它们之间的相互作用会产生复杂的动力学。
可扩展性问题:Agent 数量增加时,进化过程的计算成本呈指数级增长。每个 Agent 的每次进化都可能影响其他 Agent 的行为,需要重新评估整个系统。
收敛性问题:多个 Agent 可能陷入"进化竞赛"——A 改了策略,导致 B 的策略失效,B 被迫也改策略,又导致 A 的策略失效。这种振荡可能永远不会收敛到一个稳定状态。
冗余记忆管理:随着进化进行,Agent 的记忆会不断膨胀。如果不做有效的记忆管理(压缩、遗忘、去重),系统会越来越臃肿,检索效率会持续下降。
5.2 安全与对齐
这可能是最重要的挑战。
防恶意利用:一个能自我改进的 Agent,如果被恶意用户引导,可能会进化出规避安全限制的能力。比如,攻击者通过精心设计的反馈,诱导 Agent 逐步放松内容过滤规则。
进化方向约束:如何确保 Agent 的进化方向与人类的价值观和目标一致?当前的对齐技术(RLHF、Constitutional AI 等)是针对"静态"模型设计的——它们假设模型在训练后不再改变。对于一个持续进化的系统,对齐必须也是持续的。
这就引出了一个新的研究方向:动态对齐(Dynamic Alignment)——不是一次性地对齐模型,而是在模型每次进化后都验证其行为是否仍然符合人类期望。
5.3 伦理:递归自我改进 vs 人类控制权
递归自我改进的终极形态——一个能无限改进自己的 AI 系统——引发了深刻的伦理问题:
控制权问题:如果 Agent 的进化速度超过了人类理解和审核的速度,我们实际上就失去了对它的控制。这不需要"超级智能"才会发生——即使是当前水平的 AI,如果进化速度足够快、进化步骤足够多,人类也可能无法完全理解它经历了什么变化。
可解释性问题:进化后的 Agent,它的决策逻辑是否还是可解释的?如果一个 Agent 经过了 1000 轮自我改进,它的行为模式可能已经变得极其复杂,没有人能完全理解它为什么做出某个决策。
责任归属问题:如果一个自我进化的 Agent 做出了有害的决策,责任在谁?是开发者(设计了进化机制)?是用户(提供了引导进化方向的反馈)?还是 Agent 自身(做出了自主的进化选择)?
我个人的观点是:当前阶段,必须坚持 human-in-the-loop。进化可以自动化,但进化的"方向"和"边界"必须由人类设定和审核。完全放手的递归自我改进,在我们解决对齐问题之前,风险太大。
六、AI 进化的四阶段论
NVIDIA CEO 黄仁勋在多个场合阐述过他对 AI 发展的阶段划分,结合当前的进展,我把它扩展为四个阶段:
第一阶段:感知 AI(Perception AI)
这是 AI 的起步阶段,核心能力是"识别"——图像分类、语音识别、OCR 等。AI 能够感知环境中的信息,但不能生成新内容,也不能自主行动。
代表技术:CNN、RNN、传统 NLP 模型。
第二阶段:生成 AI(Generative AI)
当前我们正在经历的阶段。AI 不只能识别,还能创造——生成文本、图像、代码、音乐、视频。LLM 是这个阶段的核心驱动力。
代表技术:GPT 系列、Claude 系列、Stable Diffusion、Sora。
第三阶段:Agent AI(Agentic AI)
正在到来的阶段。AI 从"对话工具"升级为"行动主体"——能够理解目标、制定计划、使用工具、执行操作、从反馈中学习。可进化 Agent 是这个阶段的高级形态。
代表技术:Claude Code、Devin、OpenAI Operator、各类 Agent 框架。
第四阶段:物理 AI(Physical AI)
下一个前沿。AI 不再只存在于数字世界,而是进入物理世界——自动驾驶汽车、工业机器人、人形机器人。这要求 AI 具备对物理规律的深度理解和实时的环境交互能力。
代表技术:Tesla Optimus、Figure 02、NVIDIA Isaac Sim。
这四个阶段不是简单的替代关系,而是层层叠加——每一个新阶段都建立在前一阶段的能力之上。
而"泛化"和"进化"这两条线,贯穿了所有四个阶段。无论是感知 AI 还是物理 AI,都需要泛化(处理未知情况)和进化(持续变好)。只不过,越往后的阶段,对泛化和进化的要求越高:
- 感知 AI 需要在分布内泛化
- 生成 AI 需要 OOD 泛化
- Agent AI 需要推理泛化 + 工具/工作流进化
- 物理 AI 需要跨模态泛化 + 物理世界中的实时进化
七、结语
回到文章开头那个做 Agent 平台的朋友。
他的困境——在一个场景调好、换个场景就废——本质上是泛化和进化双重不足的结果。不够泛化,所以换场景就不行;不能进化,所以只能人工重来。
泛化是起点,进化是方向。
泛化让 Agent 有能力应对"第一次遇到的问题",进化让 Agent 有能力把"第一次遇到"变成"驾轻就熟"。一个理想的 Agent,应该像一个优秀的员工——入职时有基本的专业素养(泛化),工作后能从每一次任务中学习成长(进化),遇到新领域能快速适应(泛化 × 进化),时间越长越值钱。
但最后,必须诚实面对一个终极问题:
当 Agent 能够自我进化时,人类与 AI 的边界在哪里?
我没有答案。但我认为思考这个问题的正确方式不是"人类 vs AI"的零和博弈,而是共同进化——AI 在进化,人类也在进化(借助 AI 工具的人类,能力边界也在扩展)。关键不在于谁更强,而在于进化的方向是否对齐。
如果我们能确保 AI 的进化方向与人类的福祉一致,那么 AI 的每一次进化,都是人类的一次进化。
如果不能,那就是另一个故事了。
参考资料:
- Kahneman, D. Thinking, Fast and Slow. 2011.
- Pearl, J. The Book of Why. 2018.
- OpenAI. Self-Evolving Agents Cookbook. 2025.
- 清华大学. AGI-Next 论坛. 2026.
- 张亚勤. “人脑与AI的对比”. AGI-Next 演讲. 2026.
- NVIDIA. Continuous Data Framework for AI Agents. 2026.
- EvoScientist Project. GitHub. 2025-2026.