企业级 Agent 落地:要抓好左右手

The Two-Hand Framework for Enterprise AI Agents

上周和一个做企业数字化的朋友吃饭。他公司去年花了两百多万,引入了一套"AI Agent 平台"。

销售演示的时候很惊艳:对着对话框说一句话,系统就能生成报表、审批流程、甚至写 SQL 查数据。

上线三个月后,他告诉我:

“员工用了两周就放弃了。现在那个系统成了公司最贵的摆设。”

我问他:系统出 Bug 了?

他说:不是。是系统不会变聪明

第一个月,Agent 回答问题的准确率大概 70%。第二个月还是 70%。第三个月,员工发现问同样的问题,得到的答案一模一样——系统完全没有从实际使用中学到任何东西。

“它就是个会说话的自动化脚本。”

这句话戳中了一个很多人不愿承认的事实:

今天市面上 90% 的"企业 Agent",本质上只是给 LLM 套了个聊天框。

[Read More]

如果你现在在做的系统不能自主进化,你已经落后了

Why Static Systems Are Already Obsolete

去年双十一之后,我和两个不同团队的负责人聊了聊。

团队 A 花了六个月打磨一套微服务架构:精致的 API 网关、完善的链路追踪、99.99% 的 SLA 承诺。上线那天,一切完美。

团队 B 用了两个月搭了个「粗糙」的系统:简单的单体应用、基础的日志收集、甚至有些地方用了硬编码。但他们在系统里埋了一个东西 —— 一套基于运行数据自动调优的反馈循环。

六个月后再看,团队 A 的系统依然「完美」,只是业务变了三次方向,每次都要拉齐五个服务重新发版,工程师疲于奔命。团队 B 的系统已经迭代了四十多个版本,配置参数自动优化了三轮,连架构都根据流量模式自动拆分了两个热点模块。

这不是关于谁的技术栈更好的故事。

这是关于 你在构建的是资产还是负债 的故事。

[Read More]

中国 SaaS 厂商的护城河应该怎么建

Building Durable Moats for China SaaS in the Agent Era

上周和一位做 HR SaaS 的创始人吃饭。他抛出一个困扰了很久的问题:

“我们的 AI 简历解析准确率比竞品高 8%,但客户续约率还是在掉。竞品三个月就追平了准确率,价格还低 20%。技术优势在中国到底能维持多久?

我给的回答很直接:6 到 12 个月。 然后就没有了。

这不是悲观,而是现实。中国企服市场的迭代速度让任何纯技术壁垒都迅速商品化。如果你的护城河是"我们的模型更准"“我们的算法更快”,那这条河很快就会干涸。

这篇文章,我想系统回答一个问题:在中国做 SaaS,到底什么才是真正的护城河?

[Read More]

红杉 2026 AI Keynote 启示录:中国 SaaS 的扩散差距与 Agent 重构

Sequoia AI Keynote insights on China SaaS market and agent-driven transformation

上周六深夜,我通过钉钉听记完整记录了红杉资本 2026 AI Keynote。35 分钟的演讲中,有一个词反复刺痛了我:Diffusion Gap(扩散差距)

演讲者说:“基础模型能力的增长速度,远超企业采用速度。”

这句话翻译成中国 SaaS 市场的语境就是:你的客户还在用 Excel 管客户、用微信群发通知、用邮件批流程,而 AI Agent 已经能自主完成端到端任务了。这个差距不是 bug,是未来三年最大的商业机会。

[Read More]

AI 时代的周报生存指南

How to feed DingTalk so AI can generate your weekly release report

周五下午 5 点,App v2.5.0 刚刚发版。你合上测试报告,长舒一口气,准备迎接周末。

这时,钉钉弹出一条待办:「请提交本周工作周报」。

你打开空白文档,脑子里只有模糊的碎片:周一跟 iOS 吵了架构方案,周三凌晨修了个线上 Crash,周四拉着后端对了三天后的发版清单……具体改了哪些 Bug?阻塞了哪些需求?下周风险在哪?你开始疯狂翻聊天记录、邮件、Jira 看板。半小时过去了,周报还是只有干巴巴的三行:

  1. 完成 v2.5.0 发版
  2. 跟进线上问题修复
  3. 规划 v2.6.0 需求

你的 Leader 看到这份周报,只会觉得你这周「好像没干什么」。但只有你自己知道,这周你协调了 4 个端、拦下了 3 个不合理需求、熬了 2 个夜。

这不是你的记忆力问题,而是你的日常记录方式出了问题。

很多人以为 AI 时代来了,只要对大模型说一句「帮我写周报」,它就能自动汇总你的一周。但现实是:AI 不是读心术。如果你在日常工作中留下的都是碎片化、非结构化、缺乏上下文的数据痕迹,AI 能生成的,也只能是那份干巴巴的三行流水账。

高质量周报从来不是周五「写」出来的,而是每天「喂」给系统的。

[Read More]

AI 时代运营的本质:影响人群价值观

The essence of operations in the AI era: influencing collective values

上个月和一个做电商运营的朋友聊天。她团队有 8 个人,每天忙的事情是:拉数据、做报表、调投放参数、写推送文案、设计活动页面。

我问她:「你觉得自己最重要的工作是什么?」

她想了想说:「理解用户想要什么。」

我说:「那你团队 80% 的时间都没花在这件事上。」

她沉默了。

这不是她一个人的问题。过去十年,运营这个岗位被大量低价值的重复工作绑架了。数据要手动拉,报表要手动做,渠道要手动调,文案要手动写。运营人员变成了流程的执行者,而不是策略的思考者

但今年,情况正在发生根本性的变化。

大模型能力的跃迁和 Agent 生态的成熟,正在把运营从重复劳动中解放出来。低价值的流程性工作可以实现完全自动化,无需依赖技术人员支持。运营人员利用 AI 工具,可以 10 倍速度提升数据获取和分析的效率,做更精细化的人群和渠道分层,让洞察和策略更精准。

运营的本质,终于有机会回归它本来的样子:影响人群的价值观。

[Read More]

企业知识库新范式:从一亿预算到人在回路

The paradigm shift from billion-yuan knowledge graphs to human-in-the-loop LLM orchestration

上周和一位创业者吃饭,他刚帮一家大型企业做完知识图谱项目的评估。结论让人倒吸一口凉气:要达到替代中级岗位能力的水平,算上数据采集、清洗、标注、图谱构建和持续维护,预算需要一个亿。

企业听完直接搁置了。

这不是个例。过去三年,我见过不下十个类似的项目——企业想做知识库,供应商画了一个「知识图谱+智能问答」的大饼,然后企业发现投入产出比根本算不过账。

但今年情况变了。模型能力的跃迁正在催生一个新范式:不再靠人工标注堆数据,而是让 LLM 做编排,结合企业搜索,人做优化调整和确认。

知识整理的起点也不再是宏大的「企业知识图谱」,而是每个人手边的 Journal——每日工作日记。通过钉钉这样的组织连接工具,个人知识可以自然地流转、沉淀为企业知识。

[Read More]

构建 Agent 的动态路由决策系统:千人千面的任务执行引擎

Dynamic Routing Decision System for AI Agents

团队里的小王和小李都在用同一个 AI Agent 平台。

小王输入:「帮我总结一下今天群里的讨论。」

Agent 调用了 fast/small 模型做意图识别,然后用 medium 模型读取了 200 条消息,生成了摘要。耗时 3 秒,花费 0.02 元。

小李输入了完全相同的指令。

Agent 却调用了 large/reasoning 模型,不仅做了摘要,还自动关联了小李上周的项目文档,识别出了三个待办事项,并推送到了他的日历。耗时 12 秒,花费 0.15 元。

同样的输入,完全不同的执行路径。

这不是 bug,而是一个成熟的 Agent 系统应该具备的能力——根据用户画像、历史行为、任务上下文,动态决策每一步该用什么模型、什么工具、注入多少上下文、以什么并发度执行。

当你的 Agent 只有 100 个用户时,这些问题还不明显。你可以手动调几个规则,给 VIP 用户分配更好的模型,给普通用户限流。靠人肉运维,系统也能跑。

但当用户量从 100 涨到 10 万、100 万,当模型供应商从 1 家变成 10 家,当工具调用从几个 API 扩展到上百个——靠人写规则来调度,系统会直接崩溃

不是因为规则写不出来,而是因为规则的组合空间是指数级的:

  • 7 种任务类型 × 5 个复杂度等级 × 10 个模型 × 4 种用户画像 × 3 种上下文策略 = 4,200 种路由组合
  • 这还只是单节点决策。如果任务被分解为 3-5 个子节点,每个节点独立路由,组合数直接爆炸到 百万级

没有人能手动维护百万级的路由规则表。

大多数 Agent 框架把执行路径写死在代码里:先调用 A 模型,再调用 B 工具,最后返回结果。这在 demo 阶段没问题,但一旦面向规模化用户,就会暴露三个致命问题:

  1. 成本失控——所有用户都用最强模型,简单任务也在烧钱,规模化后月账单直接六位数
  2. 体验一刀切——新手和专家拿到相同的结果,没有人觉得「懂我」,留存率上不去
  3. 无法进化——系统上线后不会从用户反馈中学习,规则越写越多,越用越僵化

这篇文章,我们来拆解如何构建一个动态路由决策系统(Dynamic Routing Decision System, DRDS)——一套端到端的自进化引擎,让 Agent 的执行路径真正做到千人千面,并且在规模化下持续学习、自动优化。

核心观点:自进化不是 Agent 的「加分项」,而是规模化后的「必选项」。

[Read More]

Agent-as-a-Judge:自进化Agent的眼睛

Why self-evolving agents need automated evaluation to survive long-horizon tasks

上周,一个朋友的团队遇到了这样一件事:他们部署了一个 Coding Agent,让它独立完成一个微服务模块的重构。Agent 跑了整整 6 个小时,提交了 47 个 commit,改了 2000 多行代码。第二天早上,Tech Lead 打开 PR,看着满屏的 diff,沉默了五分钟,说了一句:“我怎么知道它中间做对了什么、做错了什么?”

这不是个例。随着 Agent 能处理的任务越来越长、越来越复杂,一个被忽略的问题浮出水面:谁来评估 Agent 的工作?

[Read More]

AI 原生团队的三力模型:远见、流动、补位

Three Operating Layers Behind a True AI-Native Team

上周一个朋友(某 SaaS 公司的产品 lead)发我一段视频:他们公司请来了一位"AI 转型顾问",PPT 上密密麻麻写着 30 多项行动——成立 AI 委员会、设立 AI OKR、采购 AI 工具矩阵、推行 AI 培训计划、设置 AI Champion……

看到第 24 页时他截图问我:“你觉得我们三个月后会变成 AI 原生团队吗?”

我反问他:“你最近一次把一个想法从冒出来到上线,用了多少天?”

他沉默了一会儿:“上一个功能,从 PRD 评审到线上,47 天。”

我说:“那不管你们买多少工具,请多少顾问,你们都不是 AI 原生团队。”

隔壁一家 5 个人的初创团队,同期上线了 11 个功能,每个从想法到用户手里平均 6 天。两边用的是同一批模型、同一批工具,差距来自完全不同的地方。

[Read More]