AI Agent 架构的终局,是 Unix 哲学的回归

Skill CLI = Unix Command,Agent Workspace = Unix Filesystem——我们正在重新发明 Unix

最近在梳理各种 AI Agent 框架和 Runtime 的架构时,我产生了一个越来越强烈的感觉:我们正在重新发明 Unix。

不是比喻。是字面意义上的重新发明。当你把今天主流的 Agent 架构摊开来看——Skill、Workspace、Tool、Pipeline、Orchestrator——你会发现,这些概念和 50 年前 Unix 的设计哲学几乎一一对应。区别只是换了一层 AI 的皮。

[Read More]

为 AI 重建的 IM 架构

从传递消息到管理意图——当 Agent 成为 IM 的一等公民,通信协议需要被重新设计

传统 IM(即时通讯)解决的是一个简单的问题:让人和人高效地交换信息。文本、图片、文件、语音——三十年来,IM 的核心架构围绕着"谁说了什么"展开,安全靠端到端加密,权限靠静态角色控制,审计靠消息日志。这套体系服务了几十亿用户,足够成熟。

但当 AI Agent 成为 IM 中的活跃参与者——不仅接收消息,还理解意图、调用工具、执行任务、产生后果——传统 IM 的架构假设就被从根本上打破了。IM 不再只是信息传递的通道,而是 Agent 协作与执行的操作系统。

这需要一种全新的 IM 架构。

[Read More]

企业专属模型:让企业放心调用大模型的架构最佳实践

从共享 API 到私有化部署——五种架构模式解决'数据会不会被拿去训练'的终极顾虑

和企业客户聊 AI 落地,十次有九次会被问到同一个问题:“我们调用你们的大模型,数据会不会被拿去训练?”

这个问题背后的焦虑是真实的。企业的客户数据、商业机密、内部文档、代码仓库——这些是企业的核心资产。把它们发送给一个外部的大模型 API,本质上就是把家底给别人看了一遍。如果这些数据还被用来训练模型,那等于是在免费帮竞争对手提升 AI 能力。

好消息是,这个问题在 2026 年已经有了成熟的解决方案。坏消息是,大多数企业还不知道该怎么选。

[Read More]

企业级 Agent Runtime 的第一道防线:安全沙箱

文件系统隔离 + 网络访问隔离——从 macOS Seatbelt 到 Windows AppContainer 的操作系统级安全实践

当我们谈论企业级 AI Agent Runtime 时,第一个需要解决的问题不是"模型有多聪明",而是"Agent 执行的代码有多安全"。一个能读写文件、执行命令、访问网络的 Agent,如果没有安全边界,就是一颗不知道什么时候会爆炸的定时炸弹。

企业级的 Agent Runtime 首先需要一个安全沙箱:文件系统隔离 + 网络访问隔离。

[Read More]

当 AI Agent 被拉进多个群:会话隔离与 Agent 隔离的生死线

企业级 Agent Runtime 接入 IM 多群场景下的安全架构设计

把一个 AI Agent 拉进钉钉的多个群,是一件非常容易的事情——群管理员点一下"添加机器人"就完成了。但这也是一件极其危险的事情——如果 Agent Runtime 没有做好隔离,你可能正在制造一个企业级的安全事故。

想象这个场景:你的 AI Agent 同时服务于"核心技术架构群"和"外部合作伙伴群"。有人在合作伙伴群里问了一个问题,Agent 的回答中不小心带出了它在架构群里学到的技术方案细节。信息就这样泄露了,而且没有任何人会收到告警。

这不是假设。这是没有隔离的 Agent Runtime 的默认行为。

[Read More]

AI 时代的企业数字化 = 工作 Agent 化 + 知识 AI Ready 化 + 软件 CLI 化

一个简洁的公式,三个可落地的方向,重新定义企业的 AI 转型路径

过去两年,几乎每家企业都在谈"拥抱 AI"。但你去看看大多数企业的 AI 落地项目,会发现一个尴尬的现实:聊天机器人做了一堆,效率提升约等于零。 问题出在哪?不是 AI 不够强,而是企业的数字化基座根本不是为 AI 设计的。

我越来越确信一个判断:AI 时代的企业数字化,可以浓缩成一个公式——

企业数字化 = 工作 Agent 化 + 知识 AI Ready 化 + 软件 CLI 化

这三项缺一不可,而且顺序很重要。

[Read More]

Agent 执行耗时任务时如何主动汇报进度?四种方案的实战选型

从后台进程到多 Agent 协作,为不同场景选择最合适的进度上报机制

你让 AI Agent 帮你跑一个需要 30 分钟的数据迁移脚本,然后就没了下文——它在干嘛?卡住了?还是已经跑完了?你不知道,因为 Agent 只会在任务彻底完成或彻底失败时才告诉你结果。

这是 Agent 系统中一个普遍的痛点:耗时任务的进度黑洞。用户发出指令后陷入等待,没有进度条,没有中间反馈,只有最终的成功或失败。在 OpenClaw 的实际使用中,我总结了四种适用于不同场景的进度上报方案,每种都有其最佳适用场景。

[Read More]

OpenClaw 一天发布两个版本,打破了人月神话法则吗?

从 Brooks 定律的正反两面,看 AI Agent 时代的软件工程新范式

OpenClaw 一天发布了两个版本。消息传开后,有人兴奋地说"AI 时代人月神话终于被打破了",也有人冷静地问"这真的算打破了吗?"

这个问题值得认真回答。因为它触及的不是某个产品的发布节奏,而是软件工程最根本的规律之一——加人到底能不能加速交付? 在 AI Agent 成为新型"开发者"的今天,这条规律是否需要被重新审视?

[Read More]

Workspace + Git + Agent:AI 时代的工作操作系统

Everything is file——当所有 AI 工件都是文件,Workspace 的结构设计就是你的竞争力

过去一年,我越来越确信一个判断:AI 时代真正的工作操作系统,不是某个 App,不是某个平台,而是 Workspace + Git + Agent 这个三位一体的组合。

为什么?因为 AI Agent 的一切——输入、输出、系统提示词、上下文、执行过程、临时生成的代码、图片、文档,甚至应用程序本身——本质上都是文件。既然 everything is file,那么管理这些文件的方式,就决定了你驾驭 AI 的效率和上限。

[Read More]

Attention is All You Need:专注力才是人和大模型共同的底层算法

Google 那篇论文改变了 AI,但它揭示的道理对人同样成立

2017 年,Google 发表了那篇改变世界的论文——“Attention Is All You Need”。八位作者可能没想到,这篇论文不仅催生了 GPT、Claude、Gemini 等一系列大模型,也在某种意义上揭示了一个关于人类自身的深刻隐喻:不论是大模型还是人,决定产出质量的底层机制都是注意力(Attention)。

专注力是人做事质量和效率的基础。这不是心灵鸡汤,而是一个可以从技术原理出发、严肃论证的观点。

[Read More]