从信息墒到Skill:AI Native 交互设计的三次降熵革命
AI产品的Prompt设计正面临前所未有的挑战:当复杂的Agent系统遭遇用户输入的高不确定性,冗长的Prompt反而加剧了系统不稳定性。本文通过信息熵与信息密度的双重视角,揭示AI Native产品必经的三个关键阶段,并指出Skill架构如何通过信息分层与动态加载实现真正的降熵突破。

很多人刚开始做AI产品,第一直觉就是必须把Prompt写好。
但真实场景中,复杂业务Agent,都会有这样一个过程
Prompt 越写越长,系统越跑越慢,结果却越来越不稳定。
问题不在模型,而在于:我们一直在用错误的方式,对抗用户输入的高不确定性。
这背后,其实可以用两个概念解释清楚:信息熵和信息密度。
2个概念
信息墒
用户进入Agent界面后,系统面临的是一个典型的高熵状态;
- 用户可能找你闲聊;
- 用户可能想写文案;
- 用户可能也不知道要干什么;
产品化的交互设计,本质上就是墒值降低的过程,将不明确的的用户自然语言逐步引导为清晰的、确定性的行为路径。
信息密度
这里指的是Prompt的表达方式。
高密度的Prompt言简意赅,抽象程度高;低密度的Prompt则全是规则和示例,试图罗列所有边界可能。
很多AI产品早期存在的问题是:试图用低密度 Prompt,对抗高信息熵的用户输入。
AI native产品的三个阶段
1. 超级Prompt阶段
这几乎是所有产品必经的一个阶段。
面对模糊的用户意图,自然的我们会不断补业务规则、加示例、引入COT、试图用“全量兜底”策略求稳。
结果是system Prompt膨胀到上万多字,推理延迟飙升,模型注意力被严重稀释,行为反而更不确定。
低密度 Prompt 并没有真正降低熵,只是把混乱推迟到了模型内部
2. 路由与切片阶段
阶段2,我们开始做减法,引入了意图路由、上下文切片,不再把所有规则全部塞进模型。
针对明确的业务场景,我们能够精准路由,特定的行为更稳定了。但对于最前置的入口,面对用户操作的不确定性,我们往往不敢轻易裁剪上下文,仍需要提供最全面的知识。
3. Skill 阶段
Claude Skill阶段,这才彻底重构了我们对“动态上下文”的理解。我们认识到一个事实
“高墒入口”这件事,本身是无法用 Prompt 去解决的。
skill究竟是什么,可在平台上搜索查看。
Skill 如何真正降低信息熵
核心原理:信息分层+按需加载
首先,索引层(Index Layer),主要负责用户行为拆解,
只放技能名称 + 简介,常驻在内存,信息密度极高,噪音极低,这相当于给模型一份目录,而不是整本书。
然后,在内容层(Content Layer),主要负责指导任务完成,
放具体 SOP ,或者说Prompt,按需动态加载,用完即走。
最后,资源层(Resource Layer),
放脚本、制度原文、文档,平时完全不进模型上下文,只有在需要时才访问
这更像是图书馆的仓库,而不是课桌。
为什么不是多Agent
试想一下,我们意图识别后拆分成多个subAgent会遇到什么问题?
- 子 Agent 不知道主对话发生了什么;
- 不理解用户当前的情绪和上下文。
如果试图把完整对话上下文强行传给subAgent必然导致延迟暴涨,Token成本剧增。
这个问题的核心在于:注意力要集中和上下文完整性。
AI Native演化路径
回过头来,我们的实践路径其实很清晰
- 高墒阶段:用一个超级大的Prompt抵抗用户的高墒输入;
- 局部降墒阶段:用路由和切片,局部降墒;
- 降墒前移到决策层阶段:用 Skill 重构交互,把降熵前移到决策层。
按照目前AI的发展速度,估计还会有新的技术演进,但Skill应该是比较长时间内的最优解。
本文由 @Scarlet斯佳丽 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




