AI健康管家的体验设计之回答结构
医疗AI产品的回答结构设计正在颠覆传统模式。本文从用户决策逻辑出发,揭秘如何通过模块化组合优化健康咨询的交互体验,同时规避LLM的不确定风险。文章不仅呈现了一套可落地的动态Prompt框架,更揭示了医疗信息记忆效率与产品设计之间的关键联系。

一、先上结论
1.基本结构
结论 → 严不严重 → 建议 → 解释 → 就医。
2.规则
根据不同问题类型微调结构的 数量和顺序。实际上也就是 回答结构=模块组合
二、为什么是这个结构
1.本质出发
回答结构的本质是 用户的决策顺序来设计信息优先级。
我在思考这个问题的时候,突然想到一个有意思的场景:
我们平时从医院出来能记住的核心信息顺序大概是:我这是*** → 严不严重 → 该怎么办,原因可能记得个大概。但实际上,应用市场上的AI健康对话产品的回答结构是遵循医学的临床推理来设计的,也就是:结论 → 严不严重 → 解释 → 建议 → 就医
而且,对医疗信息的记忆是良好遵循医嘱的前提,这个话我认为是非常重要的。虽然AI健康对话产品目前为了风险不应该提供医疗诊断,但用户的决策顺序做优化是没问题的。
我看过一个文献指出
“医护人员提供的医疗信息中有 40% 至 80% 会被立即遗忘。信息量越大,正确回忆的比例就越低”
https://pmc.ncbi.nlm.nih.gov/articles/PMC539473/?utm_source=chatgpt.com
以当前蚂蚁阿福的追问回答结构为例,我认为就 非常冗余。
当追问的过程中有很多信息对用户是没用的,追问就是追问,每次追问可以复述一下上次回答的信息,但它每次前追问都有一大段的文字来描述,效率我认为很低,用户肯定不会花时间度那么长的文字,除非用户有很多的时间,对阿福及其信任,生怕漏掉什么关键信息,但概率我认为很小。
2.防止LLM的不确定性
因为LLM每次给出的回答不一样,而且在医疗健康领域如果全部交给LLM,安全、风险都不可控,所以要通过提示词约束、RAG规范LLM的回答。
3.降低规则的复杂度
– 规则越复杂,维护起来肯定越麻烦,导致Prompt会很长。要聪明地去选择规则方案,避免以后问题场景多起来,规则复杂度呈指数上升。
– 规则只用一套,然后Agent针对不同类型的问题,微调 结构的数量/顺序 就好了。
三、最后产出是什么且如何落地
1.产出内容
1.1 基础回答结构模块:包含了所有回答的“原子模块”,统一团队认知。(以表格形式输出)
表头是模块、作用、说明
最后写原则:所有问题的回答都是由这些模块动态组合而成,不是每种问题写一个固定结构
1.2 问题类型+模块组合规则(也就是动态微调结构表)
表头是:问题类型、用户核心关心、模块组合顺序
1.3 有时间再做个案例库什么的,方便团队理解
2.以我的经验说一下如何落地
每个团队配置和职责有个别差异,所以客观看待,择优采用
2.1 在周会上把先把做好的大纲和小部分已完成的内容show出来,让产品、算法看看对他们有没有帮助,其实我平时找过他们说我想要做一个回答结构和追问规则,并且把价值和大纲口述了一遍,但他们的回应说不太好理解,从表情上来看像是这个东西对他们没用,所以需要做个1/5的工作出来,趁着周会一起看看。后来我才发现,他们并不是不理解,只是他们认为对自己的工作完成度没有帮助而已,对产品体验的提升还是有价值的。
2.2 得到认可之后,就可以继续开工了,把剩下的内容补齐;最后拉着团队人员一起评一下;最后上传团队的在线文档中去就ok。
2.3 产品会将回答结构的规则写成JSON配置表,让Agent读取然后执行Prompt拼接,最后LLM输出
3.走一遍【对话处理逻辑】:这是根据我当前做的产品来梳理的
假设用户提问:“我最近胸口疼,尤其是晚上睡觉时”。
↓
这个时候进入对话处理逻辑
↓
LLM开始语义理解+意图识别(LLM判断问题类型做路由)
↓
粗召+检索+重排(不决定顺序)
↓
Agent根据问题类型读取JSON配置表,将基础模块按照顺序拼进动态Prompt中,供LLM生成回答
最后
以上的成果和思考是 自学+部分验证 的结果,如果和实际上有差异希望得到指正,交个朋友。
下一篇我可能会把路由和追问的规则以及思考总结一下。
我是一名想和AI粘死且不甘平凡的设计师
本文由 @鼻子打不开 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议

起点课堂会员权益





Agent生成动态 Prompt 要推理?
不是推理,准确点应该是决策,控制回答结构