别再问 AI“你怎么看”了
与大模型对话时,简单的'你怎么看'往往得到平庸回答,而角色设定却能激发深度洞见。本文揭秘AI默认的'取悦型人格'设计逻辑,解析角色Prompt如何突破表层安慰,通过约束搜索空间、切换判断视角,让AI输出真正具有决策价值的观点。

在与大模型对话时,请少用甚至不用“你、我、他”,多使用“你是乔布斯”、“你是巴菲特”等角色设定 。
给 AI 设定特定角色之所以有效 ,是因为这种方式绕过了 AI 产品中默认的“取悦用户型人格设计”。
如果你只想知道这一点,这篇文章到这里,其实已经讲完了。下面的内容,只是在解释一件事:
为什么会这样?
一、少用“你怎么看”
大多数人使用 AI 时,都会下意识地提问:“你怎么看这个问题?”或“我现在有点困惑,你有什么建议?”
从人的语言习惯来看,这非常自然。但从 AI 的工作方式来看,这类问题有一个共同特征:
几乎不提供任何有效约束。你没有给立场,没有给视角,也没有给判断标准。在这种情况下,AI 能调用的,只剩下一样东西,它的默认对话人格。
二、默认人格
几乎所有主流 AI 产品,都存在一个“默认人格”。
这个人格通常具备以下特征:
- 中立
- 温和
- 共情优先
- 尽量避免否定用户
- 尽量不让用户感到受挫
这并不是 AI 不够聪明,而是产品设计的必然结果。
三、为什么这么设计
站在产品经理的角度,这件事非常好理解。
- 降低情绪成本:如果一个对话产品经常否定用户,语气冷硬甚至冒犯,那么对大多数普通用户来说,这是一个情绪成本极高的产品。
- 高优先级目标:在系统提示此、训练阶段、语气调优中,“让用户感觉被理解、被接住”,往往是一个隐含但极高优先级的目标。
这也是为什么,AI 的默认回答更像是在安慰你,而不是挑战你。
四、Karpathy 的洞察
前特斯拉 AI 负责人 Karpathy 曾分享过一个核心洞察:大模型并不是一个“正在思考的个体”,它的输出本质上是在已有语料与权重中寻找最可能出现的回答模式。
当你问”你怎么看“时,模型会自然滑向一个最安全、最不冒犯、最平均的生成路径。
结果往往是:正确,但缺乏判断力。
五、你我他 的问题
这里需要澄清一个容易被误解的点。问题并不在于“你 我 他”这些词本身没用,而在于它们不提供任何可执行的约束条件。
真正导致回答变平庸的,是:没有视角、没有角色、没有判断标准、没有冲突预期。
于是模型只能回到默认人格,给你一段“看起来没错,但你用不上的话”。
六、 角色Prompt在做什么
当你对 AI 说:“你是乔布斯”,“你是巴菲特”,“你是马斯克”时,你并不是在让 AI“扮演某个人”。你实际上是在传递一个非常清晰的信号:我不需要被取悦,我需要判断。
这一步,会同时触发三件事。
第一层:绕过取悦机制
角色 Prompt 会直接削弱默认人格中的过度共情、模糊中立和情绪安抚优先。回答的目标,从“让你感觉舒服”,变成“给出符合某种判断逻辑的结论”。
第二层:进入高密度语料区
指定角色,本质上是在压缩模型的搜索空间。相比“你怎么看”这种无限宽但密度极低的提问,角色 Prompt 会强制模型进入一块:价值观高度一致、判断逻辑稳定、表达冗余被压缩的高密度语料区域。
这也是为什么回答会突然变得:更直接、更冷静、更有立场
第三层:你在约束你自己
这是最容易被忽略、但也最重要的一点。
当你写下:你是乔布斯,你不只是给 AI 下了指令,而是在提问之前,先完成了一次视角选择。
你不能再随意问:好不好?合不合理?要不要试试?因为你已经默认接受了一个前提:如果站在这种判断体系下,这个问题应该如何被审视?
七、你要的不是被安慰
一个很现实的事实是:当你认真向 AI 求助时,你真正需要的,往往不是一句“你已经很不错了”。
你要的是:
- 可执行的判断
- 可推演的逻辑
- 能挑战你原有认知的答案
而不是正确的废话。
八、什么时候可以用 你我他
当然,并不是所有场景,都不该用“你怎么看”。比如:情绪安抚、陪伴式对话、灵感发散、早期探索阶段。在这些场景中,被理解本身,就是价值。
但如果你要的是判断、决策和行动建议,那就别再把提问交给默认人格。
九、写在最后
如果你要的是判断、决策和行动建议,那就别再把提问交给默认人格,给 AI 一个伟大的灵魂。
另外,忽然还有一篇关于《用户意图识别》的长文还没写完,目前还在持续整理中。这篇内容确实挺难写的,我需要结合更多的实际效果验证后再分享给大家,希望能做到每一篇分享都有实战价值。
我会持续跟大家分享生活中、工作中关于 AI 的思考与避坑指南,以上。
本文由 @产品不正经 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




