AI在帮你,但也正在偷走你的一种能力

0 评论 62 浏览 0 收藏 13 分钟

当AI幻觉让资深律师都栽了跟头,我们才惊觉:智能的廉价化正让人的判断力悄然退化。本文不仅剖析了判断力在AI时代流失的本质与风险,更提供了三个来自有赞、蓝色光标、人保寿险等一线企业的实战方法,教你如何在具体情境中守住并锤炼自己的核心判断力。

黄仁勋说:现在,智能正在变成一种廉价商品。

但出现了一个新问题:当答案来得太容易,人的判断力反而在悄悄退化。

今天这篇内容,不仅会拆解清楚判断力的本质、它为什么会流失,更能让你直接拿走3个经过实战验证、可直接照搬落地的方法,帮你在AI时代牢牢守住自己的判断力。

一、AI最大的问题,不是“不够聪明”

2023年6月,美国纽约联邦法院出了一件让人哭笑不得的事。律师史蒂文·施瓦茨在法庭文件里引用了六个判例,每一个都被ChatGPT标注为“完全真实”。

结果呢?

法官一查,这些案例全是AI编的,根本不存在。

施瓦茨的律所被罚了5000美元。

这只是开始。

同年12月,特朗普的前私人律师迈克尔·科恩也承认,他提交给法官的法律文件里,引用了谷歌的AI助手Bard生成的假案例。

科恩事后说,他以为Bard只是“一个更强的搜索引擎”。

你看,出事的不是新手,是执业多年的资深律师。他们不是不懂法律、不缺经验、不没有判断力——但照样被AI骗了。

这说明什么?

AI最大的问题,不是它不够聪明,而是它太会“编”了。

现在的大语言模型在生成内容时,有一个致命特性:它们不是在“回忆”事实,而是在预测“最可能出现的文字”。

它一旦预测错了,输出的就是一段听起来非常正确、逻辑自洽、但完全虚构的内容。

学术界给这种现象起了个名字:AI幻觉。

幻觉不挑人,一个初出茅庐的法学生可能被骗,一个身经百战的律师照样被骗。

在AI面前,专业人士和普通人的起点是一样的,都是面对一堆“看起来很真”的信息。

这才是AI时代最反直觉的地方:知识变得前所未有的廉价,但真知识反而前所未有地稀缺。

1945年,哈耶克在《知识在社会中的利用》中写道:真正重要的知识,往往散落在具体的人、具体的经历里,没法被完整写下来,更没法集中存放。

他当时是在批评中央计划经济的思路,那些坐在办公室里的人,以为自己掌握了足够的信息,可以替整个社会做决定。但其实是脱离了真实的市场环境,制定了一堆错误政策。他把这称为“知识的傲慢”。

但我们要说明一下:那些AI编造的判例、伪造的数据、胡编的学术引用,它们不是知识,是假信息。

所以,我们现在的问题不是知识“分散”了,而是可信知识的溯源能力变得前所未有地稀缺。

当你用AI的时候,看到一段论证严密、引用丰富的分析,你的第一反应是什么?信,还是不信?

如果你觉得“AI不会出错”,然后照单全收,那你和上面那两位律师一样。

现在,我们溯源核查的能力比知识本身更稀缺。而这种能力的丧失,正在悄悄侵蚀我们最核心的判断力。

二、判断力,是什么?

AI能给你答案,但不会告诉你这个答案从哪来的,靠不靠谱。

判断力不是“做决定的能力”,而是在信息不完整的情况下做出选择,并为这个选择承担后果的能力。它包括三个层次:

第一层,是分辨

在假信息泛滥的时代,分辨的首要任务是溯源和核查:

这个信息从哪来的?有没有原始出处?能不能交叉验证?一个东西”看起来像知识”,不等于它就是知识。

这个信息该不该信?这个数据靠不靠谱?

这个“专家”是在陈述事实还是在推销观点?

分辨需要你脑子里有参照系,知道什么是正常、什么是异常,什么是常识、什么是忽悠。这个参照系和核查意识,来自长期的经验积累,也来自对自己认知边界的清醒认知。

第二层,是关联

同样一条数据,对A公司是机会,对B公司可能是坑。为什么?

因为A和B的资源不同、目标不同、历史包袱不同。别人的成功经验放到你的公司,可能就是毒药。

这种“具体情境”的判断,没法从书本上学,也没法从AI那里直接拿到,只能在具体的事情里反复打磨。

第三层,是承担

判断的最后一步,是你得为结果负责。

AI给你一个建议,你可以采纳,但你没法让AI替你承担后果。产品卖不出去,AI不会扣工资;战略决策失误,AI不会下课。

谁承担后果,谁就有判断力;谁把判断权交出去,谁就在推卸责任。

这三层加在一起,才是完整的判断力——在具体情境里做选择并承担责任的能力。

三、保护判断力的3个方法

1. 判断力是慢慢溜走的

其实,判断力的流失,不是某一天忽然发生的,它有个渐进过程。

不少人一开始只是让AI帮我想想,慢慢变成让AI替我想,最后变成我不会想了。

不光是个人,判断力的流失,对组织也是一个巨大风险。

如果遇到问题,团队成员都去问同一个AI,AI给了一个看起来合理的方案,大家都接受。

这看起来不错,是吧?

但,没有人在问“AI为什么给这个方案?”“这个方案在我的具体情况下适用吗?”

结果是:企业里的集体智慧正在被替换成AI的单一逻辑。

团队都在引用同一个AI的结论,你看不到多元的观点,听不到刺耳的声音,得到的都是安全稳妥的建议。

这不是AI的问题,是使用方式的问题。

短期看,效率确实提高了;长期看,组织的判断多样性降低了。

一个组织如果判断趋同,面对复杂局面时就很脆弱,因为已经没有人能跳出这个同质的思维框架。

2. 怎么做,才能保护好自己的判断力?

其实核心逻辑特别简单:让AI充分辅助你,但绝对不能让它替你走完完整的判断过程。

下面给大家分享3个实打实的、已经被国内国外大厂跑通落地的方法,每一个都有一线的实践,照着就能用。

第一个方法:先自己来,再问AI

遇到任何问题,先逼着自己拿出个“初稿”。

哪怕这个初稿很糙、有漏洞都没关系,先把你的想法、直觉、拿不准的地方,明明白白写出来。等你自己先有了思考的起点,再去问AI,让它给你挑毛病、找漏洞、补你没考虑到的角度。

这是让你自己的思考“先跑一遍”。AI能帮你打磨想法,但绝对不能让它替你生成思考的起点。

这套方法已经在有赞的产品研发、功能立项里做成了硬性规矩。

很多产品经理最容易犯的错,就是老板问一句“咱们要不要上线这个新功能”,转头就去问AI“这个功能要不要上”,AI给一堆分析,自己都不细琢磨,就直接转发给老板交差。

有赞的产品经理,是怎么做的?

先不碰AI,先在文档里老老实实写清楚:

  • 我自己的判断是什么?
  • 我觉得该上还是不该上?
  • 核心依据是什么?
  • 是用户真实需求?
  • 还是能带来商业化价值?
  • 我最大的顾虑是什么?
  • 最拿不准的地方在哪?

甚至连上线之后的风险预案,都要先自己写个大概。等把这些全写明白了,自己的判断完完整整摆出来了,才能去用AI。

第二个方法:让AI参与的痕迹被看到

要求团队伙伴在提交内容时,标注哪些是AI生成的,哪些是自己改的,修改的理由是什么。

这个过程逼着我们回到人判断的位置:你得知道自己在信什么、不信什么,你得为自己的判断负责,而不是把责任推给AI写的。

当你要写“我为什么没有采纳AI的建议”时,你就不得不形成自己的判断,这本身就是一种思维锻炼。

蓝色光标要求所有团队提交的营销素材、策划方案,只要用了AI,就必须在文档里用批注标得明明白白:

①哪些内容是AI原生生成的;

②哪些地方是人工修改的,每一处修改都要写清楚核心理由;

③针对AI给的建议,你没采纳的,必须写明白“我为什么不用AI的这个版本”,是不符合客户的品牌调性?还是没踩中用户的核心需求?还是创意方向不对?

这就逼着创意人员,从“AI内容的搬运工”,变回了“创意判断的决策者”。

你要写清楚修改理由,就必须先把AI的内容看明白,再结合客户的需求、品牌的调性,形成自己的判断,不然你根本写不出来为什么改、为什么不采纳。

第三个方法:定期做判断回顾

每隔一段时间,回顾一下你最近用AI做的决定:哪些是你采纳了结果好的?哪些是结果不好的?AI给的方向,和你当时的直觉,哪个更准?

这个回顾不是为了评判AI的表现,而是为了训练你自己的判断力。你要看到自己的判断在哪里被修正了,在哪里被证实了,这才能积累出真正的判断经验。

人保寿险以季度为周期,把所有AI辅助审核的可疑交易分析报告,全拿出来复盘。

复盘的核心,是盯着三个问题:

①当时AI给了什么样的风险评级建议,负责的风控专员自己的人工判断是什么,做了哪些修改;

②最终这个案件的核查结果是什么,到底有没有风险;

③哪些风险特征,是AI识别不出来,必须靠人工经验判断的?人工判断的核心依据,能不能沉淀下来,变成可复用的标准?

就这样通过一次次复盘,不断沉淀、不断完善,形成了“AI提效+人工兜底”的良性循环。

内容来源:笔记侠(Notesman)。责编 | 贾宁

本文由人人都是产品经理作者【笔记侠】,微信公众号:【笔记侠】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自Unsplash,基于 CC0 协议。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!