几个很有启发性的关于“数据会说谎”的真实例子

起点学院产品经理365成长计划,2天线下闭门集训+1年在线学习,全面掌握BAT产品经理体系。了解详情

数据解读是数据分析最重要的环节,数据不会说谎,说谎是来自于数据误读;很多公司招聘数据分析只强调数据处理,对数据解读无法评估,就会带来数据误读,从而产生“数据会说谎”的结论。

36大数据

几个的真实案例

1.、通过可控的客户端采样监测,得到了一定样本的,包含google搜索url特征的日志记录,得到google的搜索量;同样的样本下,采集到包含google adwords广告url特征的日志记录,得到google的广告点击数。 那么,理所当然&一厢情愿的 用点击数/搜索量,得到点击率。 但是,这个点击率是显著错误的,理由是,google的adwords广告点击,并不只发生在google的搜索结果中! 当时的情况是,点击率被高估了一倍。(其实已经区分了adsense和adwords广告点击的url特征,但是adwords也会出现在其他网站)

对数据逻辑及相互关系的理解不透彻,就会带来错误的解读。

2、反欺诈点击,有一定的点击过滤策略来进行,引入一种新的过滤策略,会带来更加严格的过滤,于是按照新的策略跑一遍旧的日志,得到结论,额外过滤了若干点击,价值若干,会导致收入下降若干。
但是这个结论是彻底错误的。当严格的策略执行之后,客户对该系统信心增加,竞价价格提升,广告预算提升,收入不降反升。
这也是有实际数据佐证的。简单结论是,单方面做数据推算,而忽略了与用户、客户的交互影响,就会做出错误的推断。

3、 某同事,名校计算机博士,算法达人,做了一条曲线,A和B高度相关,得到结论,A会导致B,看一眼结论我就骂人了,狗屎结论,实际上是A和B均受C的影响,所谓高度相关是C的因素带来的,这是只看数据不懂业务的典型。

4、样本偏差,特典型的就是沉默的大多数现象,简单举例,去IT论坛,发个投票,百度好不好,腾讯好不好,多数人会说不好。但是真正的用户是不会去IT论坛,更不会参与这种无聊的投票;所以这种投票得到的结论,你要真信,你就傻了。 此外,还有比如送礼品的票选,喜欢这种礼品的用户,本身就有倾向性,如果票选内容与礼品有关,那么结论显然是不可靠的。

5、有人提到预测未来,补充一点,就是用户不知道自己的未来。这也是普遍做样本调查容易产生的误区。如果时间前溯10年,你问一个用户,你会去买苹果手机吗?他肯定会说,你是不是疯了。但是当真的很酷的苹果手机放到他手上,他才会有感觉。 这是有真实案例的,十几年前,手机还叫大哥大,还是大款们才特有的玩物,真有调查公司跑到路边采访行人,说你需要买手机吗,行人纷纷表示不需要。他们不知道这玩意对他们人生的改变有多大。10年前,又有类似的事情,上网当时被认为是不务正业的表现,报纸媒体开始忧心忡忡年轻人的网瘾和被网络的伤害;然后又有媒体去采访,很多人表示,上不上网无所谓。这些都是当年一些新闻电视里出现过的典型场景。如果你相信,你就真完了。

这里的问题是,用户不能预知技术的发展和对人类群体乃至自身的改变;当然,有的人能看到,1997年,还在读书,我一直纠结大学毕业能做什么,第一次接触到了互联网,我坚定,这是改变人类的东西,这是我一辈子的职业。

6、举一个前几天碰到的真实的例子吧。选取音乐电台用户的一个子集,共2W人;分成AB两组,每组1W人;对每一组使用不同的推荐算法。统计在一天内每一组的用户一共点击了多少次喜欢的按钮和不喜欢的按钮。计算每组用户点击喜欢的按钮的比例 = 点击的喜欢个数/(点击喜欢的个数+点击不喜欢的个数)。理论上这个值越高,说明这组用户越满意,也就说明用在这组上的推荐算法更好。后来发现这个结果没有统计意义…… 因为有些用户会一天给出上千个喜欢与不喜欢的反馈,这样的用户在AB两组中的分布决定了最终结果的好坏。改进方法是:需要去除这些噪音点,或者使用其他的统计值。

7、我们还针对AB两组用户分别统计了:平均每个用户每天点击喜欢的音乐的个数。按理说,这个个数越高,说明推荐算法越好。可是,我们又针对AB两组用户分别统计了:平均每个用户每天点击不喜欢的音乐的个数。按理说,这个个数越高,说明推荐算法越差。结果,发现在很多情况下,第一个个数高的算法,第二个个数也高。于是,使用单一指标也许不能很好的刻画一个算法。改进方法是:使用更多的指标来进行刻画,具体问题具体分析,寻找背后的原因。

8、当年Firefox用户与Mac用户对支付宝重要与否,单从浏览器数据统计看,Firefox访问支付宝的比例太低了。不过因为支付宝不支持Firefox,所以,这个比例不能用作判断的依据。Mac用户也是一样。再说一个,支付宝当年代缴水电煤的项目改版之后,发现缴费用户立刻暴增,产品人员欣喜若狂,后来白鸦同学分析一下,哦,原来那几天是每个月水电煤缴费高峰期,周期性的抽风。其实呢,分析一下我国有关部门发布的数据,你会发现那都是一些说谎的数据。

9、二战时英国皇家空军邀请美国的统计学家分析德国地面炮火击中联军轰炸机的资料,并且从专业的角度,建议机体装甲应该如何加强,才能降低被炮火击落的机会。但依照当时的航空技术,机体装甲只能局部加强,否则机体过重,会导致起飞困难及操控迟钝。 统计学家将联军轰炸机的弹着点资料,描绘成两张比较表,研究发现,机翼是最容易被击中的部位, 而飞行员的座舱与机尾,则是最少被击中的部位。作战指挥官由此认为,应该加强机翼的防护,因为分析表明,那里”密密麻麻都是弹孔,最容易被击中”。但是统计学家却有不同观点,他建议加强座舱与机尾部位的装甲,那儿最少发现弹孔—–因为他的统计样本是联军返航的受损飞机,说明大多数被击中飞行员座舱和尾部发动机的飞机,根本没法返航就坠毁了。

所以如LS几位所答,不是数据说谎,而是没注意到沉默的数据(缺少了的样本),需要分析者有足够广的视角和逻辑,才能从数据里挖掘出足够正确的东西。

10、改版了款wap产品,没做任何推广前提下,发现流量飙升,尤其匿名用户涨了3倍。因为产品本身用户基数低,所以流量翻了两三倍也算正常。当时估计是SNS的口碑传播导致的。但最后还是觉得不对劲,查了一下,发现是搜索引擎在抓页面,因为改版了,所以它们要重新抓一次。空欢喜一场。数字还是那个数字,但背后它到底对应了什么内容,常常被忽略了。

11、我们会在游戏中对很多内容或操作做数据监控,然后通过分析数据的提高还是降低,去判断用户对该内容的喜欢程度。但是单独看数据的提高和降低是没有意义的。例如,我们发现某项物品最近销售数据在下滑,我们可能就会下结论:这个物品受欢迎程度在下降。但这个结论是不准确的,必须结合着其他的数据一块看,例如DAU。如果DAU在下降,那么该物品的销售随之下降是正常的,如果结合着比例来看,有可能会发现虽然销售数据在下降,但是比例数据(即销售数/DAU)是在上升的。这样会明白,其实该物品的受欢迎程度并没有下降了,而是DAU下降了。而在DAU下降的同时,销售比例在上升,其实该物品的受欢迎程度反倒是提高了。

因此,其实不是数据在说谎,而是很多数据需要辩证的来看。

12、前不久不有这么一段儿:说是美国著名调查机构PEW在“胸围与幸福指数”调查中对500对30—40岁的夫妻调查结果显示:女性胸围A杯的离婚率为37%,胸围B杯的离婚率为16.3%,胸围C杯的离婚率为4%,而胸围达D杯的女性离婚率1%都不到。这个典型的抽取样本数量不等的情况下的出的所谓结论可信度大打折扣。有个简单的方法看看滑稽在什么地方。有没有注意到,里面木有E杯和F杯的数据,why。。。因为,要么根本就没有E和F,自然没有结论,要么E和F数量很小,得出的结论完全可能出现100%离婚的结论,这样的结论和前面的推到就不符合所以隐藏了。

感谢知乎小伙伴们的无私奉献,原文链接>>>

您的赞赏,是对我创作的最大鼓励。

评论( 0

登录后参与评论
加载中