深度学习应对推荐系统,必须懂的3个层面

0 评论 5922 浏览 27 收藏 15 分钟

撰写推荐系统的文章多如牛毛,笔者准备撰写推荐系统产品的文章除了以下4点原因外,更是因为推荐系统已经从传统的推荐系统升级到智能的以深度学习驱动的深度推荐系统为主的旋律。有了这一与网上推荐系统文章立意不同的思路,故此分享出来。

因为与时下大数据AI紧密相关。故此本文先讲为什么推荐系统总被提及?接着讲推荐系统数据分析经验,然后讲解概述传统推荐系统产品的做法,最后撰写深度学习推荐系统产品的操作方法。

为什么推荐系统常常被提及?

1. 国际科技公司从推荐系统获益有先例

根据微软亚洲研究员的报告,推荐系统给亚马逊(国内竞品淘宝)带来了35%的销售收入,给Netflix带来了高达75%的消费,并且Youtube(国内竞品爱奇艺、腾讯、优酷视频)主页上60%的浏览来自推荐服务。

2. 产品经理市场职位用高薪拥抱推荐系统产品经理

市场上招聘推荐系统产品经理的公司多,且相对传统产品经理薪资很高,如下图:

3. 快速综合迭代的推荐系统锤炼产品经理的能力

推荐产品自身迭代快,亦能综合体现产品经理的综合素养。

首先推荐系统快速的从传统推荐系统过渡到AI机器学习推荐系统,另外推荐系统产品种类繁多,大致可以分为:离线与实时;基于统计与基于个性化;基于相似度与基于模型;基于内容与基于协同过滤等等种类。如此庞大的产品种类足够锻炼产品经理的复合能力。

4. 推荐系统有广泛的应用且带来实实在在的益处

推荐系统能为公司的产品和服务做预测,提早讲产品和服务售卖给用户,实现公司商业目标。

用户更好的获取到自己需要的内容,内容更快更好的推送到喜欢它的用户手中,公司网站(公司平台)更有效的保留用户资源。

应用领域有:电子商务、电影视频、社交网络、个性化阅读、位置服务、个性化邮件、个性化广告、个性化旅游、证券、理财、个性化音乐等等。

第一个层面:推荐系统的数据分析

例如:一方面淘宝用户在逛淘宝时会留下用户的个人信息、喜好信息、上下文信息;另外一方面用户的行为,用户对宝贝的评价、评分、点击、浏览、搜藏、购买等行为会构成用户与宝贝商品之间形成行为数据。

用户对宝贝有行为数据,可以表示用户对宝贝感兴趣,有什么样的兴趣就需要数据分析。

推荐系统用户行为分析产品结构图如下:

用户行为数据分析的含义:对用户购物路径日志信息进行统计、分析,从中发现用户访问网站的规律,并将这些规律与网络营销策略等相结合,从而发现目前网络营销活动中可能存在的问题,并为进一步修正或重新制定网络营销策略提供依据。

用户行为数据分析目的:通过对用户行为监测获得的数据进行分析,可以让企业更加详细、清楚地了解用户的行为习惯,从而找出网站、推广渠道等企业营销环境存在的问题,有助于企业发掘高转化率页面,让企业的营销更加精准、有效,提高业务转化率,从而提升企业的广告收益。

小结:产品经理在推荐系统数据分析里必懂的点如下:

  1. 重点分析内容:用户来源数据:城市、渠道、页面等;
  2. 数据分析应用场景,如用户维度:拉新、留存、促活、变现等;结合RFM模型做用户数据深度分析;流量维度,站内站外维度的漏斗转化分析;营销效果维度的评估分析等。
  3. 数据钻取: 数据上钻:从当前数据往上回归到上一层数据。例如:(某数据的分类下面分为品名)从品名列表收拢到分类列表。

下钻:从当前数据往下展开下一层数据。 例如:(某数据的分类下面分为品名)从分类列表展开到品名列表。

上钻、下钻统称钻取。

切片:展现同一层面的数据。如上述的产品。

转轴:这些应该属于查询、展现范畴。

第二个层面:传统的推荐系统

传统的推荐系统,一般都是根据大量用户的活动所产生的大量信息,然后所产生的群体偏好再加以利用,比如某宝的商品推荐,热门视频,看了又看,相亲匹配等等。

寻找相同品味的人,然后根据最相似的他人喜好给出推荐就可以。这就是协同过滤(Collaborative Filtering,CF)的基本想法了:借鉴相关人群的观点来进行推荐。这与KNN虽然大体一致,但实现下细微处差异还是很大的。

例如:传统推荐系统基于内容的推荐如下图

用户A喜欢电影a,电影a的类型属于爱情动作;用户B喜欢恐怖,悬疑,惊悚的B类电影b;用户C喜欢也喜欢恐怖,悬疑,惊悚的B类电影b;根据基于内容的推荐算法,会将电影c,爱情、动作,剧情类电影推荐给用户A。

小结,产品经理在传统的推荐系统中要懂如下三点:

(1)基于内容的推荐(Content Based,CB),基于用户特征属性和item的特征之间的匹配程度来做推荐,推荐效果强依赖于特征工程的好坏。

好处是用户独立性,不需要协同考虑其他用户特征,这也意味着一个缺点就是可供我们分析的内容有限。

再一个好处是没与用户互动(评分、购买、加购物车等)过的新的item也可以被推荐。最大的缺点是过度特化,推荐的items没有创新性和惊喜。

(2)协同过滤(CF),利用的信息是用户和item之间的互动信息(多用的是用户评分矩阵),CF在评分矩阵信息较为稠密的时候表现好于CB,并且CF可以捕捉到一些复杂的难以表达的信息;在实际应用中CF经常会产生意外的惊喜的推荐,这一点也暗示着CF方法不适合做公共基金推荐等严肃的推荐任务(因为CF主要基于稀疏的、不完整的数据做推荐);再一个CF存在冷启动问题。

(3)混合推荐方法,CF+CB

第三个层面:AI机器学习赋能的深度推荐系统

我们知道AI包含机器学习和深度学习,而深度学习是机器学习的特例。

推荐系统与深度学习,深度推荐系统现阶段的应用主要体现在如下三个层面:

(1)提升表征学习能力。深度神经网络的优势在于其强大的表征学习能力。因此,一种最直接的应用是,利用深度学习技术从复杂的内容数据中学习出有效的隐因子特征表示,从而后续可以很方便地为推荐系统所用。

深度协同过滤。经典的矩阵分解模型可以被描述为一种非常简单的神经网络。我们可以通过拓展其中的结构,引入更多的非线性单元来加强推荐模型的功能。

  • 一方面,它弥补了两个隐向量的朴素点积操作不能区分各维度之间重要性差别的弱点;
  • 另一方面,它额外引入了一个多层感知机模块,用来引入更多的非线性操作。除此之外,自动编码机、卷积神经网络、记忆网络、注意力网络等深度学习相关技术也分别被应用在改进传统的协同过滤模型中。

(2)特征间的深度交互。企业的推荐系统为了尽量提高模型的准确性,往往会使用丰富的甚至异构的内容数据。这些特征从不同的维度展现了不同的信息,而且特征间的组合通常是非常有意义的。传统的交叉特征是由工程师手动设计的,这有很大的局限性,成本很高,并且不能拓展到未曾出现过的交叉模式中。深度神经网络去自动学习高阶的特征交互模式,弥补人工特征工程带来的种种局限性。

深度学习技术在推荐系统中的应用前景很广阔,下面来看深度推荐系统的实操案例:

从上图深度推荐系统产品功能结构可见,深度推荐包含输入层、模型层和输出层。

输入层的数据主要包括:用户显示反馈(评分、喜欢/不喜欢)或隐式反馈数据(浏览、点击等行为数据)、用户画像(性别、年龄、喜好等)和项目内容(文本、图像等描述或内容)数据、用户生成内容(社会化关系、标注、评论等辅助数据)。

模型层,使用的深度学习模型较广泛,包括自编码器RBM、受限玻尔兹曼机AE、卷积神经网络CNN、循环神经网络RNN等。

在输出层,通过利用学习到的用户和项目隐表示,通过内积、Softmax、相似度计算等产生项目的推荐列表,最后实现深度推荐系统。

小结:深度推荐系统未来的产品方向

(1)效率与可拓展性

对推荐系统而言,不仅需要考虑模型的准确度,运行效率和可维护性也是非常重要的方面。效率指的是当用户发来一个请求时,推荐系统能够以接近实时的速度返回结果,而不需让用户等待;可维护性指系统的部署简便,能够支持定期更新,或者增量式更新。

(2)多样化数据融合

现实平台中,用户或者物品的数据往往是复杂多样的。物品的内容可以包括文本、图像、类别等数据;用户的行为数据可以来自多个领域,例如社交网络、搜索引擎、新闻阅读应用等;用户的行为反馈也可以是丰富多样的,例如电商网站中,用户的行为可能有搜索、浏览、点击、收藏、购买等。

不仅如此,在这些不同的维度中,不同用户或物品的数据分布也千差万别;用户在不同的行为反馈上的数据量也不同,点击行为的数据量往往远大于购买行为的数据量。因此,需要深度融合这些复杂数据。

(3)捕捉用户长短期偏好

用户的偏好大致可以分为长期和短期两类。长期偏好往往指用户的兴趣所在,例如她是五月天的歌迷,那么未来很长时间她都会对五月天的歌曲、演唱会门票感兴趣。

短期偏好指的是用户在当前环境下的即时兴趣,例如最近一周用户比较喜欢听抖音上的热门歌曲,那么推荐系统也应该捕捉到用户的这个兴趣,或者用户在未来一个月有搬家的打算,那么推荐系统可以适当地推送一些搬家公司的广告。目前一些流行的做法是,将循环神经网络与深度协同过滤技术结合,从而达到兼顾长短期记忆的功能。

最后

如何应用大量的用户和物品及内容的匹配,做到精准推荐,未来的出路或许就在深度推荐系统。关于深度学习的内容期待关注笔者接下来的文章。

如果你想系统化入门AI产品经理,掌握AI产品经理的落地工作方法,戳这里>http://996.pm/7bjab

#专栏作家#

连诗路,公众号:LineLian。人人都是产品经理专栏作家,《产品进化论:AI+时代产品经理的思维方法》一书作者,前阿里产品专家,希望与创业者多多交流。

本文原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自Unsplash, 基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!