数据产品经理术语之hadoop

2 评论 23190 浏览 187 收藏 8 分钟

数据产品经理的工作描述中,“了解hadoop”是一个高频出现的内容。大多数产品经理并没有直接与hadoop打交道的经验,本文希望能够帮助大家对Hadoop有一个基础的理解。

一、是什么

Hadoop是一个由Apache基金会所开发的分布式系统基础架构,它封装了复杂的分布式底层细节,使开发人员能够低门槛地开发分布式程序,充分利用集群的威力进行高速运算和存储。

Hadoop是一个针对于大数据的存取、计算、加工、分析,由多个工具构成的解决方案。

二、为了解决什么问题

任何新技术的提出,都是为了解决问题。那么,Hadoop是在什么样的情况下应运而生的,它又解决了什么问题呢?

随着互联网数据量增多,数据产生速度增快,数据类型多样性提高,之前的集中式的数据处理系统显露出了很多问题。

  • 原有系统存储容量有限,无法承载每日TB甚至PB级的数据量。
  • 原有系统适合处理简单数据,对于音视频、图片等多种类型的文件支持一般。
  • 原有系统应对故障的能力弱。
  • 原有系统对机器要求高,构建成本高。

Hadoop构建了可以运行在多个廉价小型机的分布式系统架构,以低成本的方案解决了上述问题,从而得到了行业中大量的应用。

三、工作原理

1. 示意图

Hadoop中的核心设计包括两点:HDFS和MapReduce。

图中白色块属于HDFS,黑色块属于MapReduce。

2. HDFS

HDFS(Hadoop Distributed File System)是一个高度容错性的分布式文件系统,可以被广泛的部署于廉价的PC上。它以流式访问模式访问应用程序的数据,这大大提高了整个系统的数据吞吐量,因而非常适合用于具有超大数据集的应用程序中。

一个典型的HDFS集群包含一个NameNode节点和多个DataNode节点,NameNode节点负责整个HDFS文件系统中的文件的元数据的保管和管理,集群中通常只有一台机器上运行NameNode实例,DataNode节点保存文件中的数据,集群中的机器分别运行一个DataNode实例。

在HDFS中,NameNode节点被称为名称节点,DataNode节点被称为数据节点。DataNode节点通过心跳机制与NameNode节点进行定时的通信。

NameNode :

可以看作是分布式文件系统中的管理者,存储文件系统的meta-data,主要负责管理文件系统的命名空间,集群配置信息,存储块的复制。

Secondary NameNode:

帮助 NameNode 收集文件系统运行的状态信息 。

DataNode :

是文件存储的基本单元,它存储文件块在本地文件系统中,保存了文件块的meta-data,同时周期性的发送所有存在的文件块的报告给NameNode。

3. MapReduce

MapReduce是一种编程模型,用于大规模数据集的并行运算。Map(映射)和Reduce(化简),采用分而治之思想,先把任务分发到集群多个节点上,并行计算,然后再把计算结果合并,从而得到最终计算结果。

举个通俗的例子:

我们要数图书馆中的所有书,你数1号书架,我数2号书架,这就是“Map”。我们人越多,数书就更快。

现在我们到一起,把所有人的统计数加在一起,这就是“Reduce”。

用户提交任务给JobTracer,JobTracer把对应的用户程序中的Map操作和Reduce操作映射至TaskTracer节点中;输入模块负责把输入数据分成小数据块,然后把它们传给Map节点;Map节点得到每一个key/value对,处理后产生一个或多个key/value对,然后写入文件;Reduce节点获取临时文件中的数据,对带有相同key的数据进行迭代计算,然后把终结果写入文件。

JobTracker:

当有任务提交到 Hadoop 集群的时候负责 Job 的运行,负责调度多个 TaskTracker 。

TaskTracker:

负责某一个 map 或者 reduce 任务 。

四、优缺点

1. 优势

  1. 大数据文件,非常适合上T级别的大文件或者一堆大数据文件的存储,如果文件只有几个G甚至更小就没啥意思了。
  2. 文件分块存储,HDFS会将一个完整的大文件平均分块存储到不同计算器上,它的意义在于读取文件时可以同时从多个主机取不同区块的文件,多主机读取比单主机读取效率要高得多。
  3. 流式数据访问,一次写入多次读写,这种模式跟传统文件不同,它不支持动态改变文件内容,而是要求让文件一次写入就不做变化,要变化也只能在文件末添加内容。
  4. 廉价硬件,HDFS可以应用在普通PC机上,这种机制能够让给一些公司用几十台廉价的计算机,就可以撑起一个大数据集群。
  5. 硬件故障,HDFS认为所有计算机都可能会出问题,为了防止某个主机失效读取不到该主机的块文件,它将同一个文件块副本分配到其它某几个主机上,如果其中一台主机失效,可以迅速找另一块副本取文件。

2. 缺陷

HDFS不适合用在:要求低时间延迟数据访问的应用,存储大量的小文件,多用户写入,任意修改文件。

五、适用场景

搜索、日志处理、推荐系统、数据分析、视频图像分析、数据保存等。

六、生态

  • 部署,配置和监控:Ambari,Whirr
  • 监控管理工具:Hue, karmasphere, eclipse plugin, cacti, ganglia
  • 数据序列化处理与任务调度:Avro, Zookeeper
  • 数据收集:Fuse,Webdav,Chukwa,Flume, Scribe , Nutch
  • 数据存储:HDFS
  • 类SQL查询数据仓库:Hive
  • 流式数据处理:Pig
  • 并行计算框架:MapReduce, Tez
  • 数据挖掘和机器学习:Mahout
  • 列式存储在线数据库:HBase
  • 元数据中心:HCatalog (可以和Pig,Hive ,MapReduce等结合使用)
  • 工作流控制:Oozie,Cascading
  • 数据导入导出到关系数据库:Sqoop,Flume, Hiho
  • 数据可视化:drilldown,Intellicus

 

本文由 @ 流风 原创发布于人人都是产品经理。未经许可,禁止转载

题图来自 Pixabay,基于 CC0 协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 大家期待已久的《数据产品经理实战训练营》终于在起点学院(人人都是产品经理旗下教育机构)上线啦!

    本课程非常适合新手数据产品经理,或者想要转岗的产品经理、数据分析师、研发、产品运营等人群。

    课程会从基础概念,到核心技能,再通过典型数据分析平台的实战,帮助大家构建完整的知识体系,掌握数据产品经理的基本功。

    学完后你会掌握怎么建指标体系、指标字典,如何设计数据埋点、保证数据质量,规划大数据分析平台等实际工作技能~

    现在就添加空空老师(微信id:anne012520),咨询课程详情并领取福利优惠吧!

    来自广东 回复
  2. 分析得挺细致的

    来自广东 回复