内容简介
本书结合理论和实践,由浅入深,全方位介绍了Hadoop这一高性能的海量数据处理和分析平台。全书5部分24章,第Ⅰ部分介绍Hadoop基础知识,主题涉及Hadoop、MapReduce、Hadoop分布式文件系统、YARN、Hadoop的I/O操作。第Ⅱ部分介绍MapReduce,主题包括MapReduce应用开发;MapReduce的工作机制、MapReduce的类型与格式、MapReduce的特性。第Ⅲ部分介绍Hadoop的运维,主题涉及构建Hadoop集群、管理Hadoop。第Ⅳ部分介绍Hadoop相关开源项目,主题涉及Avro、Parquet、Flume、Sqoop、Pig、Hive、Crunch、Spark、HBase、ZooKeeper。第Ⅴ部分提供了三个案例,分别来自医疗卫生信息技术服务商塞纳(Cerner)、微软的人工智能项目ADAM(一种大规模分布式深度学习框架)和开源项目Cascading(一个新的针对MapReduce的数据处理API)。
本书是一本权威、全面的Hadoop参考书和工具书,阐述了Hadoop生态圈的最新发展和应用,程序员可以从中探索海量数据集的存储和分析,管理员可以从中了解Hadoop集群的安装和运维。
前言
数学科普作家马丁·加德纳(Martin Gardner)曾经在一次采访中谈到:
“在我的世界里,只有微积分。这是我的专栏取得成功的奥秘。我花了很多时间才明白如何以大多数读者都能明白的方式将自己所知道的东西娓娓道来。” ①
这也是我对Hadoop的诸多感受。它的内部工作机制非常复杂,是一个集分布式系统理论、实际工程和常识于一体的系统。而且,对门外汉而言,Hadoop更像是“天外来客”。
但Hadoop其实并没有那么让人费解,抽丝剥茧,我们来看看它的“庐山真面目”。Hadoop提供的用于处理大数据的工具都非常简单。如果说这些工具有一个共同的主题,那就是它们更抽象,为(有大量数据需要存储和分析却没有足够的时间、技能或者不想成为分布式系统专家的)程序员提供一套组件,使其能够利用Hadoop来构建一个处理数据的基础平台。
这样一个简单、通用的特性集,促使我在开始使用Hadoop时便明显感觉到Hadoop真的值得推广。但最开始的时候(2006年初),安装、配置和Hadoop应用编程是一门高深的艺术。之后,情况确实有所改善:文档增多了;示例增多了;碰到问题时,可以向大量活跃的邮件列表发邮件求助。对新手而言,最大的障碍是理解Hadoop有哪些能耐,它擅长什么,它如何使用。这些问题使我萌发了写作本书的动机。
Apache Hadoop社区的发展来之不易。从本书的第1版发行以来,Hadoop项目如雨后春笋般发展兴旺。“大数据”已成为大家耳熟能详的名词术语。②当前,软件在可用性、性能、可靠性、可扩展性和可管理性方面都实现了巨大的飞跃。在Hadoop平台上搭建和运行的应用增长迅猛。事实上,对任何一个人来说,跟踪这些发展动向都很困难。但为了让更多的人采用Hadoop,我认为我们要让Hadoop更好用。这需要创建更多新的工具,集成更多的系统,创建新的增强型API。我希望自己能够参与,同时也希望本书能够鼓励并吸引其他人也参与Hadoop项目。
说明
在文中讨论特定的Java类时,我常常会忽略包的名称以免啰嗦杂乱。如果想知道一个类在哪个包内,可以查阅Hadoop或相关项目的Java API 文档(Apache Hadoop主页http://hadoop.apache.org上有链接可以访问)。如果使用IDE编程,其自动补全机制(也称“自动完成机制”)能够帮助你找到你需要的东西。
与此类似,尽管偏离传统的编码规范,但如果要导入同一个包的多个类,程序可以使用星号通配符来节省空间(例如import org.apache.hadoop. io.*)。
本书中的示例代码可以从本书网站下载,网址为http://www.hadoopbook.com/。可以根据网页上的指示获取本书示例所用的数据集以及运行本书示例的详细说明、更新链接、额外的资源与我的博客。
第4版新增内容
第4版的主题是Hadoop 2。Hadoop 2系列发行版本是当前应用最活跃的系列,且包含Hadoop的最稳定的版本。
第4版新增的章节包括YARN(第4章)、Parquet(第13章)、Flume(第14章)、Crunch(第18章)和Spark(第19章)。此外,为了帮助读者更方便地阅读本书,第1章新增了一节“本书包含的内容”(参见1.7节)。
第4版包括两个新的实例学习(第22章和第23章):一个是关于Hadoop如何应用于医疗健康系统,另一个是关于将Hadoop技术如何应用于基因数据处理。旧版本中的实例学习可以在线查到,网址为http:/bit.ly/hadoop_tdg_prev。
为了和Hadoop最新发行版本及其相关项目同步,第4版对原有章节进行了修订、更新和优化。
第3版新增内容
第3版概述Apache Hadoop 1.x(以前的0.20)系列发行版本,以及新近的0.22和2.x(以前的0.23)系列。除了少部分(文中有说明)例外,本书包含的所有范例都在这些版本上运行过。
第3版的大部分范例代码都使用了新的MapReduce API。因为旧的API仍然应用很广,所以文中在讨论新的API时我们还会继续讨论它,使用旧API的对应范例代码可以到本书的配套网站下载。
Hadoop 2.0最主要的变化是新增的MapReduce运行时MapReduce 2,它建立在一个新的分布式资源管理系统之上,该系统称为YARN。针对建立在YARN之上的MapReduce,第3版增加了相关的介绍,包括它的工作机制(第7章)及如何运行(第10章)。
第3版还增加了更多对MapReduce的介绍,包括丰富的开发实践,比如用Maven打包MapReduce作业,设置用户的Java类路径,用MRUnit写测试等(这些内容都请参见第6章)。第3版还深入介绍了一些特性,如输出committer和分布式缓存(第9章),任务内存监控(第10章)。第3版还新增了两小节内容,一节是关于如何写MapReduce作业来处理Avro数据(参见第12章),另一节是关于如何在Oozie中运行一个简单的MapReduce工作流(参见第6章)。
关于HDFS的章节(第3章),新增了对高可用性、联邦HDFS、新的WebHDFS和HttpFS文件系统的介绍。
对Pig,Hive,Sqoop和ZooKeeper的相关介绍,第3版全部进行了相应的扩展,广泛介绍其最新发行版本中的新特性和变化。
此外,第3版还对第2版进行了彻底的更新、修订和优化。
第2版新增内容
《Hadoop权威指南》(第2版)新增两章内容,分别介绍Sqoop和Hive(第15章和第17章),新增一个小节专门介绍Avro(参见第12章),补充了关于Hadoop新增安全特性的介绍(参见第10章)以及一个介绍如何使用Hadoop来分析海量网络图的新实例分析。
第2版继续介绍Apache Hadoop 0.20系列发行版本,因为当时最新、最稳定的发行版本。书中有时会提到一些最新发行版本中的一些新特性,但在首次介绍这些特性时,有说明具体的Hadoop版本号。
本书采用的约定
本书采用以下排版约定。
斜体
用于表明新的术语、URL、电子邮件地址、文件名和文件扩展名。
等宽字体Consolas
用于程序清单,在正文段落中出现的程序元素(如变量或函数名)、数据库、数据类型、环境变量、语句和关键字也采用这样的字体。
等宽字体Consolas+加粗
用于显示命令或应该由用户键入的其他文本。
等宽字体Consolas+斜体
表明这里的文本需要替换为用户提供的值或其他由上下文确定的值。
这个图标表示通用的说明。
这个图标表示重要的指示或建议。
这个图标表示警告或需要注意的问题。
示例代码的使用
本书的补充材料(代码、示例及练习等)可以从本书网站(http://www.hadoopbook.com)或GitHub(https://github.com/tomwhite/hadoop-book/)下载。
本书的目的是帮助读者完成工作。通常情况下,可以在你的程序或文档中使用本书中给出的代码。不必联系我们获得代码使用授权,除非你需要使用大量的代码。例如,在写程序的时候引用几段代码不需要向我们申请许可。但以光盘方式销售或重新发行O’Reilly书中的示例的确需要获得许可。引用本书或引用本书中的示例代码来回答问题也不需要申请许可。但是,如果要将本书中的大量范例代码加入你的产品文档,则需要申请许可。
我们欣赏你在引用时注明出处,但不强求。引用通常包括书名、作者、出版社和ISBN,如“Hadoop: The Definitive Guide, Fourth Edition, by Tom White(O’Reilly).Copyright 2015 Tom White,978-1-491-90163-2”。
如果觉得使用示例代码的情况不属于前面列出的合理使用或许可范围,请通过电子邮件联系我们,邮箱地址为permissions@oreilly.com。
Safari Books Online
Safari Books Online(www.safaribooksonline.com)是一个按需定制的数字图书馆,以图书和视频的形式提供全球技术领 域和经管领域内知名作者的专业作品。
专业技术人员、软件开发人员、网页设计人员、商务人员和创意专家将Safari Books Online用作自己开展研究、解决问题、学习和完成资格认证培训的重要来源。
Safari Books Online为企业、政府部门、教育机构和个人提供广泛、灵活的计划和定价。
在这里,成员们通过一个可以全文检索的数据库中就能够访问数千种图书、培训视频和正式出版之前的书稿,这些内容提供商有O'Reilly Media、Prentice Hall Professional、Addison-Wesley Professional、Microsoft Press、Sams、Que、Peachpit Press、Focal Press、Cisco Press、John Wiley & Sons、Syngress、Morgan Kaufmann、IBM Redbooks、Packt、Adobe Press、FT Press、Apress、Manning、New Riders、McGraw-Hill、Jones & Bartlett、Course Technology及其他上百家出版社。欢迎访问Safari Books Online,了解更多详情。
联系我们
对于本书,如果有任何意见或疑问,请通过以下地址联系出版商:
美国:
O’Reilly Media, Inc.
1005 Gravenstein Highway North
Sebastopol, CA 95472
中国:
北京市西城区西直门南大街2号成铭大厦C座807室(100035)
奥莱利技术咨询(北京)有限公司
本书也有相关的网页,我们在上面列出了勘误表、范例以及其他一些信息。网址如下:
http://bit.ly/hadoop_tdg_4e(英文版)
http://www.oreilly.com.cn/book.php?bn=978-7-302-46513-3(中文版)
对本书做出评论或者询问技术问题,请发送E-mail至以下邮箱:
bookquestions@oreilly.com
如果希望获得关于本书、会议、资源中心和O’Reilly的更多信息,请访问以下网址:
http://www.oreilly.com
http://www.oreilly.com.cn
致谢
在本书写作期间,我仰赖于许多人的帮助,直接的或间接的。感谢Hadoop社区,我从中学到很多,这样的学习仍将继续。
特别感谢Michael Stack和Jonathan Gray,HBase这一章的内容就是他们写的。我还要感谢Adrian Woodhead,Marc de Palol,Joydeep Sen Sarma,Ashish Thusoo,Andrzej Białecki,Stu Hood,Chris K. Wensel和 Owen O’Malley,他们提供了学习实例。
感谢为草稿提出有用建议和改进建议的评审人:Raghu Angadi,Matt Biddulph,Christophe Bisciglia,Ryan Cox,Devaraj Das,Alex Dorman,Chris Douglas,Alan Gates,Lars George,Patrick Hunt,Aaron Kimball,Peter Krey,Hairong Kuang,Simon Maxen,Olga Natkovich,Benjamin Reed,Konstantin Shvachko,Allen Wittenauer,Matei Zaharia和 Philip Zeyliger。Ajay Anand组织本书的评审并使其顺利完成。Philip (“flip”) Komer帮助我获得了NCDC气温数据,使本书示例很有特色。特别感谢Owen O’Malley 和 Arun C. Murthy,他们为我清楚解释了MapReduce中shuffle的复杂过程。当然,如果有任何错误,得归咎于我。
对于第2版,我特别感谢 Jeff Bean,Doug Cutting,Glynn Durham,Alan Gates,Jeff Hammerbacher,Alex Kozlov,Ken Krugler,Jimmy Lin,Todd Lipcon,Sarah Sproehnle,Vinithra Varadharajan和Ian Wrigley,感谢他们仔细审阅本书,并提出宝贵的建议,同时也感谢对本书第1版提出勘误建议的读者。我也想感谢Aaron Kimball对Sqoop所做的贡献和Philip (“flip”)Kromer对图处理实例分析所做的贡献。
对于第3版,我想感谢Alejandro Abdelnur,Eva Andreasson,Eli Collins,Doug Cutting,Patrick Hunt,Aaron Kimball,Aaron T. Myers,Brock Noland,Arvind Prabhakar,Ahmed Radwan和Tom Wheeler,感谢他们的反馈意见和建议。Rob Weltman友善地对整本书提出了非常详细的反馈意见,这些意见和建议使得本书终稿的质量得以更上一层楼。此外,我还要向提交第2版勘误的所有读者表达最真挚的谢意。
对于第4版,我想感谢Jodok Batlogg,Meghan Blanchette,Ryan Blue,Jarek Jarcec Cecho,Jules Damji,Dennis Dawson,Matthew Gast,Karthik Kambatla,Julien Le Dem,Brock Noland,Sandy Ryza,Akshai Sarma,Ben Spivey,Michael Stack,Kate Ting,Josh Walter,Josh Wills和Adrian Woodhead,感谢他们所有人非常宝贵的审阅反馈。Ryan Brush,Micah Whitacre和Matt Massie kindly为第4版友情提供新的实例学习。再次感谢提交勘误的所有读者。
特别感谢Doug Cutting对我的鼓励、支持、友谊以及他为本书所写的序。
我还要感谢在本书写作期间以对话和邮件方式进行交流的其他人。
在本书第1版写到一半的时候,我加入了Cloudera,我想感谢我的同事,他们为我提供了大量的帮助和支持,使我有充足的时间好好写书,并能及时交稿。
非常感谢我的编辑Mike Loukides、Meghan Blanchette及其O’Reilly Media的同事,他们在本书的准备阶段为我提供了很多帮助。Mike和Meghan一直为我答疑解惑、审读我的初稿并帮助我如期完稿。
最后,写作是一项艰巨的任务,如果没有家人一如既往地支持,我是不可能完成这本的。我的妻子Eliane,她不仅操持着整个家庭,还协助我,参与本书的审稿、编辑和跟进案例学习。还有我的女儿Emilia和Lottie,她们一直都非常理解并支持我的工作,我期待有更多时间好好陪陪她们。
① 摘自“The science of fun”,网址为http://bit.ly/science_of_fun。此文2008年5月31日发表于《卫报》。
② 术语“大数据”在2013年被收入《牛津英语辞典》(Oxford English Dictionary),网址为http://bit.ly/6_13_oed_update。
目录
第Ⅰ部分 Hadoop基础知识第1章 初识Hadoop 31.1 数据!数据! 31.2 数据的存储与分析 51.3 查询所有数据 61.4 不仅仅是批处理 71.5 相较于其他系统的优势 81.5.1 关系型数据库管理系统 81.5.2 网格计算 101.5.3 志愿计算 111.6 Apache Hadoop发展简史 121.7 本书包含的内容 16第2章 关于MapReduce 192.1 气象数据集 192.2 使用Unix工具来分析数据 212.3 使用Hadoop来分析数据 222.3.1 map和reduce 232.3.2 Java MapReduce 242.4 横向扩展 312.4.1 数据流 312.4.2 combiner函数 352.4.3 运行分布式的MapReduce作业 372.5 Hadoop Streaming 372.5.1 Ruby版本 382.5.2 Python版本 40第3章 Hadoop分布式文件系统 423.1 HDFS的设计 423.2 HDFS的概念 443.2.1 数据块 443.2.2 namenode和datanode 453.2.3 块缓存 463.2.4 联邦HDFS 473.2.5 HDFS的高可用性 473.3 命令行接口 503.4 Hadoop文件系统 523.5 Java接口 563.5.1 从Hadoop URL读取数据 563.5.2 通过FileSystem API读取数据 583.5.3 写入数据 613.5.4 目录 633.5.5 查询文件系统 633.5.6 删除数据 683.6 数据流 683.6.1 剖析文件读取 683.6.2 剖析文件写入 713.6.3 一致模型 743.7 通过distcp并行复制 76第4章 关于YARN 784.1 剖析YARN应用运行机制 794.1.1 资源请求 804.1.2 应用生命期 814.1.3 构建YARN应用 814.2 YARN与MapReduce 1相比 824.3 YARN中的调度 854.3.1 调度选项 854.3.2 容量调度器配置 874.3.3 公平调度器配置 894.3.5 延迟调度 934.3.5 主导资源公平性 944.4 延伸阅读 95第5章 Hadoop的I/O操作 965.1 数据完整性 965.1.1 HDFS的数据完整性 975.1.2 LocalFileSystem 985.1.3 ChecksumFileSystem 985.2 压缩 995.2.1 codec 1005.2.2 压缩和输入分片 1055.2.3 在MapReduce中使用压缩 1065.3 序列化 1095.3.1 Writable接口 1105.3.2 Writable类 1125.3.3 实现定制的Writable集合 1215.3.4 序列化框架 1255.4 基于文件的数据结构 1275.4.1 关于SequenceFile 1275.4.2 关于MapFile 1355.4.3 其他文件格式和面向列的格式 136第Ⅱ部分 关于MapReduce第6章 MapReduce应用开发 1416.1 用于配置的API 1426.1.1 资源合并 1436.1.2 变量扩展 1446.2 配置开发环境 1446.2.1 管理配置 1466.2.2 辅助类GenericOptionsParser,Tool和ToolRunner 1496.3 用MRUnit来写单元测试 1526.3.1 关于Mapper 1526.3.2 关于Reducer 1566.4 本地运行测试数据 1566.4.1 在本地作业运行器上运行作业 1566.4.2 测试驱动程序 1586.5 在集群上运行 1606.5.1 打包作业 1606.5.2 启动作业 1626.5.3 MapReduce的Web界面 1656.5.4 获取结果 1676.5.5 作业调试 1686.5.6 Hadoop日志 1716.5.7 远程调试 1736.6 作业调优 1746.7 MapReduce的工作流 1766.7.1 将问题分解成MapReduce作业 1776.7.2 关于JobControl 1786.7.3 关于Apache Oozie 179第7章 MapReduce的工作机制 1847.1 剖析MapReduce作业运行机制 1847.1.1 作业的提交 1857.1.2 作业的初始化 1867.1.3 任务的分配 1877.1.4 任务的执行 1887.1.5 进度和状态的更新 1897.1.6 作业的完成 1917.2 失败 1917.2.1 任务运行失败 1917.2.2 application master运行失败 1937.2.3 节点管理器运行失败 1937.2.4 资源管理器运行失败 1947.3 shuffle和排序 1957.3.1 map端 1957.3.2 reduce端 1977.3.3 配置调优 1997.4 任务的执行 2017.4.1 任务执行环境 2017.4.2 推测执行 2027.4.3 关于OutputCommitters 204第8章 MapReduce的类型与格式 2078.1 MapReduce的类型 2078.1.1 默认的MapReduce作业 2128.1.2 默认的Streaming作业 2168.2 输入格式 2188.2.1 输入分片与记录 2188.2.2 文本输入 2298.2.3 二进制输入 2338.2.4 多个输入 2348.2.5 数据库输入(和输出) 2358.3 输出格式 2368.3.1 文本输出 2368.3.2 二进制输出 2378.3.3 多个输出 2378.3.4 延迟输出 2428.3.5 数据库输出 242第9章 MapReduce的特性 2439.1 计数器 2439.1.1 内置计数器 2439.1.2 用户定义的Java计数器 2489.1.3 用户定义的Streaming计数器 2519.2 排序 2529.2.1 准备 2529.2.2 部分排序 2539.2.3 全排序 2559.2.4 辅助排序 2599.3 连接 2649.3.1 map端连接 2669.3.2 reduce端连接 2669.4 边数据分布 2709.4.1 利用JobConf来配置作业 2709.4.2 分布式缓存 2709.5 MapReduce库类 276第Ⅲ部分 Hadoop的操作第10章 构建Hadoop集群 27910.1 集群规范 28010.1.1 集群规模 28110.1.2 网络拓扑 28210.2 集群的构建和安装 28410.2.1 安装Java 28410.2.2 创建Unix 用户账号 28410.2.3 安装Hadoop 28410.2.4 SSH配置 28510.2.5 配置Hadoop 28610.2.6 格式化HDFS 文件系统 28610.2.7 启动和停止守护进程 28610.2.8 创建用户目录 28810.3 Hadoop配置 28810.3.1 配置管理 28910.3.2 环境设置 29010.3.3 Hadoop守护进程的关键属性 29310.3.4 Hadoop守护进程的地址和端口 30010.3.5 Hadoop的其他属性 30310.4 安全性 30510.4.1 Kerberos和Hadoop 30610.4.2 委托令牌 30810.4.3 其他安全性改进 30910.5 利用基准评测程序测试Hadoop集群 31110.5.1 Hadoop基准评测程序 31110.5.2 用户作业 313第11章 管理Hadoop 31411.1 HDFS 31411.1.1 永久性数据结构 31411.1.2 安全模式 32011.1.3 日志审计 32211.1.4 工具 32211.2 监控 32711.2.1 日志 32711.2.2 度量和JMX(Java管理扩展) 32811.3 维护 32911.3.1 日常管理过程 32911.3.2 委任和解除节点 33111.3.3 升级 334第Ⅳ部分 Hadoop相关开源项目第12章 关于Avro 34112.1 Avro数据类型和模式 34212.2 内存中的序列化和反序列化特定API 34712.3 Avro数据文件 34912.4 互操作性 35112.4.1 Python API 35112.4.2 Avro工具集 35212.5 模式解析 35212.6 排列顺序 35412.7 关于Avro MapReduce 35612.8 使用Avro MapReduce进行排序 35912.9 其他语言的Avro 362第13章 关于Parquet 36313.1 数据模型 36413.2 Parquet文件格式 36713.3 Parquet的配置 36813.4 Parquet文件的读/写 36913.4.1 Avro、Protocol Buffers和Thrift 37113.4.2 投影模式和读取模式 37313.5 Parquet MapReduce 374第14章 关于Flume 37714.1 安装Flume 37814.2 示例 37814.3 事务和可靠性 38014.4 HDFS Sink 38214.5 扇出 38514.5.1 交付保证 38614.5.2 复制和复用选择器 38714.6 通过代理层分发 38714.7 Sink组 39114.8 Flume与应用程序的集成 39514.9 组件编目 39514.10 延伸阅读 397第15章 关于Sqoop 39815.1 获取Sqoop 39815.2 Sqoop连接器 40015.3 一个导入的例子 40115.4 生成代码 40415.5 深入了解数据库导入 40515.5.1 导入控制 40715.5.2 导入和一致性 40815.5.3 增量导入 40815.5.4 直接模式导入 40815.6 使用导入的数据 40915.7 导入大对象 41215.8 执行导出 41415.9 深入了解导出功能 41615.9.1 导出与事务 41715.9.2 导出和SequenceFile 41815.10 延伸阅读 419第16章 关于Pig 42016.1 安装与运行Pig 42116.1.1 执行类型 42216.1.2 运行Pig程序 42316.1.3 Grunt 42416.1.4 Pig Latin编辑器 42416.2 示例 42516.3 与数据库进行比较 42816.4 PigLatin 42916.4.1 结构 43016.4.2 语句 43116.4.3 表达式 43616.4.4 类型 43716.4.5 模式 43816.4.6 函数 44316.4.7 宏 44516.5 用户自定义函数 44616.5.1 过滤UDF 44716.5.2 计算UDF 45016.5.3 加载UDF 45216.6 数据处理操作 45516.6.1 数据的加载和存储 45516.6.2 数据的过滤 45516.6.3 数据的分组与连接 45816.6.4 数据的排序 46316.6.5 数据的组合和切分 46516.7 Pig实战 46516.7.1 并行处理 46516.7.2 匿名关系 46616.7.3 参数代换 46716.8 延伸阅读 468第17章 关于Hive 46917.1 安装Hive 470Hive的shell环境 47117.2 示例 47217.3 运行Hive 47317.3.1 配置Hive 47317.3.2 Hive服务 47617.3.3 Metastore 47817.4 Hive与传统数据库相比 48017.4.1 读时模式vs.写时模式 48017.4.2 更新、事务和索引 48117.4.3 其他SQL-on-Hadoop技术 48217.5 HiveQL 48317.5.1 数据类型 48417.5.2 操作与函数 48717.6 表 48817.6.1 托管表和外部表 48817.6.2 分区和桶 49017.6.3 存储格式 49417.6.4 导入数据 49817.6.5 表的修改 50017.6.6 表的丢弃 50117.7 查询数据 50117.7.1 排序和聚集 50117.7.2 MapReduce脚本 50217.7.3 连接 50317.7.4 子查询 50617.7.5 视图 50717.8 用户定义函数 50817.8.1 写UDF 51017.8.2 写UDAF 51217.9 延伸阅读 516第18章 关于Crunch 51718.1 示例 51818.2 Crunch核心API 52118.2.1 基本操作 52218.2.2 类型 52718.2.3 源和目标 53018.2.4 函数 53218.2.5 物化 53518.3 管线执行 53718.3.1 运行管线 53818.3.2 停止管线 53918.3.3 查看Crunch计划 54018.3.4 迭代算法 54318.3.5 给管线设置检查点 54418.4 Crunch库 54518.5 延伸阅读 547第19章 关于Spark 54819.1 安装Spark 54919.2 示例 54919.2.1 Spark应用、作业、阶段和任务 55119.2.2 Scala独立应用 55219.2.3 Java示例 55319.2.4 Python示例 55419.3 弹性分布式数据集 55519.3.1 创建 55519.3.2 转换和动作 55719.3.3 持久化 56119.3.4 序列化 56319.4 共享变量 56419.4.1 广播变量 56419.4.2 累加器 56519.5 剖析Spark作业运行机制 56519.5.1 作业提交 56619.5.2 DAG的构建 56619.5.3 任务调度 56919.5.4 任务执行 57019.6 执行器和集群管理器 57019.7 延伸阅读 574第20章 关于HBase 57520.1 HBase基础 57520.2 概念 57620.2.1 数据模型的“旋风之旅” 57620.2.2 实现 57820.3 安装 58120.4 客户端 58420.4.1 Java 58420.4.2 MapReduce 58820.4.3 REST和Thrift 58920.5 创建在线查询应用 58920.5.1 模式设计 59020.5.2 加载数据 59120.5.3 在线查询 59520.6 HBase和RDBMS的比较 59820.6.1 成功的服务 59920.6.2 HBase 60020.7 Praxis 60120.7.1 HDFS 60120.7.2 用户界面 60220.7.3 度量 60220.7.4 计数器 60220.8 延伸阅读 602第21章 关于ZooKeeper 60421.1 安装和运行ZooKeeper 60521.2 示例 60721.2.1 ZooKeeper中的组成员关系 60821.2.2 创建组 60821.2.3 加入组 61121.2.4 列出组成员 61221.2.5 删除组 61421.3 ZooKeeper服务 61521.3.1 数据模型 61521.3.2 操作 61821.3.3 实现 62221.3.4 一致性 62421.3.5 会话 62621.3.6 状态 62821.4 使用ZooKeeper来构建应用 62921.4.1 配置服务 62921.4.2 可复原的ZooKeeper应用 63321.4.3 锁服务 63721.4.4 更多分布式数据结构和协议 63921.5 生产环境中的ZooKeeper 64021.5.1 可恢复性和性能 64121.5.2 配置 642