欢迎光临本店     登录 注册   加入收藏
  •   
欢迎光临清华大学出版社第三事业部!

此页面上的内容需要较新版本的 Adobe Flash Player。

获取 Adobe Flash Player

当前位置: 首页 > 外版图书 > 数据处理 > Hadoop权威指南:大数据的存储与分析(第4版)

浏览历史

Hadoop权威指南:大数据的存储与分析(第4版)

Hadoop权威指南:大数据的存储与分析(第4版)

  • 商品货号:20171024015
  • 商品重量:0克
    作者:(美)汤姆•怀特(Tom White)著;王海,华东,刘喻,吕粤海译.
    出版社:清华大学出版社
    图书书号/ISBN:978-7-302-46513-3
    出版日期:20170701
    开本:16开
    图书页数:732
    图书装订:平装
    版次:4
    印张:45.75
    字数:594000
    所属分类:TP274-62
  • 上架时间:2017-10-24
    商品点击数:20313
  • 定价:¥148.00元
    本店售价:¥148.00元
    注册用户:¥148.00元
    vip:¥140.60元
    黄金等级:¥133.20元
    用户评价: comment rank 5
  • 商品总价:
  • 购买数量:

内容简介:

商品附加资源

 内容简介

本书结合理论和实践,由浅入深,全方位介绍了Hadoop这一高性能的海量数据处理和分析平台。全书5部分24章,第Ⅰ部分介绍Hadoop基础知识,主题涉及HadoopMapReduceHadoop分布式文件系统、YARNHadoopI/O操作。第Ⅱ部分介绍MapReduce,主题包括MapReduce应用开发;MapReduce的工作机制、MapReduce的类型与格式、MapReduce的特性。第Ⅲ部分介绍Hadoop的运维,主题涉及构建Hadoop集群、管理Hadoop。第Ⅳ部分介绍Hadoop相关开源项目,主题涉及AvroParquetFlumeSqoopPigHiveCrunchSparkHBaseZooKeeper。第Ⅴ部分提供了三个案例,分别来自医疗卫生信息技术服务商塞纳(Cerner)、微软的人工智能项目ADAM(一种大规模分布式深度学习框架)和开源项目Cascading(一个新的针对MapReduce的数据处理API)

本书是一本权威、全面的Hadoop参考书和工具书,阐述了Hadoop生态圈的最新发展和应用,程序员可以从中探索海量数据集的存储和分析,管理员可以从中了解Hadoop集群的安装和运维。

前言

 

 

数学科普作家马丁·加德纳(Martin Gardner)曾经在一次采访中谈到:

“在我的世界里,只有微积分。这是我的专栏取得成功的奥秘。我花了很多时间才明白如何以大多数读者都能明白的方式将自己所知道的东西娓娓道来。” ①

这也是我对Hadoop的诸多感受。它的内部工作机制非常复杂,是一个集分布式系统理论、实际工程和常识于一体的系统。而且,对门外汉而言,Hadoop更像是“天外来客”。

但Hadoop其实并没有那么让人费解,抽丝剥茧,我们来看看它的“庐山真面目”。Hadoop提供的用于处理大数据的工具都非常简单。如果说这些工具有一个共同的主题,那就是它们更抽象,为(有大量数据需要存储和分析却没有足够的时间、技能或者不想成为分布式系统专家的)程序员提供一套组件,使其能够利用Hadoop来构建一个处理数据的基础平台。

这样一个简单、通用的特性集,促使我在开始使用Hadoop时便明显感觉到Hadoop真的值得推广。但最开始的时候(2006年初),安装、配置和Hadoop应用编程是一门高深的艺术。之后,情况确实有所改善:文档增多了;示例增多了;碰到问题时,可以向大量活跃的邮件列表发邮件求助。对新手而言,最大的障碍是理解Hadoop有哪些能耐,它擅长什么,它如何使用。这些问题使我萌发了写作本书的动机。

Apache Hadoop社区的发展来之不易。从本书的第1版发行以来,Hadoop项目如雨后春笋般发展兴旺。“大数据”已成为大家耳熟能详的名词术语。②当前,软件在可用性、性能、可靠性、可扩展性和可管理性方面都实现了巨大的飞跃。在Hadoop平台上搭建和运行的应用增长迅猛。事实上,对任何一个人来说,跟踪这些发展动向都很困难。但为了让更多的人采用Hadoop,我认为我们要让Hadoop更好用。这需要创建更多新的工具,集成更多的系统,创建新的增强型API。我希望自己能够参与,同时也希望本书能够鼓励并吸引其他人也参与Hadoop项目。

说明

在文中讨论特定的Java类时,我常常会忽略包的名称以免啰嗦杂乱。如果想知道一个类在哪个包内,可以查阅Hadoop或相关项目的Java API 文档(Apache Hadoop主页http://hadoop.apache.org上有链接可以访问)。如果使用IDE编程,其自动补全机制(也称“自动完成机制”)能够帮助你找到你需要的东西。

与此类似,尽管偏离传统的编码规范,但如果要导入同一个包的多个类,程序可以使用星号通配符来节省空间(例如import org.apache.hadoop. io.*)。

本书中的示例代码可以从本书网站下载,网址为http://www.hadoopbook.com/。可以根据网页上的指示获取本书示例所用的数据集以及运行本书示例的详细说明、更新链接、额外的资源与我的博客。

第4版新增内容

第4版的主题是Hadoop 2。Hadoop 2系列发行版本是当前应用最活跃的系列,且包含Hadoop的最稳定的版本。

第4版新增的章节包括YARN(第4章)、Parquet(第13章)、Flume(第14章)、Crunch(第18章)和Spark(第19章)。此外,为了帮助读者更方便地阅读本书,第1章新增了一节“本书包含的内容”(参见1.7节)。

第4版包括两个新的实例学习(第22章和第23章):一个是关于Hadoop如何应用于医疗健康系统,另一个是关于将Hadoop技术如何应用于基因数据处理。旧版本中的实例学习可以在线查到,网址为http:/bit.ly/hadoop_tdg_prev。

为了和Hadoop最新发行版本及其相关项目同步,第4版对原有章节进行了修订、更新和优化。

第3版新增内容

第3版概述Apache Hadoop 1.x(以前的0.20)系列发行版本,以及新近的0.22和2.x(以前的0.23)系列。除了少部分(文中有说明)例外,本书包含的所有范例都在这些版本上运行过。

第3版的大部分范例代码都使用了新的MapReduce API。因为旧的API仍然应用很广,所以文中在讨论新的API时我们还会继续讨论它,使用旧API的对应范例代码可以到本书的配套网站下载。

Hadoop 2.0最主要的变化是新增的MapReduce运行时MapReduce 2,它建立在一个新的分布式资源管理系统之上,该系统称为YARN。针对建立在YARN之上的MapReduce,第3版增加了相关的介绍,包括它的工作机制(第7章)及如何运行(第10章)。

第3版还增加了更多对MapReduce的介绍,包括丰富的开发实践,比如用Maven打包MapReduce作业,设置用户的Java类路径,用MRUnit写测试等(这些内容都请参见第6章)。第3版还深入介绍了一些特性,如输出committer和分布式缓存(第9章),任务内存监控(第10章)。第3版还新增了两小节内容,一节是关于如何写MapReduce作业来处理Avro数据(参见第12章),另一节是关于如何在Oozie中运行一个简单的MapReduce工作流(参见第6章)。

关于HDFS的章节(第3章),新增了对高可用性、联邦HDFS、新的WebHDFS和HttpFS文件系统的介绍。

对Pig,Hive,Sqoop和ZooKeeper的相关介绍,第3版全部进行了相应的扩展,广泛介绍其最新发行版本中的新特性和变化。

此外,第3版还对第2版进行了彻底的更新、修订和优化。

 

第2版新增内容

《Hadoop权威指南》(第2版)新增两章内容,分别介绍Sqoop和Hive(第15章和第17章),新增一个小节专门介绍Avro(参见第12章),补充了关于Hadoop新增安全特性的介绍(参见第10章)以及一个介绍如何使用Hadoop来分析海量网络图的新实例分析。

第2版继续介绍Apache Hadoop 0.20系列发行版本,因为当时最新、最稳定的发行版本。书中有时会提到一些最新发行版本中的一些新特性,但在首次介绍这些特性时,有说明具体的Hadoop版本号。

本书采用的约定

本书采用以下排版约定。

斜体

用于表明新的术语、URL、电子邮件地址、文件名和文件扩展名。

等宽字体Consolas

用于程序清单,在正文段落中出现的程序元素(如变量或函数名)、数据库、数据类型、环境变量、语句和关键字也采用这样的字体。

等宽字体Consolas+加粗

用于显示命令或应该由用户键入的其他文本。

等宽字体Consolas+斜体

表明这里的文本需要替换为用户提供的值或其他由上下文确定的值。

 

这个图标表示通用的说明。

 

 

这个图标表示重要的指示或建议。

 

 

这个图标表示警告或需要注意的问题。

 

示例代码的使用

本书的补充材料(代码、示例及练习等)可以从本书网站(http://www.hadoopbook.com)或GitHub(https://github.com/tomwhite/hadoop-book/)下载。

本书的目的是帮助读者完成工作。通常情况下,可以在你的程序或文档中使用本书中给出的代码。不必联系我们获得代码使用授权,除非你需要使用大量的代码。例如,在写程序的时候引用几段代码不需要向我们申请许可。但以光盘方式销售或重新发行O’Reilly书中的示例的确需要获得许可。引用本书或引用本书中的示例代码来回答问题也不需要申请许可。但是,如果要将本书中的大量范例代码加入你的产品文档,则需要申请许可。

我们欣赏你在引用时注明出处,但不强求。引用通常包括书名、作者、出版社和ISBN,如“Hadoop: The Definitive Guide, Fourth Edition, by Tom White(O’Reilly).Copyright  2015 Tom White,978-1-491-90163-2”。

如果觉得使用示例代码的情况不属于前面列出的合理使用或许可范围,请通过电子邮件联系我们,邮箱地址为permissions@oreilly.com。

Safari Books Online

Safari Books Online(www.safaribooksonline.com)是一个按需定制的数字图书馆,以图书和视频的形式提供全球技术领   域和经管领域内知名作者的专业作品。

专业技术人员、软件开发人员、网页设计人员、商务人员和创意专家将Safari Books Online用作自己开展研究、解决问题、学习和完成资格认证培训的重要来源。

Safari Books Online为企业、政府部门、教育机构和个人提供广泛、灵活的计划和定价。

在这里,成员们通过一个可以全文检索的数据库中就能够访问数千种图书、培训视频和正式出版之前的书稿,这些内容提供商有O'Reilly Media、Prentice Hall Professional、Addison-Wesley Professional、Microsoft Press、Sams、Que、Peachpit Press、Focal Press、Cisco Press、John Wiley & Sons、Syngress、Morgan Kaufmann、IBM Redbooks、Packt、Adobe Press、FT Press、Apress、Manning、New Riders、McGraw-Hill、Jones & Bartlett、Course Technology及其他上百家出版社。欢迎访问Safari Books Online,了解更多详情。 

联系我们

对于本书,如果有任何意见或疑问,请通过以下地址联系出版商:

 

  美国:

O’Reilly Media, Inc.

1005 Gravenstein Highway North

Sebastopol, CA 95472

中国:

北京市西城区西直门南大街2号成铭大厦C座807室(100035)

奥莱利技术咨询(北京)有限公司

本书也有相关的网页,我们在上面列出了勘误表、范例以及其他一些信息。网址如下:

http://bit.ly/hadoop_tdg_4e(英文版)

http://www.oreilly.com.cn/book.php?bn=978-7-302-46513-3(中文版)

 

对本书做出评论或者询问技术问题,请发送E-mail至以下邮箱:

  bookquestions@oreilly.com

 

如果希望获得关于本书、会议、资源中心和O’Reilly的更多信息,请访问以下网址:

http://www.oreilly.com

http://www.oreilly.com.cn 

 

致谢

在本书写作期间,我仰赖于许多人的帮助,直接的或间接的。感谢Hadoop社区,我从中学到很多,这样的学习仍将继续。

特别感谢Michael Stack和Jonathan Gray,HBase这一章的内容就是他们写的。我还要感谢Adrian Woodhead,Marc de Palol,Joydeep Sen Sarma,Ashish Thusoo,Andrzej Białecki,Stu Hood,Chris K. Wensel和 Owen O’Malley,他们提供了学习实例。

感谢为草稿提出有用建议和改进建议的评审人:Raghu Angadi,Matt Biddulph,Christophe Bisciglia,Ryan Cox,Devaraj Das,Alex Dorman,Chris Douglas,Alan Gates,Lars George,Patrick Hunt,Aaron Kimball,Peter Krey,Hairong Kuang,Simon Maxen,Olga Natkovich,Benjamin Reed,Konstantin Shvachko,Allen Wittenauer,Matei Zaharia和 Philip Zeyliger。Ajay Anand组织本书的评审并使其顺利完成。Philip (“flip”) Komer帮助我获得了NCDC气温数据,使本书示例很有特色。特别感谢Owen O’Malley 和 Arun C. Murthy,他们为我清楚解释了MapReduce中shuffle的复杂过程。当然,如果有任何错误,得归咎于我。

对于第2版,我特别感谢 Jeff Bean,Doug Cutting,Glynn Durham,Alan Gates,Jeff Hammerbacher,Alex Kozlov,Ken Krugler,Jimmy Lin,Todd Lipcon,Sarah Sproehnle,Vinithra Varadharajan和Ian Wrigley,感谢他们仔细审阅本书,并提出宝贵的建议,同时也感谢对本书第1版提出勘误建议的读者。我也想感谢Aaron Kimball对Sqoop所做的贡献和Philip (“flip”)Kromer对图处理实例分析所做的贡献。

对于第3版,我想感谢Alejandro Abdelnur,Eva Andreasson,Eli Collins,Doug Cutting,Patrick Hunt,Aaron Kimball,Aaron T. Myers,Brock Noland,Arvind Prabhakar,Ahmed Radwan和Tom Wheeler,感谢他们的反馈意见和建议。Rob Weltman友善地对整本书提出了非常详细的反馈意见,这些意见和建议使得本书终稿的质量得以更上一层楼。此外,我还要向提交第2版勘误的所有读者表达最真挚的谢意。

 

对于第4版,我想感谢Jodok Batlogg,Meghan Blanchette,Ryan Blue,Jarek Jarcec Cecho,Jules Damji,Dennis Dawson,Matthew Gast,Karthik Kambatla,Julien Le Dem,Brock Noland,Sandy Ryza,Akshai Sarma,Ben Spivey,Michael Stack,Kate Ting,Josh Walter,Josh Wills和Adrian Woodhead,感谢他们所有人非常宝贵的审阅反馈。Ryan Brush,Micah Whitacre和Matt Massie kindly为第4版友情提供新的实例学习。再次感谢提交勘误的所有读者。

特别感谢Doug Cutting对我的鼓励、支持、友谊以及他为本书所写的序。

我还要感谢在本书写作期间以对话和邮件方式进行交流的其他人。

在本书第1版写到一半的时候,我加入了Cloudera,我想感谢我的同事,他们为我提供了大量的帮助和支持,使我有充足的时间好好写书,并能及时交稿。

非常感谢我的编辑Mike Loukides、Meghan Blanchette及其O’Reilly Media的同事,他们在本书的准备阶段为我提供了很多帮助。Mike和Meghan一直为我答疑解惑、审读我的初稿并帮助我如期完稿。

最后,写作是一项艰巨的任务,如果没有家人一如既往地支持,我是不可能完成这本的。我的妻子Eliane,她不仅操持着整个家庭,还协助我,参与本书的审稿、编辑和跟进案例学习。还有我的女儿Emilia和Lottie,她们一直都非常理解并支持我的工作,我期待有更多时间好好陪陪她们。

① 摘自“The science of fun”,网址为http://bit.ly/science_of_fun。此文2008年5月31日发表于《卫报》。

 

② 术语“大数据”在2013年被收入《牛津英语辞典》(Oxford English Dictionary),网址为http://bit.ly/6_13_oed_update。

目录

 
第Ⅰ部分  Hadoop基础知识
 
第1章  初识Hadoop 3
1.1  数据!数据! 3
1.2  数据的存储与分析 5
1.3  查询所有数据 6
1.4  不仅仅是批处理 7
1.5  相较于其他系统的优势 8
1.5.1  关系型数据库管理系统 8
1.5.2  网格计算 10
1.5.3  志愿计算 11
1.6  Apache Hadoop发展简史 12
1.7  本书包含的内容 16
第2章  关于MapReduce 19
2.1  气象数据集 19
2.2  使用Unix工具来分析数据 21
2.3  使用Hadoop来分析数据 22
2.3.1  map和reduce 23
2.3.2  Java MapReduce 24
2.4  横向扩展 31
2.4.1  数据流 31
2.4.2  combiner函数 35
2.4.3  运行分布式的
MapReduce作业 37
2.5  Hadoop Streaming 37
2.5.1  Ruby版本 38
2.5.2  Python版本 40
第3章  Hadoop分布式文件系统 42
3.1  HDFS的设计 42
3.2  HDFS的概念 44
3.2.1  数据块 44
 
3.2.2  namenode和datanode 45
3.2.3  块缓存 46
3.2.4  联邦HDFS 47
3.2.5  HDFS的高可用性 47
3.3  命令行接口 50
3.4  Hadoop文件系统 52
3.5  Java接口 56
3.5.1  从Hadoop URL读取
数据 56
3.5.2  通过FileSystem API
读取数据 58
3.5.3  写入数据 61
3.5.4  目录 63
3.5.5  查询文件系统 63
3.5.6  删除数据 68
3.6  数据流 68
3.6.1  剖析文件读取 68
3.6.2  剖析文件写入 71
3.6.3  一致模型 74
3.7  通过distcp并行复制 76
第4章  关于YARN 78
4.1  剖析YARN应用运行机制 79
4.1.1  资源请求 80
4.1.2  应用生命期 81
4.1.3  构建YARN应用 81
4.2  YARN与MapReduce 1相比 82
4.3  YARN中的调度 85
4.3.1  调度选项 85
4.3.2  容量调度器配置 87
4.3.3  公平调度器配置 89
4.3.5  延迟调度 93
4.3.5  主导资源公平性 94
4.4  延伸阅读 95
第5章  Hadoop的I/O操作 96
5.1  数据完整性 96
5.1.1  HDFS的数据完整性 97
5.1.2  LocalFileSystem 98
5.1.3  ChecksumFileSystem 98
5.2  压缩 99
5.2.1  codec 100
5.2.2  压缩和输入分片 105
 
5.2.3  在MapReduce中使用
压缩 106
5.3  序列化 109
5.3.1  Writable接口 110
5.3.2  Writable类 112
5.3.3  实现定制的Writable
集合 121
5.3.4  序列化框架 125
5.4  基于文件的数据结构 127
5.4.1  关于SequenceFile 127
5.4.2  关于MapFile 135
5.4.3  其他文件格式和
面向列的格式 136
 
第Ⅱ部分  关于MapReduce
 
第6章  MapReduce应用开发 141
6.1  用于配置的API 142
6.1.1  资源合并 143
6.1.2  变量扩展 144
6.2  配置开发环境 144
6.2.1  管理配置 146
6.2.2  辅助类GenericOptionsParser,
Tool和ToolRunner 149
6.3  用MRUnit来写单元测试 152
6.3.1  关于Mapper 152
6.3.2  关于Reducer 156
6.4  本地运行测试数据 156
6.4.1  在本地作业运行器上
运行作业 156
6.4.2  测试驱动程序 158
6.5  在集群上运行 160
6.5.1  打包作业 160
6.5.2  启动作业 162
6.5.3  MapReduce的Web
界面 165
6.5.4  获取结果 167
6.5.5  作业调试 168
6.5.6  Hadoop日志 171
6.5.7  远程调试 173
6.6  作业调优 174
6.7  MapReduce的工作流 176
6.7.1  将问题分解成
MapReduce作业 177
6.7.2  关于JobControl 178
6.7.3  关于Apache Oozie 179
第7章  MapReduce的工作机制 184
7.1  剖析MapReduce作业运行
机制 184
7.1.1  作业的提交 185
7.1.2  作业的初始化 186
7.1.3  任务的分配 187
7.1.4  任务的执行 188
7.1.5  进度和状态的更新 189
7.1.6  作业的完成 191
7.2  失败 191
7.2.1  任务运行失败 191
7.2.2  application master
运行失败 193
7.2.3  节点管理器运行失败 193
7.2.4  资源管理器运行失败 194
7.3  shuffle和排序 195
7.3.1  map端 195
7.3.2  reduce端 197
7.3.3  配置调优 199
7.4  任务的执行 201
7.4.1  任务执行环境 201
7.4.2  推测执行 202
7.4.3  关于
OutputCommitters 204
第8章  MapReduce的
类型与格式 207
8.1  MapReduce的类型 207
8.1.1  默认的MapReduce
作业 212
8.1.2  默认的Streaming
作业 216
8.2  输入格式 218
8.2.1  输入分片与记录 218
8.2.2  文本输入 229
8.2.3  二进制输入 233
8.2.4  多个输入 234
8.2.5  数据库输入(和输出) 235
8.3  输出格式 236
8.3.1  文本输出 236
8.3.2  二进制输出 237
8.3.3  多个输出 237
8.3.4  延迟输出 242
8.3.5  数据库输出 242
第9章  MapReduce的特性 243
9.1  计数器 243
9.1.1  内置计数器 243
9.1.2  用户定义的Java
计数器 248
9.1.3  用户定义的Streaming
计数器 251
9.2  排序 252
9.2.1  准备 252
9.2.2  部分排序 253
9.2.3  全排序 255
9.2.4  辅助排序 259
9.3  连接 264
9.3.1  map端连接 266
9.3.2  reduce端连接 266
9.4  边数据分布 270
9.4.1  利用JobConf来配置
作业 270
9.4.2  分布式缓存 270
9.5  MapReduce库类 276
 
第Ⅲ部分  Hadoop的操作
 
第10章  构建Hadoop集群 279
10.1  集群规范 280
10.1.1  集群规模 281
10.1.2  网络拓扑 282
10.2  集群的构建和安装 284
10.2.1  安装Java 284
10.2.2  创建Unix 用户账号 284
10.2.3  安装Hadoop 284
10.2.4  SSH配置 285
10.2.5  配置Hadoop 286
10.2.6  格式化HDFS 文件
系统 286
10.2.7  启动和停止守护
进程 286
10.2.8  创建用户目录 288
10.3  Hadoop配置 288
10.3.1  配置管理 289
10.3.2  环境设置 290
10.3.3  Hadoop守护进程的
关键属性 293
10.3.4  Hadoop守护进程的
地址和端口 300
10.3.5  Hadoop的其他属性 303
10.4  安全性 305
10.4.1  Kerberos和Hadoop 306
10.4.2  委托令牌 308
10.4.3  其他安全性改进 309
10.5  利用基准评测程序测试
Hadoop集群 311
10.5.1  Hadoop基准评测
程序 311
10.5.2  用户作业 313
第11章  管理Hadoop 314
11.1  HDFS 314
11.1.1  永久性数据结构 314
11.1.2  安全模式 320
 
11.1.3  日志审计 322
11.1.4  工具 322
11.2  监控 327
11.2.1  日志 327
11.2.2  度量和JMX(Java
管理扩展) 328
11.3  维护 329
11.3.1  日常管理过程 329
11.3.2  委任和解除节点 331
11.3.3  升级 334
 
第Ⅳ部分  Hadoop相关开源项目
 
第12章  关于Avro 341
12.1  Avro数据类型和模式 342
12.2  内存中的序列化和
反序列化特定API 347
12.3  Avro数据文件 349
12.4  互操作性 351
12.4.1  Python API 351
12.4.2  Avro工具集 352
12.5  模式解析 352
12.6  排列顺序 354
12.7  关于Avro MapReduce 356
12.8  使用Avro MapReduce
进行排序 359
12.9  其他语言的Avro 362
第13章  关于Parquet 363
13.1  数据模型 364
13.2  Parquet文件格式 367
13.3  Parquet的配置 368
13.4  Parquet文件的读/写 369
13.4.1  Avro、Protocol Buffers
和Thrift 371
13.4.2  投影模式和读取
模式 373
13.5  Parquet MapReduce 374
第14章  关于Flume 377
14.1  安装Flume 378
14.2  示例 378
14.3  事务和可靠性 380
14.4  HDFS Sink 382
14.5  扇出 385
14.5.1  交付保证 386
14.5.2  复制和复用选择器 387
14.6  通过代理层分发 387
14.7  Sink组 391
14.8  Flume与应用程序的集成 395
14.9  组件编目 395
14.10  延伸阅读 397
第15章  关于Sqoop 398
15.1  获取Sqoop 398
15.2  Sqoop连接器 400
15.3  一个导入的例子 401
15.4  生成代码 404
15.5  深入了解数据库导入 405
15.5.1  导入控制 407
15.5.2  导入和一致性 408
15.5.3  增量导入 408
15.5.4  直接模式导入 408
15.6  使用导入的数据 409
15.7  导入大对象 412
15.8  执行导出 414
15.9  深入了解导出功能 416
15.9.1  导出与事务 417
15.9.2  导出和SequenceFile 418
15.10  延伸阅读 419
第16章  关于Pig 420
16.1  安装与运行Pig 421
16.1.1  执行类型 422
16.1.2  运行Pig程序 423
16.1.3  Grunt 424
16.1.4  Pig Latin编辑器 424
16.2  示例 425
16.3  与数据库进行比较 428
16.4  PigLatin 429
16.4.1  结构 430
16.4.2  语句 431
16.4.3  表达式 436
16.4.4  类型 437
16.4.5  模式 438
16.4.6  函数 443
16.4.7  宏 445
16.5  用户自定义函数 446
16.5.1  过滤UDF 447
16.5.2  计算UDF 450
16.5.3  加载UDF 452
16.6  数据处理操作 455
16.6.1  数据的加载和存储 455
16.6.2  数据的过滤 455
16.6.3  数据的分组与连接 458
16.6.4  数据的排序 463
16.6.5  数据的组合和切分 465
16.7  Pig实战 465
16.7.1  并行处理 465
16.7.2  匿名关系 466
16.7.3  参数代换 467
16.8  延伸阅读 468
第17章  关于Hive 469
17.1  安装Hive 470
Hive的shell环境 471
17.2  示例 472
17.3  运行Hive 473
17.3.1  配置Hive 473
17.3.2  Hive服务 476
17.3.3  Metastore 478
17.4  Hive与传统数据库相比 480
17.4.1  读时模式vs.写时
模式 480
17.4.2  更新、事务和索引 481
17.4.3  其他SQL-on-Hadoop
技术 482
17.5  HiveQL 483
17.5.1  数据类型 484
17.5.2  操作与函数 487
17.6  表 488
17.6.1  托管表和外部表 488
17.6.2  分区和桶 490
17.6.3  存储格式 494
17.6.4  导入数据 498
17.6.5  表的修改 500
17.6.6  表的丢弃 501
17.7  查询数据 501
17.7.1  排序和聚集 501
17.7.2  MapReduce脚本 502
17.7.3  连接 503
17.7.4  子查询 506
17.7.5  视图 507
17.8  用户定义函数 508
17.8.1  写UDF 510
17.8.2  写UDAF 512
17.9  延伸阅读 516
第18章  关于Crunch 517
18.1  示例 518
18.2  Crunch核心API 521
18.2.1  基本操作 522
18.2.2  类型 527
18.2.3  源和目标 530
18.2.4  函数 532
18.2.5  物化 535
18.3  管线执行 537
18.3.1  运行管线 538
18.3.2  停止管线 539
18.3.3  查看Crunch计划 540
18.3.4  迭代算法 543
18.3.5  给管线设置检查点 544
18.4  Crunch库 545
18.5  延伸阅读 547
第19章  关于Spark 548
19.1  安装Spark 549
19.2  示例 549
19.2.1  Spark应用、作业、
阶段和任务 551
19.2.2  Scala独立应用 552
19.2.3  Java示例 553
19.2.4  Python示例 554
19.3  弹性分布式数据集 555
19.3.1  创建 555
19.3.2  转换和动作 557
19.3.3  持久化 561
19.3.4  序列化 563
19.4  共享变量 564
19.4.1  广播变量 564
19.4.2  累加器 565
19.5  剖析Spark作业运行机制 565
19.5.1  作业提交 566
19.5.2  DAG的构建 566
19.5.3  任务调度 569
19.5.4  任务执行 570
19.6  执行器和集群管理器 570
19.7  延伸阅读 574
第20章  关于HBase 575
20.1  HBase基础 575
20.2  概念 576
20.2.1  数据模型的
“旋风之旅” 576
20.2.2  实现 578
20.3  安装 581
20.4  客户端 584
20.4.1  Java 584
20.4.2  MapReduce 588
20.4.3  REST和Thrift 589
20.5  创建在线查询应用 589
20.5.1  模式设计 590
20.5.2  加载数据 591
20.5.3  在线查询 595
20.6  HBase和RDBMS的比较 598
20.6.1  成功的服务 599
20.6.2  HBase 600
20.7  Praxis 601
20.7.1  HDFS 601
20.7.2  用户界面 602
20.7.3  度量 602
20.7.4  计数器 602
20.8  延伸阅读 602
第21章  关于ZooKeeper 604
21.1  安装和运行ZooKeeper 605
21.2  示例 607
21.2.1  ZooKeeper中的
组成员关系 608
21.2.2  创建组 608
21.2.3  加入组 611
21.2.4  列出组成员 612
21.2.5  删除组 614
21.3  ZooKeeper服务 615
21.3.1  数据模型 615
21.3.2  操作 618
21.3.3  实现 622
21.3.4  一致性 624
21.3.5  会话 626
21.3.6  状态 628
21.4  使用ZooKeeper来构建
应用 629
21.4.1  配置服务 629
21.4.2  可复原的ZooKeeper
应用 633
21.4.3  锁服务 637
 
21.4.4  更多分布式数据
结构和协议 639
21.5  生产环境中的ZooKeeper 640
21.5.1  可恢复性和性能 641
21.5.2  配置 642

商品标签

购买记录(近期成交数量0)

还没有人购买过此商品
总计 0 个记录,共 1 页。 第一页 上一页 下一页 最末页

用户评论(共0条评论)

  • 暂时还没有任何用户评论
总计 0 个记录,共 1 页。 第一页 上一页 下一页 最末页
用户名: 匿名用户
E-mail:
评价等级:
评论内容:
验证码: captcha