欢迎光临本店     登录 注册   加入收藏
  •   
欢迎光临清华大学出版社第三事业部!

此页面上的内容需要较新版本的 Adobe Flash Player。

获取 Adobe Flash Player

当前位置: 首页 > 科技 > 计算机与网络 > 网络与通信 > 自己动手写网络爬虫(修订版)

浏览历史

自己动手写网络爬虫(修订版)

自己动手写网络爬虫(修订版)

  • 商品货号:20170424028
  • 商品重量:0克
    作者:罗刚
    出版社:清华大学出版社
    图书书号/ISBN:9787302442646
    出版日期:20160501
    开本:16开
    图书页数:352
    图书装订:平装
    版次:2
    印张:22
    字数:535000
    所属分类:TP312
  • 上架时间:2017-04-24
    商品点击数:834
  • 定价:¥49.00元
    本店售价:¥49.00元
    注册用户:¥49.00元
    vip:¥46.55元
    黄金等级:¥44.10元
    用户评价: comment rank 5
  • 商品总价:
  • 购买数量:

内容简介:

商品附加资源

 内容简介

本书介绍了网络爬虫开发中的关键问题与Java实现。主要包括从互联网获取信息与提取信息和对Web信息挖掘等内容。本书在介绍基本原理的同时注重辅以具体代码实现来帮助读者加深理解,书中部分代码甚至可以直接使用。

本书适用于有Java程序设计基础的开发人员。同时也可以作为计算机相关专业本科生或研究生的参考教程。

前    言

  

  当你在网上冲浪时,你是否知道还有一类特殊的网络用户也在互联网上默默地工作着,它们就是网络爬虫。这些网络爬虫按照设计者预定的方式,在网络中穿梭,同时自动收集有用的信息,进行分类和整理,将整理结果提供给用户,以方便用户查找他们感兴趣的内容。由于网络爬虫的实用性,引起了很多程序员,特别是Web程序员的兴趣。

  但是大多数网络爬虫的开发原理与技巧在专业的公司内部都秘而不宣,至今仍然缺少理论与实践相结合的专门介绍网络爬虫的书籍。本书尝试理论与实践相结合,深入透彻地讲解网络爬虫的原理,并且辅以相关代码作为参考。本书相关的代码在附带光盘中可以找到。

  本书的两位主要作者在搜索引擎领域都有丰富的理论和实践经验。同时,还有多个程序员帮忙开发或编写了代码实现,例如Java实现异步I/O或对PDF文件的处理等。由于作者的日常工作繁忙,做得不够的地方敬请谅解。

  作者罗刚在参加编写本书之前,还合作撰写过《解密搜索引擎技术实战》一书,但存在讲解不够细致、知识点不够深入等问题。此次修订,对一些过时的内容进行了更新。

  本书从基本的爬虫原理开始讲解,通过介绍优先级队列、宽度优先搜索等内容引领读者入门;之后根据当前风起云涌的云计算热潮,重点讲述了云计算的相关内容及其在爬虫中的应用,以及带偏好的爬虫、信息抽取、链接分析等内容;为了能够让读者更深入地了解爬虫,本书在最后两章还介绍了有关爬虫的数据挖掘等内容。

  由于搜索引擎相关领域也正在快速发展中,而且由于篇幅的限制,有些不成熟的内容,没有能够在本书体现,例如有关"暗网"的内容。随着技术的不断发展,我们将在今后的版本中加入这些内容。

  本书适合需要具体实现网络爬虫的程序员使用,对于信息检索等相关研究人员也有一定的参考价值,同时猎兔搜索技术团队也已经开发出以本书为基础的专门培训课程和商业软件。目前的一些网络爬虫软件仍然有很多功能有待实现,作者真诚地希望通过本书把读者带入网络爬虫开发的大门并认识更多的朋友。

  感谢开源软件和我们的家人、关心我们的老师和朋友、创业伙伴以及选择猎兔搜索软件的客户多年来的支持。

         

 

     编 者  

目    录

第1篇  自己动手抓取数据
 
第1章  全面剖析网络爬虫 3
1.1  抓取网页 4
1.1.1  深入理解URL 4
1.1.2  通过指定的URL抓取
网页内容 6
1.1.3  Java网页抓取示例 8
1.1.4  处理HTTP状态码 10
1.2  宽度优先爬虫和带偏好的爬虫 12
1.2.1  图的宽度优先遍历 12
1.2.2  宽度优先遍历互联网 13
1.2.3  Java宽度优先爬虫示例 15
1.2.4  带偏好的爬虫 22
1.2.5  Java带偏好的爬虫示例 23
1.3  设计爬虫队列 24
1.3.1  爬虫队列 24
1.3.2  使用Berkeley DB构建爬虫
队列 29
1.3.3  使用Berkeley DB 构建爬虫
队列示例 30
1.3.4  使用布隆过滤器构建
Visited表 36
1.3.5  详解Heritrix爬虫队列 39
1.4  设计爬虫架构 46
1.4.1  爬虫架构 46
1.4.2  设计并行爬虫架构 47
1.4.3  详解Heritrix爬虫架构 52
1.5  使用多线程技术提升爬虫性能 55
1.5.1  详解Java多线程 55
1.5.2  爬虫中的多线程 59
1.5.3  一个简单的多线程爬虫实现 60
1.5.4  详解Heritrix多线程结构 61
本章小结 64
第2章  分布式爬虫 69
2.1  设计分布式爬虫 70
2.1.1  分布式与云计算 70
2.1.2  分布式与云计算技术在
爬虫中的应用--浅析
Google的云计算架构 72
2.2  分布式存储 72
2.2.1  从Ralation_DB到key/value
存储 72
2.2.2  Consistent Hash算法 74
2.2.3  Consistent Hash代码实现 79
2.3  Google的成功之道--GFS 80
2.3.1  GFS详解 80
2.3.2  开源GFS--HDFS 84
2.4  Google网页存储秘诀--BigTable 88
2.4.1  详解BigTable 88
2.4.2  开源BigTable-HBase 93
2.5  Google的成功之道--
MapReduce算法 98
2.5.1  详解MapReduce算法 100
2.5.2  MapReduce容错处理 101
2.5.3  MapReduce实现架构 102
2.5.4  Hadoop中的MapReduce
简介 104
2.5.5  wordCount例子的实现 105
2.6  Nutch中的分布式 109
2.6.1  Nutch爬虫详解 109
2.6.2  Nutch中的分布式 116
本章小结 118
第3章  爬虫的"方方面面" 121
3.1  爬虫中的"黑洞" 122
3.2  主题爬虫和限定爬虫 122
3.2.1  理解主题爬虫 122
3.2.2  Java主题爬虫 128
3.2.3  理解限定爬虫 130
3.2.4  Java限定爬虫示例 136
3.3  有"道德"的爬虫 152
本章小结 156
 
第2篇  自己动手抽取Web内容
 
第4章  "处理"HTML页面 159
4.1  征服正则表达式 160
4.1.1  学习正则表达式 160
4.1.2  Java正则表达式 163
4.2  抽取HTML正文 169
4.2.1  了解Jsoup 169
4.2.2  使用正则表达式抽取示例 173
4.3  抽取正文 177
4.4  从JavaScript中抽取信息 193
4.4.1  JavaScript抽取方法 193
4.4.2  JavaScript抽取示例 195
本章小结 197
第5章  非HTML正文抽取 199
5.1  抽取PDF文件 200
5.1.1  学习PDFBox 200
5.1.2  使用PDFBox抽取示例 204
5.1.3  提取PDF文件标题 205
5.1.4  处理PDF格式的公文 206
5.2  抽取Office文档 211
5.2.1  学习POI 211
5.2.2  使用POI抽取Word示例 211
5.2.3  使用POI抽取PPT 示例 213
5.2.4  使用POI抽取Excel示例 214
5.3  抽取RTF 217
5.3.1  开源RTF文件解析器 217
5.3.2  实现一个RTF文件解析器 217
5.3.3  解析RTF示例 222
本章小结 227
第6章  多媒体抽取 229
6.1  视频抽取 230
6.1.1  抽取视频关键帧 230
6.1.2  Java视频处理框架 231
6.1.3  Java视频抽取示例 235
6.2  音频抽取 247
6.2.1  抽取音频 248
6.2.2  Java音频抽取技术 252
本章小结 254
第7章  去掉网页中的"噪声" 255
7.1  "噪声"对网页的影响 256
7.2  利用"统计学"消除"噪声" 257
7.2.1  网站风格树 260
7.2.2 "统计学去噪"的
Java实现 268
7.3  利用"视觉"消除"噪声" 272
7.3.1  "视觉"与"噪声" 272
7.3.2  "视觉去噪"的Java实现 273
本章小结 277
 
第3篇  自己动手挖掘Web数据
 
第8章  分析Web图 281
8.1  存储Web"图" 282
8.2  利用Web"图"分析链接 291
8.3  Google的秘密--PageRank 291
8.3.1  深入理解PageRank算法 291
8.3.2  PageRank算法的Java实现 295
8.3.3  应用PageRank进行链接
分析 298
8.4  PageRank 的兄弟HITS 299
8.4.1  深入理解HITS算法 299
8.4.2  HITS算法的Java实现 300
8.4.3  应用HITS进行链接分析 311
8.5  PageRank与HITS比较 312
本章小结 313
第9章  去掉"重复"的文档 315
9.1  何为"重复"的文档 316
9.2  利用"语义指纹"排重 316
9.2.1  理解"语义指纹" 318
9.2.2  "语义指纹"排重的
Java实现 319
9.3  SimHash排重 319
9.3.1  理解SimHash 320
9.3.2  SimHash排重的Java实现 321
9.4  分布式文档排重 328
本章小结 329
第10章  分类与聚类的应用 331
10.1  网页分类 332
10.1.1  收集语料库 332
10.1.2  选取网页的"特征" 333
10.1.3  使用支持向量机进行
网页分类 336
10.1.4  利用URL地址进行
网页分类 338
10.1.5  使用AdaBoost进行
网页分类 338
10.2  网页聚类 341
10.2.1  深入理解DBScan算法 341
10.2.2  使用DBScan算法聚类
 实例 342
本章小结 344
 

商品标签

购买记录(近期成交数量0)

还没有人购买过此商品
总计 0 个记录,共 1 页。 第一页 上一页 下一页 最末页

用户评论(共0条评论)

  • 暂时还没有任何用户评论
总计 0 个记录,共 1 页。 第一页 上一页 下一页 最末页
用户名: 匿名用户
E-mail:
评价等级:
评论内容:
验证码: captcha